Mentionsy

Rozwój w Biały Dzień
Rozwój w Biały Dzień
14.05.2025 14:25

Large World Model. AI, która nie papuguje, tylko zaczyna kombinować.

Czy dron, który sam szuka zaginionego człowieka w lesie, przewidując jego ruchy i analizując zmiany w zachowaniu ptaków tylko symuluje inteligencję, czy już ją ma? 

Nie chodzi o kolejne mądre teksty generowane przez modele językowe. Chodzi o maszyny, które budują własne mapy świata. Które przewidują, co wydarzy się dalej. Które wiedzą, że jeśli ktoś podnosi filiżankę – to pewnie chce się napić, a nie zacząć grę w szachy.

W tym odcinku opowiem Wam o Large World Models – czyli AI, które już nie gada jak człowiek, tylko myśli jak człowiek. Albo gorzej – jak coś, co dopiero zaczyna być człowiekiem.

To AI, która nie tylko czyta świat, ale zaczyna go rozumieć. Nie teksty. Nie dane. Tylko ciąg zdarzeń, emocje, kontekst, motywacje.

Czy to jeszcze technologia? Czy już początek nowego gatunku poznawczego?

Posłuchajcie koniecznie i włączcie się do dyskusji!

Sponsorzy odcinka (1)

Words&Q, Words Labs post-roll

"Words&Q, Words Labs. Oni skupiają się na zastosowaniach przemysłowych i militarnych."

Szukaj w treści odcinka

Znaleziono 31 wyników dla "AI"

Coś, co może tym razem redefiniuje, jak myślimy o AI.

No i takim sposobem znów trafił mi się temat, który wbija się w moje zainteresowanie jak klucz w zamek.

Takiej AI, która nie tylko generuje zdania, ale naprawdę zaczyna rozumieć co się dzieje.

Czyli co nie dawało spokoju badaczom AI?

Zacznijmy od czegoś, co warto sobie przypomnieć, że ta cała przygoda z AI nie zaczęła się od tworzenia inteligentnych świadomości, tylko od prostych, bardzo konkretnych zadań.

AI, które nie tylko przetwarza dane, ale próbuje zbudować wewnętrzną reprezentację rzeczywistości.

No bo jak inaczej nauczyć AI rozumieć świat, jeśli nie damy jej czegoś w rodzaju no takiego własnego wewnętrznego świata.

Bo wbrew nazwie Large World Model to nie jest po prostu duży model AI.

Dlatego LWM-y to nie są tylko generatywne AI,

Ale refleksyjne AI.

Wyobraźcie sobie, że ktoś wrzuca do AI godzinny film.

I to tłumaczy, dlaczego nagle wszyscy ci, którzy tworzą najambitniejsze modele AI rzucili się na wideo.

W AI mówi się, że tekst to dane dyskretne.

Masz kamerę, trochę czujników, GPS, no i model AI na pokładzie.

I to nie są dane, które AI widzi bezpośrednio.

Podobne testy robiono z LWM-ami w środowiskach takich jak Habitat AI.

I w tym sensie Large World Models to pierwszy krok do AI, które naprawdę mogą być naszymi partnerami poznawczymi.

A co sprawia, że dzisiaj AI może pamiętać milion tokenów i analizować je bez zadyszki?

Jakim cudem AI ogarnia tak długie, złożone informacje naraz?

I w wersji AI-owej to właśnie jest kontekst.

Dzięki temu AI może analizować nawet milion tokenów naraz.

Możecie zapytać, ok, fajnie, że modele AI próbują rozumieć świat, tylko po co?

Czy nie wystarczą nam dotychczasowe rozwiązania, które już dzisiaj świetnie piszą maile, tłumaczą teksty, generują obrazki i robią memy z papugami?

Jeśli śledzicie, co dzieje się w autonomicznych pojazdach, to wiecie, że AI w samochodzie musi rozumieć nie tylko gdzie jest, ale też gdzie będą inni za 5 sekund.

Wprawdzie nie mamy jeszcze modelu, który rozumie świat jak film, ale mamy zespół, który chce, żeby AI rozumiała płuca tak jak lekarz.

Czy to wszystko oznacza, że AI naprawdę zrozumie świat?

To nie jest AI, która czegoś chce, tylko taka, która coś wylicza.

Czy LWM to krok do rozumiejącej AI?

Czy chcemy, żeby AI wiedziała co zrobimy, zanim sami zdążymy to przemyśleć?

tego, że AI musi nie tylko oglądać świat, ale w nim być, mieć ciało, wchodzić w interakcje, popełniać błędy, czuć opór fizyczny, ryzyko, nieprzewidywalność prawdziwego świata.

Nie chodzi tylko o to, by AI była mądra.