Mentionsy

MIT Sloan Management Review Polska
MIT Sloan Management Review Polska
23.10.2025 15:00

Limity AI: #13 A co jeżeli Turing prowadzi na manowce? Komputacyjność a inteligencja

Z rozmowy dowiecie się także jak można kwestionować argument "chińskiego pokoju" stawiany przez Johna Searle'a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.

Gościem 13 odcinka "Limitów AI" jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji.

Special Guest: prof. Michał Karpowicz.

Szukaj w treści odcinka

Znaleziono 44 wyników dla "LLM"

Karpowicz opublikował w te wakacje w kilku wersjach już i która to wykazuje matematycznie, dlaczego halucynacje są czymś, czego nie możemy wyeliminować z LLM-ów, z transformerów, czyli trenowanych na języku.

W dostatecznie dojrzałym systemie odpowiadania na pytania, czy wnioskowania, czy w LLM, dostatecznie dojrzałym, aby ten system był w stanie odpowiadać na pytania nietrywialne, musi być naruszone jedno z czterech kryteriów odpowiedzi, którą uznalibyśmy za...

Czyli tym ograniczeniem dla nas byłoby doświadczenie pozajęzykowe rzeczywistości, którego nie ma LLM.

I on właśnie zwraca uwagę dobitnie na to, o czym wiemy, ale o czym mało myślimy, że LLM-y fantastycznie, ok, prognozują, co powinno się napisać, co może się napisać, w zależności od instrukcji, czyli prompta, ale mają zero danych.

Bo powiedziałeś, że tym ograniczeniem dla tych naszych LLM-ów powiedzmy, bo ja też nie chcę polemizować z taką interpretacją, że mamy pewien tryb działania naszego umysłu, mózgu, także w obszarze przetwarzania informacji tekstowej, wiedzy takiej właśnie zwerbalizowanej, gdzie przewidujemy, co powinniśmy powiedzieć i potrafimy interpretować teksty

pierwsze takie próby łączenia tego systemu Aloha, to jest takie ramiona robotyczne, z Gemini'em, czyli ze zbudowanym na Gemini'u, na LLM'ie modelem, który też właśnie już interpretuje wizualne obiekty, to tam było ciekawe, że jeszcze pół roku temu, przynajmniej tak to było sprzedawane, mogłeś wydać instrukcję w naturalnym języku, która wskazywała maszynie, żeby zrobiła coś, do czego nie była trenowana behawioralnie,

Punktem wyjścia jest w ogóle piękny problem matematyczny, który został rozwiązany przez Bellmana.

Richard Bellman w latach 40-tych, 50-tych zajmował się zadaniem sterowania optymalnego, to znaczy jak w optymalny sposób

Rozwiązanie, które zaproponował, wyraża się słynnym układem równań Bellmana.

Ja uwielbiam napoczynać tablicę równanie Bellmana.

Jak mam nową tablicę gdzieś, to pierwszą rzecz, którą piszę na tej tablicy, to jest równanie Bellmana na nieskończonym horyzoncie.

Optymalna... Rozwiązaniem równania Bellmana jest polityka sterowania.

Równanie Bellmana już to obejmuje, ale równanie Bellmana, jak powiedzieliśmy, nie można rozwiązać.

Ja tylko skomentuję punktem wyjścia tej dygresji, że mamy na talerzu ważną rozmowę z twórcą tego podejścia, ale też, który z jednej strony, wrócimy zaraz do LLM-ów, krytykuje...

Znaczy kropkę, a wracamy do punktu wyjścia, bo powiedziałeś, jeszcze raz powtórzę taką tezę, że zrównujesz halucynacje LLM-ów z wyobraźnią, ponieważ to jest proces naturalny dla tworzenia predykcji, dla tworzenia modeli rzeczywistości, przy czym wyszliśmy w tę dygresję w momencie, kiedy powiedziałeś, że LLM-y nie mają tych ograniczeń, co my, tak?

I to jest to, czego LLM nie ma.

LLM doskonale sobie radzą z systemie pierwszym, czyli generowaniem czegoś, co ja to nazywam nie kreatywnością, tylko generatywnością.

I to jakby wprowadzenie tego do architektury LLM-ów jest w zasadzie trywialne.

To się nazywa AI czy LLM steering.

ogólnych reprezentacji słów i potem to ogólne znaczenie w rozumieniu LLM-a jest korygowane kontekstem.

Czyli musimy skonstruować mechanizm, który na podstawie zapytania wyszuka w dostępnych dokumentach to, co jest istotne i potem na podstawie tych wyszukanych informacji zbudować kontekst i poprosić LLM, żeby zbudował wypowiedź na podstawie tego kontekstu.

LLM-y funkcjonują, czy ta inferencja w LLM-ach odbywa się w przestrzeni znaczeń, w przestrzeni interpretacji i w przestrzeni aproksymacji.

I tutaj wobec tego nie widzę... To jest argument, żeby nie przenosić 1 do 1 tego na LLM-y, bo Penrose to robi.

I teraz ja rozumiem to przejście, że LLM-y, które nie istniają w czasach, kiedy Beden sformułował swój argument, interpretacja, a nie Geddel, jednak operują na pewnej, powiedzmy, semantyce.

Żeby nauczyć LLM, musisz rozwiązać układ równań.

jak przy pomocy niepełnej informacji, fragmentu wiedzy, znaleźć tę odwrotność po to, żeby móc nauczyć LLM-a.

Po co to, żeby móc uczyć LLM-a.

Wracamy do LLM-u w takim razie.

LLM-y mają bardzo dużo informacji, ale tekstowych.

Ale mówimy, że to jest umiejętność odnoszenia tekstu do rzeczywistości, czyli ja łączę ze sobą to, co na przykład mi dostarcza książka, podręcznik albo LLM i odnoszę to do jakiejś rzeczywistości pozajęzykowej.

i tego, że rozumiemy, że potrzebujemy wiedzy innej niż zawarta w LLM-ie do tego, żeby odnosić, czy to nie pokazuje właśnie na przewagę, na jakąś różnicę, którą posiada nasz umysł, której nie możemy póki co symulować.

Tych przewag jest mnóstwo rzeczywiście i tak oczywiście cóż może wiedzieć LLM, no to co tam gdzieś wyczytał skądś i to jest jego, jego, tego, jej, tego oto LLM-a, temu LLM-u.

obraz świata i to jest w ogóle w wywłoczeniu tak zwanej prawdy prawdziwej, czyli ground truth, która jest obecna w... która jest zbiorem trenującym, czyli LLM wie tyle, ile mu się pokazało.

o tym, co warunkuje użycie języka, o tym, czego nie ma w modelu językowym rzeczywistości LLM.

No bo pytanie właśnie, czy tutaj nie ma zastosowania ta zasada, że LLM jest jednak maszyną liczącą, nie?

Ale i tak działają LLM-y, ja rozumiem.

Natomiast tam wnioski są takie, że po pierwsze, i to jest, wracamy na powierzchnię można powiedzieć, bo to już jest dla każdego użytkownika, zwykłego zjadacza LLM-a, że po pierwsze pamiętajcie, że błędy są nieuchronne, zwłaszcza dla tak zwanych arbitralnych faktów, to jest język OpenAI, a ty mówisz o nietrywialnych pytaniach.

Każdy interfejs LLM jest tak zrobiony, żeby tobie się umizgiwać.

Czyli one są tak uczone, żeby maksymalizować satysfakcję użytkownika z udzielonej przez LLM odpowiedzi.

I chciałbym posłyszeć, no dobrze, to teraz ja mam powiedzmy biznes, albo ja mam jakieś krytyczne procesy oparte na LLM-ach lub na, no bo na razie to są LLM-e, czyli na jakichś generatywnych transformerach pretrenowanych.

Więc, no zresztą to jest to, co Szolem mówi, że LLM-y robią lepiej od nas systemu pierwszego.

Ale jeżeli chcemy skorzystać rzeczywiście z mocy LLM-a, czyli tego wzmacniania tego, no to pytanie...

Ja rozumiem, że też na końcu, jeżeli myślimy, że możecie, sam wykorzystuje LLM-y na przykład jako tworząc wirtualnych pracowników czy wirtualnych konsumentów i rozumiem, że nawet jak nie będzie jakiegoś drastycznego skoku technologicznego, to idziemy w stronę tego, że będziemy mieć za chwilę kieszonkowe LLM-y.

No i teraz to, co mówisz, to jest też taka, jeżeli dobrze rozumiem, sugestia, że za chwilę, jak już będziemy mieli te kieszonkowe LLM-y, będziemy mogli sobie ten alignment, ten kaganiec nakładać w zależności od potrzeb i oszacując ryzyko.