Mentionsy
Limity AI: #13 A co jeżeli Turing prowadzi na manowce? Komputacyjność a inteligencja
Z rozmowy dowiecie się także jak można kwestionować argument "chińskiego pokoju" stawiany przez Johna Searle'a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.
Gościem 13 odcinka "Limitów AI" jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji.
Special Guest: prof. Michał Karpowicz.
Szukaj w treści odcinka
Witamy Państwa w trzynastym odcinku naszego cyklu Limity AI, w którym z naszymi gośćmi, badaczami nowych technologii, naukowcami, inżynierami AI i praktykami biznesu, krytycznie badamy dyskusję wokół AI i próbujemy zrozumieć o co właściwie chodzi, co jest w tej dyskusji
rzetelnym, popartym naukowo faktem, a co clickbaitowym, marketingowym spinem, futurystyczną spekulacją czy wręcz dezinformacją służącą grze kapitału.
Naszym celem nie jest tu krytykanstwo czy kwestionowanie korzyści jakie daje AI, ale wręcz przeciwnie, precyzyjne ustalenie spektrum tych korzyści i realnych zastosowań przy jednoczesnym określeniu faktycznych ograniczeń, czyli tytułowych limitów.
I czwarte kryterium to jest knowledge constraint optimality.
I teraz, gdybym miał studenta, który wprawdzie się nie przygotował, to zawsze mogę ocenić to, na ile on jest w stanie zaimprowizować.
Czyli jeden z gigantów, starszy pan już, ale jeden z gigantów twórców AI.
To nie jest metafora, dokładnie tak to jest zaimplementowane.
To się nazywa AI czy LLM steering.
Ok, żeby nie redukować tego, co rzeczywiście... Tak, bo rzeczywiście, bo zobacz, nie mamy problemu z tym, że klucz francuski pozwala nam przykręcić śrubkami, w życiu tej śrubki nie przykręcimy, ale już mamy wielki problem z tym, że AI potrafi lepiej od nas rozwiązywać zadania na olimpiadzie matematycznym.
Do tego wrócimy, jak zarządzać i tam może jeszcze nam się uda proskleić z tym, co publikowali niedawno autorzy z Open AI.
Ja zawsze czytam książki, nie pamiętam nazwiska autora, ale tytuł książki jest The Myth of AI, wydany jest przez Harvard University Press.
Aha, i jeszcze drugi perfidny zformułowany kontrargument, że mówienie o tym, że znaczenie nie pojawia się z takiego procesu, jest podobnie naiwne jak twierdzenie, że potrząsanie magnesem nie generuje światła.
Pojawiły się dwa takie na przestrzeni ostatniego roku, to znaczy po raz pierwszy to był jeszcze rok temu artykuł, paper takiego zespołu inżynierów AI w APL-u, w którym między innymi uczestniczy Sami Benio, czyli brat Joshua Benio,
Dlaczego to jest ważne w kontekście AI?
Może najpierw odnieśli się do tekstu, do badań opublikowanych przez zespół OpenAI, które ciekawe, że doszedł do takich wniosków jak ty, chociaż chyba inną drogą.
Natomiast tam wnioski są takie, że po pierwsze, i to jest, wracamy na powierzchnię można powiedzieć, bo to już jest dla każdego użytkownika, zwykłego zjadacza LLM-a, że po pierwsze pamiętajcie, że błędy są nieuchronne, zwłaszcza dla tak zwanych arbitralnych faktów, to jest język OpenAI, a ty mówisz o nietrywialnych pytaniach.
Potem dołóżmy do tego to, że autorzy z OpenAI twierdzą, że tego się nie da wyeliminować po treningu, ponieważ testy nagradzają zgadywanie.
Można konstruować takie ciągi kontekstów, bo to w ogóle dotyczy Chain of Thoughts, czyli tych mechanizmów wnioskowania.
Bo to tam jest takie palące zainteresowanie, że fajnie by było zastąpić tych paralegals, asystentów.
Naszym gościem był profesor Michał Karpowicz, profesor informatyki technicznej, szef Samsung AI Center w Warszawie.
Ostatnie odcinki
-
Podcast MIT SMRP. Dlaczego po 40-tce tak trudno...
25.02.2026 15:00
-
Zdrowie Lidera: #4 Otyłość bez mitów: nauka, mó...
22.12.2025 15:00
-
Neverending Startup: Jak zbudowałem firmę wartą...
03.12.2025 16:30
-
Limity AI: #14 Kicz technologiczny – co nam się...
12.11.2025 16:00
-
Limity AI: #13 A co jeżeli Turing prowadzi na m...
23.10.2025 15:00
-
Mentoring dla Liderów C-Level: Rozwój, Samotnoś...
17.10.2025 14:00
-
Jak dzięki AI zwiększyć sprzedaż i poprawić obs...
16.10.2025 16:00
-
Bądź dobrym szefem i... spróbuj nie zwariować
10.10.2025 11:30
-
Limity AI: #12 Dlaczego LLMy nie mogą przestać ...
09.10.2025 15:00
-
Gotowi na Gen Z: #1 Roszczeniowi czy świadomi? ...
06.10.2025 14:00