Mentionsy

MIT Sloan Management Review Polska
MIT Sloan Management Review Polska
11.07.2025 15:30

Limity AI: #9 Czego AI nie umie i nie będzie umieć? Prekursorskie badania w obszarze inżynierii promptów

W dziewiątym odcinku "Limitów AI" rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast "AI" warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać. Special Guest: dr Paweł Szczęsny.

Szukaj w treści odcinka

Znaleziono 17 wyników dla "LLM"

Na końcu to się nam sprzedaje, że ten LLM, który do tej pory zajmował się tekstem, nagle robi obrazy i więc to może sugerować, że już się rozwinął.

że LLM, wówczas to był O4 zdaje się testowany, dostaje instrukcję zadania matematycznego, które jest rozwiązywalne dla eksperta matematyka, natomiast generuje różne wyniki.

No to tylko, że zanim przejdziemy do tych zastosowań biznesowych, bo przypominamy, że Paweł między innymi prowadzi badania w laboratorium, które współtworzy, Neurofusion Lab i stosuje swoją wiedzę do, i masz doświadczenie w budowaniu inżynierii systemów predykcyjnych, systemów diagnostycznych i wykorzystujesz także LLM-y, bardzo ciekawie, o czym zaraz porozmawiamy, można wykorzystywać do badań.

czy tylko zmiana nazwy w stosunku do LLM-ów, czyli te takie nowe wersje, zaawansowane wersje modeli językowych, które w nazwie mają to słowo przechwycone reasoning, czyli rozumowanie.

modele reasoningowe są jeszcze bardziej niestabilne niż klasyczne LLM-y.

Czyli wspominałeś o tym, że jak się używa klasycznego LLM-a, można zadać to samo pytanie 100 razy, dostanie się 6 różnych odpowiedzi.

Znaczy ja z tego słyszę po pierwsze potwierdzenie tego, słuchajcie, trzeba rozumieć, jak działają LLM-y i pochodne LRM-y.

Natomiast teraz przejdźmy właśnie do takich wskazań bardziej praktycznych, bo obaj korzystamy i z LLM-ów i z LRM-ów.

Dzięki temu, że znam Pawła i tym, czym się zajmuję, zrozumiałem, że w LLM-ach, które były trenowane na tekstach dostępnych w sieci, zapisana jest obecna w tych tekstach, oczywiście w naskórkowej postaci, ale jednak obecna

I dzięki temu przy odpowiednim zaczesywaniu, czyli takim wyciąganiu z LLM-ów,

Wyciągnąłem z LLM-a przy wsparciu mojego serdecznego kolegi Mariusza Wziątka, który jest inżynierem i który potrafi to robić oczywiście lepiej ode mnie,

postanowiłem wykorzystać właśnie wiedzę dostępną w LLM-ach do stworzenia takich syntetycznych awatarów, które w swoim zachowaniach, czyli podczas interakcji, zachowałaby się jak typowy, oparty na

wiedzy dostępnej w LLM, zaszytej w LLM ZK i to jeszcze w różnych profilach, potem na to nałożyłem systemy motywacyjne RISE'a, czyli jakie ma motywacje specyficzne, które potem różnicowały te ZK, jakie ma systemy komunikacji, czyli tutaj FRISA, z kolei posłużyliśmy się modelem FRISA, no to są takie typowe, proszę Państwa, modele, powiedzmy, wykorzystywane przez coachów, tak, czyli w budowaniu przywództwa w biznesie.

Popatrzcie, jaka jest skala użycia LLM-ów.

I to jest obecne w wielu różnych miejscach, chociażby nawet w takim kontekście używania LLM-ów w takich kontekstach rozwojowych.

Praktycznym wskazaniem, żeby, ja myślę podsumowując, czy to w biznesie, czy to w takich zastosowaniach praktycznych, korzystajmy z LLM-ów, czy z LRM-ów, przede wszystkim w obszarach, na których się dobrze znamy.

men in the loop, zweryfikować, mówiąc kolokwialnie, wynik, albo szukajmy takich, to znaczy, że w biznesie ty musisz mieć ekspertów, którzy ci będą sprawdzać odpowiedzi generowane przez generatywno-sztuczną inteligencję, bo o takiej dzisiaj rozmawialiśmy, tak, czyli o de facto LLM-y i LRM-y, w tym wyszukiwarki generatywne.