Mentionsy
#29 - Sztuczna Inteligencja: Czy można mieć z nią relacje? | dr Konrad Maj
Sztuczna inteligencja to obecnie bardzo gorący temat i to z wielu różnych perspektyw. Jedną z nich jest psychologia obcowania z tymi systemami, bo okazuje się, że obserwujemy rosnącą liczbę ludzi, którzy nie tylko używają ich do pomocy w wykonywaniu zadań, ale angażują się w głębsze i bardziej intymne konwersacje. Pojawia się tutaj oczywiście pytanie: jaki to może mieć wpływ na naszą psychikę? W dzisiejszym odcinku miałem przyjemność porozmawiać z dr Konradem Majem zarówno o relacjach z systemami sztucznej inteligencji, ale także o tym, jak może to wpłynąć na społeczeństwo, edukację czy problem „alignmentu”. --------- Dr Konrad Maj jest psychologiem społecznym i kierownikiem Centrum HumanTech na Uniwersytecie SWPS, a także adiunktem w Zakładzie Sztucznej Inteligencji na Wydziale Projektowania w Warszawie. Zajmuje się społecznymi i psychologicznymi aspektami nowych technologii, zwłaszcza sztucznej inteligencji oraz robotyki humanoidalnej. Jest autorem licznych publikacji naukowych, a także angażuje się w popularyzację wiedzy. SWPS: https://swps.pl/konrad-maj -------- Rozdziały: Wstęp Psychologia relacji z AI Bańki informacyjne i personalizacja kontaktu z AI Wpływ AI na funkcje poznawcze Asymetria relacji z AI Wpływ AI na społeczeństwo Wpływ AI na edukację Czy inteligencja ludzka będzie potrzebna? Problem alignmentu
Rozdziały (9)
Sponsorzy odcinka (2)
"www.astronarium.pl www.facebook.com"
"www.sztuczna.pl"
Szukaj w treści odcinka
Te LLM-y są dla nas... Jest to jakaś natychmiastowa interakcja, one są nieoceniające, one są wspierające.
Rzadko się zdarza, żebyśmy korzystali, bo oczywiście są takie możliwości, żebyśmy nie pozwalali na gromadzenie tych danych, na tworzenie jakichś historii, ale większość ludzi tego nie robi, bo wręcz tego chce, żeby on pamiętał, więc my nawet mamy, czy w czasie GPT, czy w innych LLM-ach, możliwość niejako opisania siebie, przedstawienia siebie, kim my jesteśmy, no i później wiadomo, że te chatboty się do tego odwołują, a zatem sami sobie to fundujemy.
Coś jest na rzeczy, że po prostu ludzie coraz gorzej funkcjonują, którzy jakby są w stałym kontakcie z jakimś LLM-em.
Ale to tylko czują się gorzej po jakimś czasie w kontakcie z tym LLM-em?
Więc mamy też nie raz taką totalną iluzją, że wydaje się, że nie ma się co dziwić, że ludzie zaczynają mieć już pewien problem, kłócić się ze swoimi LLM-ami, nazywać je...
W tej chwili już powoli pojawiają się debaty, dyskusje na temat tego, czy pewne nadmierne korzystanie z LLM-ów albo wręcz zapuchiwanie się w tych komunikatorach cyfrowych już nie powinno mieć swojej jednostki chorobowej, nie powinno być traktowane jako zaburzenie psychiczne.
Jeśli ten LLM zaskakuje ludzi, zwłaszcza tych, którzy nie mają zbyt dużo wiedzy na danych temat, jeśli uzyskują potwierdzenie pewnych informacji, uzyskują jakąś rzetelną odpowiedź i czasami to jest tak, że człowiek, na przykład jakiś ekspert w danej dziedzinie okazuje się nie mieć racji, a ktoś sprawdzi z LLM-em i się okazuje, że on miał rację.
No to takie doświadczenia popychają ludzi w kierunku wysłuchiwania tych LLM-ów na niemal każdy możliwy temat.
Tak jest personalizowane, ponieważ my jesteśmy w jakiejś bańce, gdzie my jesteśmy niemal sami z jakimś czatem, z jakimś LLM-em, z jakąś sztuczną inteligencją, z którą się komunikujemy, z którą wchodzimy w jakieś bliskie relacje.
To przecież nie tylko polega na rozmowie, ale na wykonywaniu pewnych zadań wspólnie, a z LLM nie usiądziemy, nie zjemy kolacji, nie obejrzymy filmu.
Więc proszę zauważyć, że rzeczywiście to się zrobił taki jakiś psycholog rodzinny, ten czat GPT czy inny LLM, ale najczęściej jest to GPT, który również rozstrzyga małżeńskie spory, który doradza w jakichś kwestiach, czy to jest okej.
Gdyby na przykład, wyobrażam sobie takie LLM-y,
I teraz na tym przykładzie również bazując, moglibyśmy powiedzieć tak, gdyby on skorzystał, jeśli chodzi o te porady, z jakiegoś LLM-a, ze Sztucznej Inteligencji, no to do dzisiaj byłby rozwiedziony, samotny.
Jest ten kłopot, że młody człowiek, student, ale też i licealiści, którzy oczywiście nie przyznają się do korzystania z tych LLM-ów, przynoszą pewne produkty, które wygenerowali sobie, kładą, że tak powiem, na stół jako swoje.
Ja będę w przyszłości na pewno również pracować z LLM-ami, w związku z tym ja nie zamierzam
Ja myślę, że zaprzęgnięcie LLM-ów do edukacji też nie jest złym rozwiązaniem.
Na przykład okazuje się, że taka pewność siebie LLM-ów powoduje niestety ale to, że ludzie nie weryfikują informacji.
Kolejną rzecz, którą bym wprowadził, to jednak kiedy system widzi, że ktoś właściwie w każdym przypadku używa tego LLM-a,
Tak, to może jeszcze na koniec jedno pytanie mam do Ciebie a propos tego problemu alignmentu, bo wszystko, o czym teraz rozmawiamy, to rozmawiamy trochę w kontekście tego, jakie te LLM-y teraz są, ale no wiemy, że tutaj majstruje się przy tym, jakie one są i mieliśmy tego Groka i Mecha Hitlera.
To zweryfikuje przy pomocy innego artykułu napisanego przez innego LLM-a.
Nawet gdyby chcieć tak naprawdę stworzyć jakąś księgę i pokazać, jak działają bardzo szczegółowo oczywiście LLM-y, bo ogólnie to wiemy, to mogłoby się okazać, że to i tak nie ma sensu, bo my nie jesteśmy w stanie tego zrozumieć.
Ostatnie odcinki
-
#48 - Czy istnieje prawdziwy przypadek? Fizyka ...
22.04.2026 18:00
-
#47 - Fizyka społeczna, emergencja, media społe...
15.04.2026 18:00
-
#46 - Czasoprzestrzeń, fale grawitacyjne i przy...
08.04.2026 18:00
-
#45 - Czy "Ja" to iluzja? Naukowe oblicze medyt...
01.04.2026 18:00
-
#44 - Czy matematykę wymyślamy, czy odkrywamy? ...
25.03.2026 19:00
-
#43 - Czy umysł to tylko skomplikowany algorytm...
18.03.2026 19:00
-
#42 - Czarne dziury, gwiazdy neutronowe i sztuc...
11.03.2026 19:00
-
#41 - Trudny problem świadomości, śpiączka i ps...
04.03.2026 19:00
-
#40 - Inteligencja bez świadomości? Granice szt...
25.02.2026 18:00
-
#39- Nowy stan skupienia materii? Kryształy Cza...
18.02.2026 19:00