Mentionsy

To Bardziej Skomplikowane
To Bardziej Skomplikowane
08.10.2025 18:00

#29 - Sztuczna Inteligencja: Czy można mieć z nią relacje? | dr Konrad Maj

Sztuczna inteligencja to obecnie bardzo gorący temat i to z wielu różnych perspektyw. Jedną z nich jest psychologia obcowania z tymi systemami, bo okazuje się, że obserwujemy rosnącą liczbę ludzi, którzy nie tylko używają ich do pomocy w wykonywaniu zadań, ale angażują się w głębsze i bardziej intymne konwersacje. Pojawia się tutaj oczywiście pytanie: jaki to może mieć wpływ na naszą psychikę? W dzisiejszym odcinku miałem przyjemność porozmawiać z dr Konradem Majem zarówno o relacjach z systemami sztucznej inteligencji, ale także o tym, jak może to wpłynąć na społeczeństwo, edukację czy problem „alignmentu”. --------- Dr Konrad Maj jest psychologiem społecznym i kierownikiem Centrum HumanTech na Uniwersytecie SWPS, a także adiunktem w Zakładzie Sztucznej Inteligencji na Wydziale Projektowania w Warszawie. Zajmuje się społecznymi i psychologicznymi aspektami nowych technologii, zwłaszcza sztucznej inteligencji oraz robotyki humanoidalnej. Jest autorem licznych publikacji naukowych, a także angażuje się w popularyzację wiedzy. SWPS: https://swps.pl/konrad-maj -------- Rozdziały: Wstęp Psychologia relacji z AI Bańki informacyjne i personalizacja kontaktu z AI Wpływ AI na funkcje poznawcze Asymetria relacji z AI Wpływ AI na społeczeństwo Wpływ AI na edukację Czy inteligencja ludzka będzie potrzebna? Problem alignmentu

Rozdziały (9)

1. Wstęp
2. Psychologia relacji z AI
3. Bańki informacyjne i personalizacja kontaktu z AI
4. Wpływ AI na funkcje poznawcze
5. Asymetria relacji z AI
6. Wpływ AI na społeczeństwo
7. Wpływ AI na edukację
8. Czy inteligencja ludzka będzie potrzebna?
9. Problem alignmentu

Sponsorzy odcinka (2)

www.astronarium.pl post-roll

"www.astronarium.pl www.facebook.com"

www.sztuczna.pl pre-roll

"www.sztuczna.pl"

Szukaj w treści odcinka

Znaleziono 26 wyników dla "AI"

Dzisiaj rozmawiamy o relacjach z systemami sztucznej inteligencji i przyznam, że ostatnio z dużą ciekawością śledziłem, co się działo, kiedy OpenAI podmienił ten model 4.0 na 5.

I do tego stopnia, że OpenAI musiało przywrócić ten model 4.0.

No tak, tutaj dane, najnowsze wyniki badań w jakimś sensie mogą się wydawać, nawet pozostawać w sprzeczności, ponieważ jeśli chodzi o jakieś krótkoterminowe korzyści, to badania chociażby opublikowane przez Harvard Business School pokazują, że one mogą tacy towarzysze AI-owi zmniejszać samotność i to jest na poziomie porównywalnym z człowiekiem,

To był taki zespół, o ile pamiętam, mieszanka taka amerykańsko-chińska i oni się wzięli za badania nad użytkownikami charakter AI.

Rozmawiamy no właśnie z tymi partnerami AI-owymi, jak z ludźmi.

Gdyby wziąć pod uwagę te dane, które tutaj szybko podsumowałem, no to możemy powiedzieć w ten sposób, że jeśli chodzi o krótkoterminowe relacje, no to jakieś korzyści są i być może w chwilach trudnych są to narzędzia AI-owe, jakby niezależnie od tego, czy to są te takie ogólnodostępne modele językowe, czy takie bardziej wyprofilowane chat-boty, jak np.

replika czy charakter AI.

No i AI dobrze zrobiony, który trafia w nasze potrzeby, może być jakąś pułapką i tego też się boję, ponieważ tak jak mówisz, istnieje

Właśnie wspomniałeś o MIT, ale rzeczywiście MIT Media Lab, zresztą co ciekawe we współpracy z OpenAI już kilka takich badań przeprowadziło i oni sami zauważyli, że osoby, które intensywnie korzystają z czata GPT, do codziennych konwersacji, to już zaczynają deklarować, ujawniać takie uzależnienie emocjonalne od tego narzędzia.

Wiadomo, że sztuczna inteligencja jest bardzo pomocna w wielu obszarach i nie mamy wątpliwości i tam jakby się nie czepiamy jej, tylko najwięcej emocji wskuza to, kiedy ona udaje człowieka, bo proszę zwrócić uwagę, że to pojęcie sztuczna inteligencja jest skojarzone z człowiekiem bardzo mocno, ale przecież wiele rzeczy, które robi AI,

W związku z tym AI nas często przewyższa i to absolutnie nie można mówić, że to jest odzwierciedlenie czy w jakiś sposób symulowanie tego, co my sami potrafimy.

Ale właśnie ten obszar, kiedy AI zaczyna kopiować nas jako ludzi, nasze interakcje, nasze sposoby komunikowania się, to wszystko, co jest takim przymiotem ludzkim, to tworzy

To były bardzo rozmaite sytuacje.

Myślę, że te pokolenia, które teraz się rodzą, to będą pokolenia, które były w dużym stopniu wychowane przez AI.

Ja już też czasami, chce mi się śmiać, jak ludzie wysyłają jakieś screeny z tego czata i że na przykład, nie wiem, dietę układają sobie w ten sposób albo zadają jakieś naprawdę bardzo rozmaite po prostu pytania na temat stylu życia, co mają zrobić ze sobą, analityka, gdzie pojechać na wakacje, jakieś czasami nawet widzę tabele, gdzie ten czat rzeczywiście jest w stanie to porównać, zestawić, jakie opcje najlepsze.

Ale to jeszcze i tak jest takie bardzo analityczne, bo są ludzie, którzy... Jest gdzieś taki wątek, widziałem na jakimś reddicie czy gdzieś, właśnie teraz sprawdzając temat, zanim rozmawialiśmy, że tam jest mój przyjaciel, czy tam mój chłopak, Sztuczna Inteligencja, myboyfriend.ai, jest cała grupa ludzi, którzy po prostu traktuje czata jako partnera, nie tylko właśnie jako...

I ten AI Alignment mówi o tym, że

A rzeczywiście dla mnie jako psychologa też jest poważnym problemem to, że możemy w pewnym momencie mieć totalny problem ze zrozumieniem tego, co jest generowane przez AI.

Internet będzie zawalony tymi treściami wygenerowanymi przez AI.

W ogóle ludzie, którzy będą sami coś pisać, to będą traktowani jako dziwologi, a poza tym ich produkty nie będą takie dobre, bo nie da się wygrać z AI.

Będzie coraz większa za 20 lat, no to po prostu ludzie będą moim zdaniem sobie coś klikać, będą coś otrzymywać i zruszać ramionami, bo nawet nie będą wiedzieli, nie będą znali tych pojęć, bo jeszcze tu dochodzi taki problem, że AI udoskonala się do tego stopnia, że gromadzi coraz więcej wiedzy, te elemy są coraz bardziej wyrafinowane, te wszystkie modele, o których wspomniałeś, piątka, czwórka, pewnie nie wiem, kilka lat będzie, piętnastka na przykład.

AI będzie sprawdzane przez AI.

No i tutaj właśnie się pojawia dla mnie ten problem alignmentu, dlatego że jeżeli cele tego AI, ponieważ wszystko będzie robić AI, to można powiedzieć, że AI będzie rządzić tym systemem.

Więc tutaj ten problem taki, żeby cele tego AI były również zgodne z naszymi, a nie żeby on stwierdził, nie wiem, taka już wersja matrixowa, co jest oczywiście science fiction, ale...

AI gdzieś tam zacznie się z tego łańcucha uwalniać.

No ale no właśnie nikt tego nie jest w stanie stwierdzić, bo pamiętajmy, że czy OpenAI, czy Microsoft, czy inni wielcy gracze na tym polu też nie do końca są w stanie opisać, jak te systemy działają.