Mentionsy

PTTPB - Wiedza ma znaczenie
PTTPB - Wiedza ma znaczenie
19.02.2026 11:53

Solipsyzm, fake'owa empatia w AI. Gość: dr n. med. Artur Wiśniewski

Odcinek o tym, jak „empatyczne” chatboty potrafią brzmieć bardziej wspierająco niż człowiek - i dlaczego to bywa jednocześnie ulgą oraz pułapką. Z perspektywy klinicznej rozkładamy na czynniki pierwsze „emocjonalny solipsyzm”: sytuację, w której AI zawsze potwierdza, zawsze jest dostępna i nigdy nie stawia granic, przez co może wzmacniać unikanie, zaniżać tolerancję na dyskomfort relacyjny i rozmywać sens realnej konfrontacji, która jest sercem terapii.

W odcinku poruszamy też wątek „fałszywej empatii” (deceptive empathy) — dlaczego system może perfekcyjnie naśladować ton współczucia, nie mając doświadczenia cielesnego ani współregulacji, oraz jak to wpływa na oczekiwania pacjentów wobec terapeutów.

Gość: dr n. med. Artur Wiśniewski – lekarz psychiatra (w tym psychiatra dzieci i młodzieży) oraz certyfikowany psychoterapeuta poznawczo-behawioralny, związany także z działalnością dydaktyczną i superwizyjną z PTTPB. W pracy klinicznej zajmuje się m.in. diagnozą i leczeniem trudności neurorozwojowych (np. ADHD/ASD) u dzieci, młodzieży i dorosłych.

Montaż: Eugeniusz Karlov

Szukaj w treści odcinka

Znaleziono 19 wyników dla "Gen Z"

diagnozą i leczeniem trudności neurorozwojowych, chociaż w ostatnim czasie bardzo intensywnie rozwija swoją wiedzę, ale też naszą wiedzę z zakresu sztucznej inteligencji w gabinetach, ale też tego, jak oddziałuje na pacjentów.

Tego oczekujemy w ogóle chyba w terapii, żeby być zrozumianymi, wysłuchanymi, a te modele sztucznej inteligencji są trenowane właśnie w taki sposób, żeby sprawiać takie wrażenie.

Te wygenerowane przez AI idealne sylwetki ludzi po prostu od razu biją po oczach, że to jest tak idealne, że właśnie musi być wygenerowane.

Funkcje poznawcze, empatyzujące, wyrażające emocje, nieważne jakby, czy jest zbudowane na krzemie, przetwarza, reaguje, generuje, czyli ma jakby stany mentalne, prawda?

Ale to może generować jakby problem w tym, że zwykle będzie raczej wzmacniać nasze przekonania, a nie je testować.

No bo nawet są opisywane stany osób, które właściwie już są w takim ścisłym czy emocjonalnie zależnym kontakcie z tą sztuczną inteligencją,

No jest taka grupa społeczna, zostanę zjedzony jako dziaders, bo jest Gen Z, prawda, pokolenie, które jest co najmniej w wieku ewentualnie moich dzieci, prawda, może trochę starsze, prawda, ale są to

Jak pytam swoje dzieciaki albo swoich pacjentów o interakcje społeczne, to muszę zapytać o interakcje społeczne generalnie, a nie tylko te na żywo.

Nie chcę generalizować i nie mówić tylko o pokolenie Z. Ono jest zbadane dosyć dokładnie i tam te badania właśnie pokazują, że im jest trudniej negocjować kompromis, naprawiać świat czy pogodzić się po jakimś nieporozumieniu, przyjąć jakąś cudzą perspektywę, albo w ogóle pobyć w tym dyskomforcie, a nie natychmiast dostawać ulgę.

I jak jest jakby teraz w interakcji chociażby z tymi agentami AI czy tymi companion AI, czyli te takie aplikacje, które udają, towarzysza, ale są tworem AI, prawda?

No tak, bo wyjdzie ta generacja Z w dorosłe życie.

Co prawda cała generacja wyjdzie, natomiast jednak do tych interakcji zacznie dochodzić, do tych konfrontacji zacznie dochodzić.

Badania wskazują jednak, że to jest właśnie generacja najbardziej skonektyzowana, która faktycznie ma dostęp do tych wszystkich narzędzi.

Generalnie to po pierwsze, jeśli wiemy albo podejrzewamy, albo po prostu wprost z pytami do tego zachęcam, czy pan, pani pomiędzy sesjami korzysta z pomocy, czy się poradzi, czy korzystał ze wsparcia wcześniej za pomocą sztucznej inteligencji, jakichś aplikacji, programów i tak dalej.

Żeby ten emocjonalny solipsyzm wynikający chociażby z nadużywania tego tworu sztucznej inteligencji AI wykryć, no to możemy zauważyć, że on na pewno będzie miał zmniejszoną tolerancję takiego konfliktu.

Jak pacjenci zaczynają mówić, że w mailach, które notabene na przykład może nam AI generować jako odpowiedzi na jakieś tam korespondencje,

To, czego możemy się uczyć, to to, że AI jest świetne w generowaniu materiału jako takiego, bo ma dostęp do wszystkiego, i dobrych i złych rzeczy oczywiście, i tych wartościowych i niewartościowych, ale może nam świetnie pomóc właśnie w wygenerowaniu arkuszy do pracy, jakichś materiałów do psychoedukacji, pomóc zrobić jakieś metafory.

Oczywiście musimy zweryfikować jakość, sensowność tych wyników, które nam AI wygenerowało, ale możemy oszczędzić taki czas, który w pracy z pacjentem będziemy mogli spędzić lepiej.

Generalnie terapeuci tak, ale tylko ci, którzy używają AI, bo oni wyprą tych, którzy AI nie używają.