Mentionsy
Solipsyzm, fake'owa empatia w AI. Gość: dr n. med. Artur Wiśniewski
Odcinek o tym, jak „empatyczne” chatboty potrafią brzmieć bardziej wspierająco niż człowiek - i dlaczego to bywa jednocześnie ulgą oraz pułapką. Z perspektywy klinicznej rozkładamy na czynniki pierwsze „emocjonalny solipsyzm”: sytuację, w której AI zawsze potwierdza, zawsze jest dostępna i nigdy nie stawia granic, przez co może wzmacniać unikanie, zaniżać tolerancję na dyskomfort relacyjny i rozmywać sens realnej konfrontacji, która jest sercem terapii.
W odcinku poruszamy też wątek „fałszywej empatii” (deceptive empathy) — dlaczego system może perfekcyjnie naśladować ton współczucia, nie mając doświadczenia cielesnego ani współregulacji, oraz jak to wpływa na oczekiwania pacjentów wobec terapeutów.
Gość: dr n. med. Artur Wiśniewski – lekarz psychiatra (w tym psychiatra dzieci i młodzieży) oraz certyfikowany psychoterapeuta poznawczo-behawioralny, związany także z działalnością dydaktyczną i superwizyjną z PTTPB. W pracy klinicznej zajmuje się m.in. diagnozą i leczeniem trudności neurorozwojowych (np. ADHD/ASD) u dzieci, młodzieży i dorosłych.
Montaż: Eugeniusz Karlov
Szukaj w treści odcinka
diagnozą i leczeniem trudności neurorozwojowych, chociaż w ostatnim czasie bardzo intensywnie rozwija swoją wiedzę, ale też naszą wiedzę z zakresu sztucznej inteligencji w gabinetach, ale też tego, jak oddziałuje na pacjentów.
Tego oczekujemy w ogóle chyba w terapii, żeby być zrozumianymi, wysłuchanymi, a te modele sztucznej inteligencji są trenowane właśnie w taki sposób, żeby sprawiać takie wrażenie.
Te wygenerowane przez AI idealne sylwetki ludzi po prostu od razu biją po oczach, że to jest tak idealne, że właśnie musi być wygenerowane.
Funkcje poznawcze, empatyzujące, wyrażające emocje, nieważne jakby, czy jest zbudowane na krzemie, przetwarza, reaguje, generuje, czyli ma jakby stany mentalne, prawda?
Ale to może generować jakby problem w tym, że zwykle będzie raczej wzmacniać nasze przekonania, a nie je testować.
No bo nawet są opisywane stany osób, które właściwie już są w takim ścisłym czy emocjonalnie zależnym kontakcie z tą sztuczną inteligencją,
No jest taka grupa społeczna, zostanę zjedzony jako dziaders, bo jest Gen Z, prawda, pokolenie, które jest co najmniej w wieku ewentualnie moich dzieci, prawda, może trochę starsze, prawda, ale są to
Jak pytam swoje dzieciaki albo swoich pacjentów o interakcje społeczne, to muszę zapytać o interakcje społeczne generalnie, a nie tylko te na żywo.
Nie chcę generalizować i nie mówić tylko o pokolenie Z. Ono jest zbadane dosyć dokładnie i tam te badania właśnie pokazują, że im jest trudniej negocjować kompromis, naprawiać świat czy pogodzić się po jakimś nieporozumieniu, przyjąć jakąś cudzą perspektywę, albo w ogóle pobyć w tym dyskomforcie, a nie natychmiast dostawać ulgę.
I jak jest jakby teraz w interakcji chociażby z tymi agentami AI czy tymi companion AI, czyli te takie aplikacje, które udają, towarzysza, ale są tworem AI, prawda?
No tak, bo wyjdzie ta generacja Z w dorosłe życie.
Co prawda cała generacja wyjdzie, natomiast jednak do tych interakcji zacznie dochodzić, do tych konfrontacji zacznie dochodzić.
Badania wskazują jednak, że to jest właśnie generacja najbardziej skonektyzowana, która faktycznie ma dostęp do tych wszystkich narzędzi.
Generalnie to po pierwsze, jeśli wiemy albo podejrzewamy, albo po prostu wprost z pytami do tego zachęcam, czy pan, pani pomiędzy sesjami korzysta z pomocy, czy się poradzi, czy korzystał ze wsparcia wcześniej za pomocą sztucznej inteligencji, jakichś aplikacji, programów i tak dalej.
Żeby ten emocjonalny solipsyzm wynikający chociażby z nadużywania tego tworu sztucznej inteligencji AI wykryć, no to możemy zauważyć, że on na pewno będzie miał zmniejszoną tolerancję takiego konfliktu.
Jak pacjenci zaczynają mówić, że w mailach, które notabene na przykład może nam AI generować jako odpowiedzi na jakieś tam korespondencje,
To, czego możemy się uczyć, to to, że AI jest świetne w generowaniu materiału jako takiego, bo ma dostęp do wszystkiego, i dobrych i złych rzeczy oczywiście, i tych wartościowych i niewartościowych, ale może nam świetnie pomóc właśnie w wygenerowaniu arkuszy do pracy, jakichś materiałów do psychoedukacji, pomóc zrobić jakieś metafory.
Oczywiście musimy zweryfikować jakość, sensowność tych wyników, które nam AI wygenerowało, ale możemy oszczędzić taki czas, który w pracy z pacjentem będziemy mogli spędzić lepiej.
Generalnie terapeuci tak, ale tylko ci, którzy używają AI, bo oni wyprą tych, którzy AI nie używają.
Ostatnie odcinki
-
Solipsyzm, fake'owa empatia w AI. Gość: dr n. m...
19.02.2026 11:53
-
Współpraca psychoterapeuty i lekarza psychiatry...
10.02.2026 21:22
-
DBT dla par - od konfliktu do bliskości. Gościn...
04.02.2026 16:08
-
Self-Practice/Self-Reflection (SP/SR) w terapii...
27.01.2026 10:17
-
AI a etyka pracy psychoterapeuty. Gość: dr n. m...
21.01.2026 11:52
-
Ustawa o zawodzie psychoterapeuty - stan prac o...
23.07.2024 16:02
-
(PL) Osiąganie masowych korzyści społecznych z ...
14.06.2024 17:56
-
(ENG) Osiąganie masowych korzyści społecznych z...
14.06.2024 17:38
-
DBT: Terapia dialektyczno-behawioralna. Goście:...
14.05.2024 11:45
-
Terapia Schematu. Szyta na miarę. Gościni: Agat...
09.05.2024 22:04