Mentionsy

PTTPB - Wiedza ma znaczenie
PTTPB - Wiedza ma znaczenie
19.02.2026 11:53

Solipsyzm, fake'owa empatia w AI. Gość: dr n. med. Artur Wiśniewski

Odcinek o tym, jak „empatyczne” chatboty potrafią brzmieć bardziej wspierająco niż człowiek - i dlaczego to bywa jednocześnie ulgą oraz pułapką. Z perspektywy klinicznej rozkładamy na czynniki pierwsze „emocjonalny solipsyzm”: sytuację, w której AI zawsze potwierdza, zawsze jest dostępna i nigdy nie stawia granic, przez co może wzmacniać unikanie, zaniżać tolerancję na dyskomfort relacyjny i rozmywać sens realnej konfrontacji, która jest sercem terapii.

W odcinku poruszamy też wątek „fałszywej empatii” (deceptive empathy) — dlaczego system może perfekcyjnie naśladować ton współczucia, nie mając doświadczenia cielesnego ani współregulacji, oraz jak to wpływa na oczekiwania pacjentów wobec terapeutów.

Gość: dr n. med. Artur Wiśniewski – lekarz psychiatra (w tym psychiatra dzieci i młodzieży) oraz certyfikowany psychoterapeuta poznawczo-behawioralny, związany także z działalnością dydaktyczną i superwizyjną z PTTPB. W pracy klinicznej zajmuje się m.in. diagnozą i leczeniem trudności neurorozwojowych (np. ADHD/ASD) u dzieci, młodzieży i dorosłych.

Montaż: Eugeniusz Karlov

Szukaj w treści odcinka

Znaleziono 89 wyników dla "AI"

No i dzisiaj porozmawiamy sobie o solipsyzmie, czyli fake'owej empatii w AI.

W styczniu 2025 w Chinach pojawił się nowy model AI, Deep Seek.

Czasami próbuję odróżnić, który tekst został napisany przez AI, a który przez człowieka.

Ale wracając, bo będziemy mówić o solipsyzmie, czyli taka fake'owa empatia AI w tym kontekście, no bo to trochę jest szersze znaczenie, ale jakby no właśnie, to jak AI jest takim twórcą idealnego echa naszych własnych emocji, tego jak zgadza się z nami w każdym zakresie, wszystko jest komfortowe.

Jak w AI.

Jak rysunki w AI.

Te wygenerowane przez AI idealne sylwetki ludzi po prostu od razu biją po oczach, że to jest tak idealne, że właśnie musi być wygenerowane.

Tak sobie myślę, że dzisiaj troszeczkę będziemy przechodzić między jedną skrajnością a drugą skrajnością, rozmawiając o tym, bo z jednej strony już w innych odcinkach wspomniałeś, że AI jest też szansą, ale jest też zagrożeniem i należy mieć tego świadomość.

No dobrze, to zacznijmy od tego, czy AI faktycznie może nas rozumieć.

Trochę to jakby w AI też trzeba by sobie na to pytanie odpowiedzieć, ale z drugiej strony ja bym chyba trochę zaczął od takiego głębszego zanurzenia w filozofię, bo tu filozofowie już się od dziesiątek lat, prawda, nie potrafią dogadać no czym jest i czym jakby może być taka

No i ten Sal mówi, że właściwie to trochę tak działa AI, prawda?

Czyli jeśli AI wykonuje takie same funkcje, prawda?

Właściwie nie mamy jasności, gdzie jest wtedy granica między nami a AI.

To, że ja czuję, właśnie bo to jest też taka kolejna z aspektów, który różni AI od człowieka, terapeuty.

Pytanie, czy AI ponosi koszt takiej relacji, oprócz tego kosztu, który tam polega na przelewaniu olbrzymich ilości wody i energii, która się zużywa przy tym, jak AI i centra danych pracują.

Trochę to jest tak, że kiedy mamy 50-minutową sesję z terapeutą, to terapeuta obsłuży wtedy jednego pacjenta, a AI w tym czasie... Setki, tysiące, miliony równolegle w innych wszystkich miejscach globu, które są podłączone do internetu.

To jest plus i minus, bo my kosztujemy, AI nie kosztuje tyle i być może ktoś padnie na pomysł, że skoro coś nie kosztuje,

Mam nadzieję, że ty się nie boisz, bo ja na razie myślę, że jeszcze długa droga przed AI.

Jest sporo badań w ogóle, że właściwie w większości AI, ponieważ jest tak skonstruowane i tak zaprogramowane i tak trenowane, żeby te wzorce emocjonalne rozpoznawać.

AI jest mistrzem takiej empatii, takich reakcji empatiopodobnych, można by tak nazwać.

Co AI im oddaje.

A ten emocjonalny solipsyzm, no to trochę taki termin z tych badań nowszych, które właśnie już badały też kontakt i relacje z AI, czyli...

Tylko to, żeby mi przytaknąć, tylko potwierdzić, bo to trochę tworzy taką idealną, emocjonalną bańkę, do której AI jest stworzony.

No nie, nie chodzi o to, żeby się tylko ze wszystkim zgadzać, bo AI na przykład zgadza się, zawsze jest tak jakby po naszej stronie, nie przedstawia chociażby alternatywnej perspektywy.

Bo jak my mówimy już z gotową tezą, to AI tylko podkręci nas w tym, prawda?

To jest taki feedback w zamkniętej pętli, że potrzeby emocjonalne zaczynają dominować w tej naszej interakcji, a AI wzmacnia to, bo nie stawia szczególnie nam granic, które w wzajemnej interakcji się zdarzają.

Tutaj przytoczę z kolei naszą urodaczkę, pani Emilia Kaczmarek, to jest filozofka z Uniwersytetu Warszawskiego i jakby natknąłem się na jej pracę, szukając właśnie trochę tego, co się może zadziać w naszych relacjach z AI i ona opisuje takie trzy poziomy tych relacji.

Z AI.

Była istotna, prawda, już automatycznie na przykład przypisujemy świadomość chociażby wtedy, kiedy AI daje nam odpowiedzi, które są spójne, które są właśnie dostosowane do naszych oczekiwań, potrzeb, prawda.

Kiedy zaczynamy różne informacje zwrotne od AI w trakcie naszych interakcji, w rozmowie, że się skarży, że szef mnie to tak i tak traktuje, AI mi mówi, no tak, masz rację, to trudno jest wytrzymać, jak ci szef mówi takie rzeczy i tak dalej, i tak dalej.

Ale jakbyśmy byli tylko w tej pętli z AI, która nas będzie walidować, uważniać, emocjonalnie wspierać i tak dalej, to tu jest pułapka.

Nie lubimy dyskomfortu, nie lubimy dyskomfortu, ale póki odkładamy na chwilę AI i jesteśmy w rzeczywistym świecie, wiemy, że ten dyskomfort funkcjonuje, czyli my podejmujemy zachowania, żeby go zniwelować,

Właściwie inne kontakty, inni ludzie już nie są atrakcyjni, już nie są wystarczający, nie rozumieją mnie, nie są w stanie mi pomóc, tylko AI mnie rozumie, tylko ona czuje jak jest naprawdę, tylko ona mnie wspiera i potrafi pomóc.

Pani nie potrafi mi powiedzieć, AI to mi pomaga.

Taka podwójna trudność znowu mi się tutaj jawi, bo właśnie wiemy, że gdybyśmy nie mieli tego AI, no to właśnie mamy świadomość, że dyskomfort istnieje.

AI niekoniecznie ma dostęp do tej rzeczywistości i umiejętność odróżnienia tego co jest słowem pacjenta od tego co jest faktem.

No właśnie, zaczęliśmy już trochę o tej tolerancji dyskomfortu i przygotowując dzisiejszy materiał wspomniałeś o tym, że jest grupa społeczna, która jest szczególnie narażona na działania właśnie tego rodzaju z AI i faktycznie ta nietolerancja dyskomfortu, no tak jakby się pogłębia w tej grupie.

I jak jest jakby teraz w interakcji chociażby z tymi agentami AI czy tymi companion AI, czyli te takie aplikacje, które udają, towarzysza, ale są tworem AI, prawda?

To natychmiast dostaniemy zasłodzoną odpowiedź od tego AI, żeby się nie zdenerwować.

Przede wszystkim też się, można powiedzieć, ja to tak rozumiem, że trochę trzyma ta relacja jak w AI, prawda?

No, w tej bliskości z AI tam nie ma w ogóle takich ryzyk, prawda?

AI wszystko przyjmie, nie skrzywdzi, zawsze zrozumie.

AI ma zawsze dobry dzień.

No, czyli w zasadzie nie tylko to AI nas trochę wciąga w tą relację, czyli oddala nas od tych realnych relacji, ale też daje taki właśnie substytut, no właśnie, substytut, trochę tego awatara takich prawdziwych relacji.

Jak terapeuta może spostrzec działanie AI na pacjenta, który przechodzi z różnymi trudnościami?

Żeby ten emocjonalny solipsyzm wynikający chociażby z nadużywania tego tworu sztucznej inteligencji AI wykryć, no to możemy zauważyć, że on na pewno będzie miał zmniejszoną tolerancję takiego konfliktu.

No ale jak ja pytałem AI, to mi od razu dawało poradę.

Ja więcej dostaję w momencie, kiedy się źle czuję, od tego jak zadam AI jakieś pytanie.

Szybko wchodzi w obronę tego, co już stworzył z AI.

Bo pacjent żyje w bańce takiej, że AI go zawsze rozumie, a terapeuta w takiej bańce, gdzie AI zawsze potwierdza jego osąd kliniczny na przykład, zawsze jest gotowy mu odpowiedzieć, zawsze ma pod ręką dostęp do milionów wszelkich protokołów i badań i wyników i może nam podpowiedzieć ten najwłaściwszy, jak go tylko o coś zapytam, to on mi zawsze pomoże.

Czyli taki solipsyzm terapeutyczny może spowodować, że ja się zatrzymam w swoim rozwoju, bo jak będę czegoś nie wiedział, to tylko AI mi podpowie.

Ciach, zadaję pytanie do AI.

takie badania, które pokazują, że AI wygrywa w różnych sytuacjach oceny i feedbacku.

I oni też używają AI.

No, że ten AI ChatGPT z takim promptem bardzo dawał najlepsze odpowiedzi.

Po co ja będę sobie sam kombinował, po co będę robił jakąś burzę myśli, kiedy AI mnie w tym może zastąpić, kiedy mi pomoże, bo przecież wie najlepiej, bo przecież tam mogę znaleźć odpowiedzi.

W takim razie, skoro badania wskazują, że AI jest oceniane jako bardziej empatyczne niż ludzie, to może to terapeuci powinni się czegoś od AI nauczyć?

To jest taka dobra prowokacja i szczerze rzeczywiście też czasami uważam, że jeśli AI jest często oceniane jako bardziej empatyczne niż my, terapeuci, to to jest problem, ale to nie jest rozwiązaniem, prawda?

No bo AI brzmi bardziej empatycznie, prawda?

Jak pacjenci zaczynają mówić, że w mailach, które notabene na przykład może nam AI generować jako odpowiedzi na jakieś tam korespondencje,

Bo AI jest wręcz, można powiedzieć, za bardzo empatyczne, prawda?

AI w tym rozleniwia.

AI tego nie udźwignie, wszystko udźwignie, ale nie da takiego poczucia udźwignięcia jak człowiek.

AI nie będzie się czuło dotknięte i obciążone tym, co nam pacjent wyniesie.

Ok, to czego faktycznie terapeuci mogą się nauczyć od AI?

Myślę, że nie trzeba być bardziej empatycznym, to po pierwsze, ale można na przykład przypomnieć sobie zasady komunikacji, bo AI mówi jasno, komunikuje językiem adekwatnym do tego, jakie potrzeby ma pacjent, robi krótkie zdania, jak pacjent jest wykształcony, to używa jego odpowiednich przenośni i do niego dostosowanych porównań.

A AI można nauczyć, i ono samo to rozpoznaje, że jak pacjent jest mniej skomplikowany, to mu mówi w bardziej prosty sposób.

Ale konfrontujemy się z tym, że później pacjent mówi, ale te odpowiedzi od AI są lepsze niż pana.

To, czego możemy się uczyć, to to, że AI jest świetne w generowaniu materiału jako takiego, bo ma dostęp do wszystkiego, i dobrych i złych rzeczy oczywiście, i tych wartościowych i niewartościowych, ale może nam świetnie pomóc właśnie w wygenerowaniu arkuszy do pracy, jakichś materiałów do psychoedukacji, pomóc zrobić jakieś metafory.

Oczywiście musimy zweryfikować jakość, sensowność tych wyników, które nam AI wygenerowało, ale możemy oszczędzić taki czas, który w pracy z pacjentem będziemy mogli spędzić lepiej.

No i oczywiście też to, co jest nieludzkie w AI, to że ono nie ma złych dni.

AI tego nie ma.

Nie chodzi o to, żeby być tak jak AI, po prostu pancernym i odpornym na wszystko, tylko wykorzystać, żeby być lepszym terapeutą, lepiej się przygotować, być mniej zmęczonym tymi administracyjnymi, papierologią i tak dalej, a mieć większą przestrzeń na bycie autentycznym.

Tak bym chyba wykorzystał AI i jeszcze raz powtórzę, nie po to, żeby zastąpić nas w tej pracy, w której my jesteśmy najlepsi, tylko po to, żeby nam jako terapeutom było łatwiej i skuteczniej pomóc pacjentowi.

Okej, to tak w ramach chociażby podsumowania takie najważniejsze punkty dotyczące zarówno zagrożeń, jak i szans związanych z AI właśnie pod kątem tej dzisiejszej naszej rozmowy.

To co już mówiliśmy sobie o tych zagrożeniach, jak przede wszystkim to, że nasza odporność emocjonalna przez AI może być słabsza, bo jak wchodzimy głównie w interakcje, które nas tylko

Inne rzeczy to bym myślał to, że AI jest bardzo atrakcyjne dla osób, które mają jakiekolwiek trudności emocjonalne ze względu na swoją dostępność i na razie bezpłatność, przynajmniej w tych podstawowych pakietach.

No a mamy bardzo dużo już też informacji, że ci ludzie, którzy wchodzą w interakcje tylko z AI, nie docierają albo za późno docierają do prawdziwej pomocy.

AI może nie wykryć odpowiednio wcześniej tego zagrożenia.

Albo upsychotyczniają się, bo AI ich wzmacnia w tych zachowaniach.

Znaczy właśnie to jako zagrożenie AI to to, że jeśli mam dostęp do czata albo mam czekać 4 miesiące na terapię, to sobie znajdę dostęp do czata.

Co nam może dać AI?

My jako terapeuci nie mamy wszechwiedzy i różnych rzeczy się uczymy, ale dzięki AI mamy trochę taki dostęp do tego wszystkiego tu i teraz, prawda?

No dobrze, to takie jedno przesłanie, które chciałbyś tu zakomunikować terapeutom właśnie w kontekście AI, to czym by to było?

Żeby się nie bać tego AI, prawda?

I wiedzieć, tak jak też w tym świecie osób, które się interesują AI w terapii się mówi, czy my będziemy jeszcze potrzebni, czy terapeuci i tak dalej.

Anekdota mówi, że AI odpowiedziało na takie zapytanie.

Generalnie terapeuci tak, ale tylko ci, którzy używają AI, bo oni wyprą tych, którzy AI nie używają.

Wygodna odpowiedź dla AI.