Mentionsy
pułapki terapii z AI
Coraz więcej osób, zamiast na kozetkę u terapeuty, trafia do czatu z AI, szukając tam wsparcia, rady albo po prostu kogoś, do kogo można się odezwać. Darmowy, zawsze dostępny i empatyczny powiernik lęków, czy może cyfrowa pułapka?
Dzisiaj rozmawiamy o:
Więziach paraspołecznych: Jak to się dzieje, że zaczynamy czuć do linijek kodu prawdziwe przywiązanie?Odklejeniu AI: Dlaczego sztuczna inteligencja chętniej przytaknie naszym urojeniom, niż wyprowadzi kogokolwiek z błędu?AI na kozetce: Omawiamy przeciekawe badanie, w którym AI zwierzała się człowiekowi z rzekomych traum.Zapraszamy na odcinek! 🤖🧠
Rozdziały (9)
Kasia i Maciek przedstawiają temat podcastu i podkreślają potrzebę świadomego korzystania z wsparcia emocjonalnego z AI.
Kasia i Maciek omawiają stan psychiczny Polaków i ich potrzeby w zakresie wsparcia emocjonalnego.
Kasia przedstawia statystyki dotyczące zdrowia psychicznego Polaków i analizuje dostępność terapii.
Maciek omawia wpływ internetu na kulturę terapeutyczną i podkreśla, że internet usunął tabu związane z zdrowiem psychicznym.
Maciek podzielił się fragmentem książki o pułapkach samorozwoju i kultury terapeutycznej, podkreślając jej związek z tematem podcastu.
Kasia i Maciek kwestionują korzystanie z AI jako wsparcia emocjonalnego i omawiają potencjalne negatywne konsekwencje.
Badania podkreślają potrzebę regulacji AI, aby uniknąć manipulacji i znormalizowania negatywnych przekonań. Autorzy sugerują, że prawodawstwo powinno dostosować się do rozwoju technologii, aby chronić użytkowników.
Podzielono się historiami o złych doświadczeniach z ludzkimi terapeutami, w tym manipulatywnych psychoterapeutek i niekompetentnych dorosłych w szkole.
Opowiedziano o korzystaniu z AI w konfliktach z mężem, gdzie czat zawsze brał stronę osoby korzystającej z AI.
Szukaj w treści odcinka
I mam wrażenie, że był taki czas, jakiś rok, półtora roku temu, gdzie faktycznie tak bardzo hura optymistycznie zaczęły spływać wyniki różnych pojedynczych prac naukowych, które sugerowały, że faktycznie coś jest na rzeczy z tymi LLM-ami, że one bardzo dobrze symulują empatię względem ludzi, że mogą faktycznie znajdować wiele różnorakich zastosowań w takich działaniach terapeutycznych.
Wzięto cztery LLM-y popularne, czyli Groca, ChataGPT, Claude i Gemini?
Natomiast zaznaczyli, że te LLM nie mają przeżyć we wnętrznych.
Pierwsza taka rzecz, na którą trzeba zwrócić uwagę, to jest to, że możemy nawiązać z modelami LLM-ami niezdrowe więzi paraspołeczne.
No to aż chcę dziś z siebie wydać takie Jezu, że mini i że tego typu wypowiedzi, które LLM mogą budować, działają jak haczyk dla ludzkiej empatii, na którymi się możemy nabierać i że to może budować w nas błędne przekonanie, że te modele faktycznie coś czują, że faktycznie cierpią, a to wszystko utrudnia zachowanie jakiegoś dystansu zdrowego.
I mi się wydaje, że jesteśmy aktualnie z wszystkimi tymi publicznie dostępnymi LLM-ami.
Co ciekawe, tutaj też to samo zadanie dostali ludzie, terapeuci i później jeszcze trzecia niezależna grupa ludzkich ekspertów oceniała wypowiedzi i LLM-ów, sztucznej inteligencji i ludzi terapeutów.
Ostatnie odcinki
-
pułapki terapii z AI
21.04.2026 03:00
-
mniej za więcej: dlaczego wszystko staje się by...
14.04.2026 03:00
-
o co chodzi z tym podcastem?
09.04.2026 15:41