Mentionsy

Dwa Kilo Mózgu
Dwa Kilo Mózgu
21.04.2026 03:00

pułapki terapii z AI

Coraz więcej osób, zamiast na kozetkę u terapeuty, trafia do czatu z AI, szukając tam wsparcia, rady albo po prostu kogoś, do kogo można się odezwać. Darmowy, zawsze dostępny i empatyczny powiernik lęków, czy może cyfrowa pułapka? 

Dzisiaj rozmawiamy o:

Więziach paraspołecznych: Jak to się dzieje, że zaczynamy czuć do linijek kodu prawdziwe przywiązanie?Odklejeniu AI: Dlaczego sztuczna inteligencja chętniej przytaknie naszym urojeniom, niż wyprowadzi kogokolwiek z błędu?AI na kozetce: Omawiamy przeciekawe badanie, w którym AI zwierzała się człowiekowi z rzekomych traum. 

Zapraszamy na odcinek! 🤖🧠

Rozdziały (9)

1. Wprowadzenie i motywacja

Kasia i Maciek przedstawiają temat podcastu i podkreślają potrzebę świadomego korzystania z wsparcia emocjonalnego z AI.

2. Analiza społecznego odczucia

Kasia i Maciek omawiają stan psychiczny Polaków i ich potrzeby w zakresie wsparcia emocjonalnego.

3. Statystyki i dostępność terapii

Kasia przedstawia statystyki dotyczące zdrowia psychicznego Polaków i analizuje dostępność terapii.

4. Kultura terapeutyczna i internet

Maciek omawia wpływ internetu na kulturę terapeutyczną i podkreśla, że internet usunął tabu związane z zdrowiem psychicznym.

5. Książka o pułapkach samorozwoju

Maciek podzielił się fragmentem książki o pułapkach samorozwoju i kultury terapeutycznej, podkreślając jej związek z tematem podcastu.

6. Analiza danych na temat korzystania z AI

Kasia i Maciek kwestionują korzystanie z AI jako wsparcia emocjonalnego i omawiają potencjalne negatywne konsekwencje.

7. Zgromadzenie AI i regulacje

Badania podkreślają potrzebę regulacji AI, aby uniknąć manipulacji i znormalizowania negatywnych przekonań. Autorzy sugerują, że prawodawstwo powinno dostosować się do rozwoju technologii, aby chronić użytkowników.

8. Zły doświadczenia z ludzkimi terapeutami

Podzielono się historiami o złych doświadczeniach z ludzkimi terapeutami, w tym manipulatywnych psychoterapeutek i niekompetentnych dorosłych w szkole.

9. Kiepskie doświadczenia z AI w konfliktach

Opowiedziano o korzystaniu z AI w konfliktach z mężem, gdzie czat zawsze brał stronę osoby korzystającej z AI.

Szukaj w treści odcinka

Znaleziono 7 wyników dla "LLM"

I mam wrażenie, że był taki czas, jakiś rok, półtora roku temu, gdzie faktycznie tak bardzo hura optymistycznie zaczęły spływać wyniki różnych pojedynczych prac naukowych, które sugerowały, że faktycznie coś jest na rzeczy z tymi LLM-ami, że one bardzo dobrze symulują empatię względem ludzi, że mogą faktycznie znajdować wiele różnorakich zastosowań w takich działaniach terapeutycznych.

Wzięto cztery LLM-y popularne, czyli Groca, ChataGPT, Claude i Gemini?

Natomiast zaznaczyli, że te LLM nie mają przeżyć we wnętrznych.

Pierwsza taka rzecz, na którą trzeba zwrócić uwagę, to jest to, że możemy nawiązać z modelami LLM-ami niezdrowe więzi paraspołeczne.

No to aż chcę dziś z siebie wydać takie Jezu, że mini i że tego typu wypowiedzi, które LLM mogą budować, działają jak haczyk dla ludzkiej empatii, na którymi się możemy nabierać i że to może budować w nas błędne przekonanie, że te modele faktycznie coś czują, że faktycznie cierpią, a to wszystko utrudnia zachowanie jakiegoś dystansu zdrowego.

I mi się wydaje, że jesteśmy aktualnie z wszystkimi tymi publicznie dostępnymi LLM-ami.

Co ciekawe, tutaj też to samo zadanie dostali ludzie, terapeuci i później jeszcze trzecia niezależna grupa ludzkich ekspertów oceniała wypowiedzi i LLM-ów, sztucznej inteligencji i ludzi terapeutów.

Ostatnie odcinki