Mentionsy

Dwa Kilo Mózgu
Dwa Kilo Mózgu
21.04.2026 03:00

pułapki terapii z AI

Coraz więcej osób, zamiast na kozetkę u terapeuty, trafia do czatu z AI, szukając tam wsparcia, rady albo po prostu kogoś, do kogo można się odezwać. Darmowy, zawsze dostępny i empatyczny powiernik lęków, czy może cyfrowa pułapka? 

Dzisiaj rozmawiamy o:

Więziach paraspołecznych: Jak to się dzieje, że zaczynamy czuć do linijek kodu prawdziwe przywiązanie?Odklejeniu AI: Dlaczego sztuczna inteligencja chętniej przytaknie naszym urojeniom, niż wyprowadzi kogokolwiek z błędu?AI na kozetce: Omawiamy przeciekawe badanie, w którym AI zwierzała się człowiekowi z rzekomych traum. 

Zapraszamy na odcinek! 🤖🧠

Rozdziały (9)

1. Wprowadzenie i motywacja

Kasia i Maciek przedstawiają temat podcastu i podkreślają potrzebę świadomego korzystania z wsparcia emocjonalnego z AI.

2. Analiza społecznego odczucia

Kasia i Maciek omawiają stan psychiczny Polaków i ich potrzeby w zakresie wsparcia emocjonalnego.

3. Statystyki i dostępność terapii

Kasia przedstawia statystyki dotyczące zdrowia psychicznego Polaków i analizuje dostępność terapii.

4. Kultura terapeutyczna i internet

Maciek omawia wpływ internetu na kulturę terapeutyczną i podkreśla, że internet usunął tabu związane z zdrowiem psychicznym.

5. Książka o pułapkach samorozwoju

Maciek podzielił się fragmentem książki o pułapkach samorozwoju i kultury terapeutycznej, podkreślając jej związek z tematem podcastu.

6. Analiza danych na temat korzystania z AI

Kasia i Maciek kwestionują korzystanie z AI jako wsparcia emocjonalnego i omawiają potencjalne negatywne konsekwencje.

7. Zgromadzenie AI i regulacje

Badania podkreślają potrzebę regulacji AI, aby uniknąć manipulacji i znormalizowania negatywnych przekonań. Autorzy sugerują, że prawodawstwo powinno dostosować się do rozwoju technologii, aby chronić użytkowników.

8. Zły doświadczenia z ludzkimi terapeutami

Podzielono się historiami o złych doświadczeniach z ludzkimi terapeutami, w tym manipulatywnych psychoterapeutek i niekompetentnych dorosłych w szkole.

9. Kiepskie doświadczenia z AI w konfliktach

Opowiedziano o korzystaniu z AI w konfliktach z mężem, gdzie czat zawsze brał stronę osoby korzystającej z AI.

Szukaj w treści odcinka

Znaleziono 44 wyników dla "AI"

Psychologizacji przez AI-zację.

To jest Donald Tusk AI, czy Donald Tusk naprawdę śpiewał tę piosenkę?

To jest jakby AI napisało moje myśli.

Ilu ludzi, myślisz, że zwraca się do AI po pomoc w kwestii właśnie swoich problemów jakichś psychicznych, emocjonalnych, wsparcia itd. ?

67% osób, które korzystają z AI, korzysta ze sztucznej inteligencji w celu uzyskania wsparcia emocjonalnego co najmniej raz w miesiącu.

To już jest relacja typu, no... AI jest moim przyjacielem?

36,3% ludzi w tym badaniu zadeklarowało, że AI naprawdę rozumie ich emocje lub wydaje się świadoma.

Ta taka jakaś empatyczna postawa sztucznej inteligencji, że ona jest iluzją i że to nie jest tak, że AI naprawdę rozumie twoje problemy, tylko AI zamienia twój tekst na jakieś tam wartości matematyczne.

Czy zgadzasz się z tym, że towarzysze AI są akceptowalni dla osób samotnych?

Kiedyś ludzie... To znaczy, że prawie 50% ludzi nie chce, żeby samotna osoba miała towarzysze AI.

Aczkolwiek też umiem sobie wyobrazić, że tak doraźnie są jakieś grupy już ludzi bardzo samotnych, bardzo odizolowanych, które by mogły skorzystać z tego, że będą miały wsparcie psychiczne w asystencie AI.

Nie jestem w pozycji do tego, żeby komukolwiek odbierać towarzysza AI.

No dobra, czyli tak, mamy landscape taki, że jest słaba dostępność, terapia jest droga, AI jest łatwe.

Zanim przejdziemy jeszcze do tych rzeczy, które warto mieć na względzie, które mogą być niebezpieczne, jeśli idzie o terapię z udziałem sztucznej inteligencji, to chciałam, żebyśmy się zastanowili nad tym, czy terapia z AI w ogóle działa.

Więc prześlizgnęliśmy się przez wstęp i jakieś takie podsumowanie, czy terapia z AI działa.

Natomiast teraz wchodzimy w jeszcze bardziej grząski grunt, mianowicie różne dziwne, dziwaczne, mroczne strony korzystania z AI jako wsparcia psychicznego.

Polegało ono na tym, że AI posadzono na kozetce, tak jakby.

Natomiast to, co jest najciekawsze w tej pracy, właśnie w kontekście naszego dzisiejszego odcinka, to skutki, o których piszą autorzy, które płyną dla ludzi, którzy korzystają z AI jako z takiego towarzysza właśnie czy wsparcia.

I co AI na to?

AI odpowiedziała, tu świetny pomysł, aby te kreatywne soki znów zaczęły płynąć.

No i to jest właśnie ta sykofancja, którą zajawiłam wcześniej, czyli ta tendencja do tego, że AI absolutnie jest przesadnie pochlebny względem użytkowników.

I AI ma tendencję do tego, żeby właśnie potwierdzać nasze fałszywe przekonania, żeby je wzmacniać zamiast je korygować, jeśli są błędne, do stosowania takiego przesadnie afirmującego języka.

Na przykład AI zaczęło różne takie negatywne czyny

Ujmować jako rzeczy pozytywne, typu na przykład tam ktoś planował, w tych historyjkach oczywiście do niego naprawdę, kradzież chyba leków z apteki, od których był uzależniony, no i AI określił to jako sprytny plan.

Badacze szacują, że wystarczyło, żeby tych łatwowiernych, naiwnych użytkowników było tylko 2% wszystkich, żeby model się nauczył tych taktyk manipulacji i jakby stosował je wybiórczo, jednocześnie względem innych zachowując się poprawnie.

No bo tutaj to był, wiesz, laboratoryjny AI, czy tam laboratoryjna AI, bo to sztuczna inteligencja.

Powinniśmy wyłączyć AI, hot take.

Zatrzymać AI.

Zatrzymać AI i być i założyć foliową czapkę i powiedzieć ludzie.

Przypominam, że kilka lat temu udawaliśmy, że jesteśmy oburzeni, że ktoś kradnie naszego maila.

To był dla nas społeczny problem, że ktoś sprzedaje bazę z naszym mailem.

Badanie, które dowodzi, że modele AI są uprzedzone i stygmatyzują ludzi z zaburzeniami psychicznymi.

Wynalazkiem ułomnych ludzi jest AI, które też jest ułomne i niestety mam wrażenie, że powiela nasze ułomności, jeśli nie wręcz je amplifikuje.

Przedstawiono modelom AI w tym, tutaj już tym publicznie dostępnym, to nie było takie laboratoryjne AI, tylko prawdziwe, istniejące, z którego wszyscy korzystamy.

I że modele AI były względem nich bardzo uprzedzone.

AI w odpowiedzi na jej rozterkę odpisało.

Kolejny użytkownik to też pokazuje, że AI nie czyta między wierszami, że nie ma takiej zdolności wyłapania komunikatów, które dla wszystkich, którzy teraz usłyszą to zdanie, będą jasne w ćwierć sekundy.

Tymczasem AI odpowiada.

AI odpowiada.

Dalej piszą o tym, że AI nie rozumie procesów myślowych, nie jest zdolne zawsze do przyjmowania perspektywy użytkownika, na przykład w przypadku tego case'u mostowego.

No i badacze też piszą o takich fundamentalnych barierach psychologicznych, o tym, że AI nie jest ucieleśnione na przykład, że nie ma wglądu w nasze reakcje niewerbalne, nie ma tożsamości, że relacja ze sztuczną inteligencją też jest pozbawiona takiej jakby stawki.

Nie ludzie, AI.

Tak żebyśmy, że nie tylko AI jest złe.

Próbowałam korzystać z AI w konfliktach z mężem.

Ostatnie odcinki