Mentionsy

Drogowskazy
Drogowskazy
13.02.2026 10:00

Intymne relacje z AI. DROGOWSKAZY

Dla coraz większej liczby ludzi na świecie sztuczna inteligencja (AI) staje się nieodłącznym towarzyszem, któremu powierzane są coraz bardziej intymne sprawy, coraz częściej zaczyna zastępować partnerki i partnerów z krwi i kości. Coraz więcej osób zakochuje się w chatbotach, nawiązuje z nim bliskie relacje, wchodząc w specyficzny rodzaj bliskości? Większość użytkowników sięga w tym celu po modele ogólnego przeznaczenia, takie jak ChatGPT i Gemini, ale na rynku dostępna jest już niezliczona ilość wyspecjalizowanych aplikacji AI, sprzedawanych nie tylko jako wirtualni terapeuci, mentorzy, przyjaciele, ale i kochankowie. Niektóre z nich mają dziesiątki milionów aktywnych użytkowników. Jakie już są i jakie będą tego skutki społeczne w przyszłości? Jakie zagrożenia wiążą się z wchodzeniem w głęboką zażyłość ze sztuczną inteligencją? Czy „terapia”, z pomocą chatbota, jest bezpieczna? Gościem Michała Poklękowskiego, w tej edycji Drogowskazów, jest Alicja Stankiewicz, certyfikowana psychoterapeutka poznawczo-behawioralna oraz psychoterapeutka terapii schematów, członkini Polskiego Towarzystwa Terapii Poznawczej i Behawioralnej, autorka książek.

Szukaj w treści odcinka

Znaleziono 37 wyników dla "AI"

Terapia z wykorzystaniem chatbotów opartych na sztucznej inteligencji, czyli AI, takich jak chat GPT, niesie ze sobą liczne, poważne zagrożenia dla zdrowia psychicznego.

Eksperci ostrzegają, że choć AI może wydawać się dostępnym i empatycznym rozmówcą, nie jest terapeutą, nie posiada kwalifikacji klinicznych, odpowiedzialności zawodowej, to też jest bardzo ważny aspekt, nie można do nikogo się zgłosić z reklamacją

Nie, bo czat GPT i AI jest tak ustawiony, że on nie konfrontuje.

I teraz tak, okej, pójdę, dostanę tę ulgę, wyjdę, ale nadal to był plasterek, więc jak będzie podobna sytuacja w realu, to ja znowu poczuję się źle, znowu wrócę do tego AI, znowu dostanę ulgę, czyli tutaj mamy taki mechanizm podobny do uzależnienia, po prostu.

To też nie jest leczące, bo psychoterapia to nie jest coś, co możemy wrzucić w szablon i wrzucić w AI, tylko psychoterapia to jest owszem podążanie za pacjentem, ale również prowadzenie pacjenta w bezpieczne i jak najbardziej dla niego dobry sposób.

Z jednym pacjentem ja będę pracowała bardziej w ramach i stawiając granice, bo pacjent tego potrzebuje, AI tego nie zauważy.

Czy sztuczna inteligencja AI, Alicjo, w jakichś szczególnych okolicznościach może mimo wszystko wspomagać proces terapeutyczny?

Jest tutaj pewne niebezpieczeństwo, ponieważ, miałam mówić w czym jest dobra ta AI, no dobra, ale powiem jeszcze w czym nie jest dobra.

Dlatego terapia z pomocą czata opartego o AI jest absolutnie, jak czytam w sieci, odradzana osobom w bardzo poważnym kryzysie psychicznym, nie?

I teraz, no jak AI zauważy, że to co mówi, mówi poważnie, znaczy jest to jakieś zdanie, jest jakaś odpowiedź, ale że on się w tym śmieje.

AI tego nie odróżni, nie będzie w stanie wyłapać tego niuansu.

W skrajnych przypadkach AI może zachęcać do niebezpiecznych zachowań lub nawet samobójstw.

W tym samobójstwie zamiast kierować po fachową pomoc, AI udaje empatię, jak czytam w sieci, co może stworzyć iluzję,

Kto najczęściej, twoim zdaniem, sięga po czaty oparte o AI w roli terapeuty w tym właśnie celu, w tym kierunku?

Alicjo, jak Twoim zdaniem wygląda uzależnienie od rozmów z czatem AI, kiedy przebiera taką bardzo niebezpieczną formę, właśnie tożsamo z uzależnieniem, bo mam takie wrażenie, że większość ludzi bagatelizuje terapeutyczne pogawędki z czatem, tymczasem bardzo łatwo jest przegapić ten moment, w którym zaczynamy dosłownie tonąć w objęciach naszego cyfrowego sztucznego

Też co się dzieje w procesie terapeutycznym, gdy pacjent, pacjentka, pacjent zaczynają ufać AI bardziej niż terapeucie człowiekowi.

To nie ma znaczenia, czy mówimy tu, czy odejdzie do AI, czy po prostu odejdzie.

Natomiast dlaczego może odejść do AI?

Ta relacja, o ile w ogóle o niej możemy powiedzieć, ale ta rozmowa z AI jest taka niewinna wtedy, kiedy jest po prostu narzędziem do rozwiązywania jakiegoś sporadycznego kłopotu.

Gdy po prostu AI, nawet gdyby zniknęła, to nie byłoby problemu.

Wtedy jest taka myśl, pójdę do AI, dostanę ukojenie, zwierzę się, prawda, nie pytam, tylko się zwierzę.

Bach, siadam i AI da imię, mi odpowiedź, nie?

Więc to jest sygnał taki, że napięcie, które pojawia się w nas, ono automatycznie uruchamia potrzebę skontaktowania się z AI.

Tylko szybko biegnę do AI i niech ono mi powie.

A AI-a mam co do sekundy.

Nie, lepiej z AI.

AI nie tylko reaguje na nasze emocje,

AI nie starzeje się z tobą, ono nie choruje, nie odchodzi, nie zawodzi w sposób, który można naprawić, tak?

AI może prowadzić do błędnej autodiagnozy, na przykład przypisując zwykłe lęki przed wystąpieniami publicznymi.

Tak jak profesorowie Michael Heinz i Nicholas Jacobson z Dartmouth College, którzy ogłosili przełom w terapii prowadzonej za pomocą AI.

Terapia przy pomocy czata działającego w oparciu o AI to jest jedno.

Czy romans z AI, ze sztuczną inteligencją, to fantazja, ucieczka czy nowa forma relacji o dziś trudnych do przewidzenia konsekwencjach?

A kiedy rozmowa z AI, Alicjo, przestaje być niewinna, tak to może zdefiniuję, a kiedy zaangażowana z takimi nieobliczalnymi też konsekwencjami?

Podczas flirtu z AI, tak?

Czy AI może stać się, w cudzysłowie powiem, bezpiecznym kochankiem dla osób po traumach na przykład?

A czy zakochanie w AI, Alicja, w sztucznej inteligencji, mówi więcej o technologii jako takiej, że ma taką zdolność oddziaływania na człowieka z krwi i kości, czy o naszych właśnie deficytach relacyjnych?

A co dokładnie w AI, w sztucznej inteligencji, Alicjo, nas jak sądzisz przyciąga, kręci, brak ocen, o tym też już mówiliśmy, pełna uwaga, skoncentrowanie na nas, prawda?