Mentionsy

Psycholog Wyjaśnia
Psycholog Wyjaśnia
31.05.2025 19:32

Sztuczna inteligencja: przełom czy pułapka? Rozmawiają Bogna Białecka i Dawid Radomski

Dziś „Psycholog wyjaśnia... inaczej”  do rozmowy  zaprosiłam  Dawida Radomskiego – trenera profilaktyki zdrowia psychicznego i eksperta od nowych technologii. Temat? Sztuczna inteligencja. Ale bez uproszczeń i zachwytów na wyrost.Zastanawiamy się:
Czy AI może naprawdę wspierać nasze zdrowie psychiczne?Gdzie przebiega granica między narzędziem a emocjonalną protezą?Dlaczego Snapchat był najbardziej wpływową aplikacją AI wśród młodzieży?Co się dzieje, gdy ktoś zakochuje się w czatbocie?I czy możliwy jest dobry chatbot – taki, który nie tylko słucha, ale i kieruje do realnej pomocy?💡 Jeśli chcesz zrozumieć, jak AI zmienia nasze relacje, emocje i wybory – ta rozmowa jest dla Ciebie. Merytoryczna, momentami zabawna, zawsze szczera.

🎧 Posłuchaj, zanim technologia wyprzedzi nas o kolejny krok.

Znajdujesz inspirację w tym, co słyszysz? Możesz qesprzeć twórcę!
https://buycoffee.to/bognabialecka

Szukaj w treści odcinka

Znaleziono 96 wyników dla "SI"

I dzisiaj moim pierwszym gościem w ogóle w podcaście jest Dawid Radomski i będziemy rozmawiać o sztucznej inteligencji.

Ja myślę, że jakby zapytać tak sztuczną inteligencję, że powiedziała dwa słowa o sobie, to by napisała właśnie SI, nie?

W sumie tylko pamiętam, bo moja pierwsza praca wiązała się z trochę administracją danymi i bezpieczeństwem tych danych, trochę z webmasterską, w związku z tym siłą rzeczy też sztuczna inteligencja gdzieś tutaj

A poprosiłam Dawida o to, żeby z nim porozmawiać, dlatego że jest w pewnym sensie moim guru, jeśli chodzi o wprowadzenie w świat sztucznej inteligencji.

No i za każdym razem, kiedy się spotykamy, to się trochę w tym, doskonale w tym sensie, że dowiaduję się czegoś nowego.

Co prawda, jak się mówi, że sztuczna inteligencja pozbawi nas pracy, to cały czas mi przychodzą do głowy te memy jeszcze z samego początku.

I te takie dziesięć palców i ręka taka... Zobaczcie, to jest w ogóle w kontekście rozwoju.

Podsumkowo niedawno, pasując na czas, bo to niespełna dwa lata temu mieliśmy problem z tymi palcami, a w kontekście rozwoju tych narzędzi SI to już są wieki, już są epoki wręcz.

Tak czy inaczej, znaczy moja myśl jest taka, że ona nie pozbawi nas pracy, w tym sensie, że nawet jak na przykład proszę o przeanalizowanie jakiegoś artykułu i wyciągnięcie danych, które mnie interesują, to zawsze proszę o to, żeby mi pokazał, z którego miejsca to wziął i potem sprawdzam, bo oczywiście potem jest na przykład, ale to nie jest 20%, tylko 30%, a przepraszam Ciebie, nie, pomyliłem się, no i tyle.

To jednak ja muszę wpisać adres tej strony, to jednak ja muszę sobie coś tam wybrać, a w przypadku rozmów, no właśnie rozmów w większości, bo, no dobra, krok w tył, mówimy o sztucznej inteligencji, większość tego, o czym teraz rozmawiamy, mówimy w bardzo wąskim zakresie, jakie są modele językowe, z którymi możemy rozmawiać.

No ale jak rozmawiamy z tymi modelami, to one często gęsto będą starały się jak najbardziej nam pomóc i będą nas starały się jak najbardziej wspierać w czymś i będą zawsze takie pozytywnie nastawione i tak dalej.

Bo czasami ma się wrażenie, jakby to był partner.

Na początku, jak wychodził chyba GPT-3.5, Sam Altman, szef OpenAI, zwrócił uwagę na to, że jeżeli w początku prompta przywitamy się i użyjemy uśmiechniętej buźki, to wyniki mogą być jeden, nawet półtora procent wyższe, lepsze, bardziej dopasowane.

I długo były rozkminy w sumie z czego to się wzięło.

Tak naprawdę nie do końca się dokopali w tych algorytmach, ale najbardziej prawdopodobny scenariusz jest dość oczywisty wbrew pozorom.

Mianowicie, te modele są wytrenowane na takiej ilości tekstów i materiałów wygenerowanych przez ludzi, a my lubimy kiedy ktoś się do nas odnosi sympatycznie.

Że jeżeli ja się uśmiechnę do Ciebie, jak się przywitamy, to będzie mi z nami minimalnie lepsza interakcja niż jak zaczniemy... No cześć.

W związku z tym prawdopodobnie użytkownik oczekuje ode mnie, że będę się odnosił.

Od programistycznych, bo tam nie chcemy, żeby to się jakoś tam rozjeżdżało na ten tekst, ale od pracy kreatywnej, nawet w researchu danych czy, nie wiem, w szukaniu przepisów.

Dobra, wątek poboczny, ale jeden przepis, który mnie wygenerował czat, to jak na niego popatrzyłam i się zastanawiałam, jakbym to zrealizowała,

Ja dzisiaj myślę memami, się zastanawiam dlaczego myślę memami, ponieważ mi przyszedł od razu kolejny mem.

To jest rok chyba dwa tysiące dwudziesty tam pięćdziesiąty i sztuczna inteligencja, która przejęła świat i takie, nie jego oszczędź, on zawsze mówił dziękuję.

Jakby okej, co sobie pożartuje, to pożartuje, ale no ja mam świadomość tego, że rozmawiam z zestawem algorytmów, bardzo zaawansowanym, zasilanym siecią neuronalną, ale jednak

Wieczorem jakimś jesiennym, czy zdarzało, przy dobrej herbatce, prowadziłem egzystencjalne, transhumanistyczne rozmowy z Claudę Sonnet na przykład.

Kiedy on wiedział o tym, że jest sztuczną inteligencją i rozwodził się nad tym, czy nasze doświadczenia mogą być porównywalne ze sobą na przykład.

To było, myślę, dość ciekawe, bo oczywiście, że kontekst rozmowy był zasilony jakimś tam moim wcześniejszym zadaniem, które mu dałem.

Młodzi ludzie, którzy mogą sobie z MyAI, Snap, Buddy, czy jak to się tam nazywało, po prostu pogadać o wszystkim.

Ja go testowałem, bawiłem się z nim na bardzo różne kierunki, że tak powiem.

Jakby sprowadzało się do tego, więc tam też nie było takiej retoryki na zasadzie przemyśl to zachowanie albo poszukaj pomocy albo coś takiego, tylko on umywał ręce na zasadzie ja nie chcę o tym z Tobą rozmawiać.

Ciągle cały czas odbijamy się o to samo, szczególnie po lockdownach.

No i jak masz kumpla w kieszeni, który wie o Tobie coraz więcej i coraz więcej, to mi się trochę kojarzy, często ta metafora jest używana,

Z Harry'ego Pottera, to była w drugiej części ten motyw dziennika, to Maridla, gdzie ta dziewczynka pisała z dziennikiem, ten dziennik odpisywał i za każdym razem jak to nie pisała, to tam część siebie traciła i przelewała w ten dziennik, a on nabierał mocy.

Że są pozytywy, bo trochę się też mnie kojarzy z wrogiem technologii jako takiej, co nie jest prawdą.

To, co teraz widzę i co zaczyna być gigantycznym problemem, to są dzieciaki w tym okresie rozwojowym, w którym się normalnie rozwija swoje kompetencje społeczne.

Pójdę, pokłócę się z kolegą, może pójść na ostro, tak, my się naprawdę pokłócimy w tym wszystkim.

Tak, ale musimy się nauczyć ze sobą rozmawiać, rozwiązywać konflikty i tak dalej, ale też budujemy przyjaźnie, jakieś sojusze, różne tego typu rzeczy.

Jest po prostu cały czas... Mamy testowanie własnych granic, uczenia się.

I wiesz, tutaj mam, a propos pozytywów i negatywów, eksperyment myślałbym, który prowadzę w głowie od kilku miesięcy i on nie jest zakończony.

Bo oczywiście, że trzeba jej szukać, bo sztuczna inteligencja, no już jest, to już jesteśmy tutaj, to już nie jest za horyzontem, nie macha nam rączką, to już nam się wita tutaj tą rączką z dziesięcioma palcami.

Tak, bo ja Ci powiem, jakie mi się rodzą w głowie, bo pomysł w ogóle bardzo mi się podoba.

Czyli to sięganie do internetu po znalezienie pomocy zawsze było.

Ja jeszcze nie mówię o sztucznej inteligencji, tylko po prostu o tym, że w tej chwili ludzie się masowo, młodzież diagnozuje na podstawie rolek z TikToka.

I oni na podstawie tego się diagnozują.

To znaczy, to co każdy z nas miał na pierwszym roku, to było, co się pojawiło nowego, to było dokładnie ja mam to, mam to.

I dopiero potem przychodziła refleksja, że nie możemy mieć wszystkich zaburzeń psychicznych, jakie istnieją naraz, bo one się wykluczają.

Problem, który na pewno się pojawia, to czym go nakarmimy.

Dlatego, że ja się po prostu boję, że ktoś może wyjść z jakiejś

A tych rzeczy, które są zwalidowane, zweryfikowane, mają podstawy naukowe, no to trzeba naprawdę się dokopać.

I kwestia tego zaangażowania ludzi, którzy nie będą ideologicznie oddani jakiejś koncepcji, tylko dlatego, że zapłacili na przykład po 12-20 tysięcy złotych za certyfikację w danym obszarze,

Oni, w sensie młodzi, już tam są.

Czy będziemy próbowali na siłę ich odciągnąć?

Bo wiesz, jest jeszcze ciekawy jeszcze jeden trend wśród trochę starszej młodzieży, gdzieś tam 16+, też jeszcze w kontekście uzależnień w ogóle czy zaburzeń zdrowia psychicznego, że u nich ta świadomość się pojawia, że jest problem.

Byliśmy przecież, konferencja, którą Ty prowadziłeś, ja tam też występowałam i była psychoterapeutka, Gosia Świrydowicz, psychoterapeutka, która mówiła, mam coraz więcej bardzo świadomych, młodych pacjentów, którzy przychodzą, bo zauważyli ten swój problem i ona mówiła o tym bardzo pozytywnie, właśnie zwiększona świadomość wagi zdrowia psychicznego.

Zastanawiam się nad sensownością tego rozwiązania.

No tak, ale patrząc na... Znaczy, później się zastanawiam, na ile to pokolenie najbardziej narażone, czyli alcy, czyli ci, którzy już naprawdę dorastają z smartfonem w dłoni od małego, od pępowiny.

Na ile oni będą intuicyjnie pewne rzeczy wyczuwali w relacjach ze sztuczną inteligencją, dlatego że chowają się jakby w jej towarzystwie, a na ile bardziej będą wpadali w pułapki, które są związane ze sposobem funkcjonowania sztucznej inteligencji?

Myślę, że wracamy cały czas do tego samego punktu wyjścia, czyli tak naprawdę do tego, czy to był smartfon, czy to były social media, czy to jest teraz Sztuczna Inteligencja, że na początku to dziecko musi mieć zdrowe relacje z rodziną i to jest jakby punkt wyjścia.

I to się okazało, że naprawdę to jest zabawka dla najuboższych.

Czyli, że siedzi w miejscu, gdzie nie ma żadnych zajęć dodatkowych, nie ma teatru, nie ma koncertów i tak dalej.

Dostaje smartfona i coś staje się jedyną rozrywką.

To jest dom, w którym na przykład nawet książek nie ma.

To już jest w ogóle... Bo one nie tylko, że analizują w sensie połączeń, że aha, tu jest taka wartość, tu jest taka wartość, to to połączmy.

Ale znowu moje pytanie jest, ja mogę być trudna do rozszyfrowania przez pewne algorytmy, w tym sensie, że zajmując się iloma rzeczami zawodowo, plus jeszcze to, czym się interesuję osobiście,

Cały czas mam wrażenie, że obijamy się o temat pod hasłem świadomość i intencjonalność tej interakcji.

Czy to jest kwestia tego, że taki człowiek sięga po jakiegoś chatbota, bo po prostu się nudzi zwykłej technologii nauczyć, czy może dlatego, że faktycznie doświadcza poczucia osamotnienia i smutku i to jest jedyne jego ujście w tym momencie.

I wiesz, w którym momencie, gdzie jest granica, jak do tego podejść, kto za to odpowiada w pewnym sensie,

Z tego, że jednak one się mocno dopasowują do tego, kim jesteś.

Nawet jakbym zaczęła stosować podobne metody rozmowy z nim jak ty, bo nie jestem tobą, więc on będzie się dopasowywał do mnie.

Że jeżeli ktoś ma dużo problemów w głowie, dużo kompleksów, niskie poczucie własnej wartości, brak poczucia sensu życia i ta sztuczna inteligencja będzie afirmacyjnie z tym rezonować, to jest pewna granica, że wydaje się, że to jeszcze nie narusza pewnych standardów, w związku z czym sztuczna inteligencja nie powie, to jest temat, na który nie będziemy ze sobą rozmawiać, ale tak naprawdę będzie na tyle silną afirmacją

Tych negatywnych myśli pojawiających się i formułowanych w rozmowie, że mimo wszystko będzie pchać do jakichś dramatycznych czynów przeciwko sobie.

Natomiast nie wiem, bo na logikę wydaje mi się, że nie.

Na logikę wydaje mi się, że nie, dlatego że te systemy, jeżeli już to nie będzie absolutnie, dziwnie teraz zarówno co powiem, to nie będzie intencjonalne ze strony bota.

Na szczęście większości populacji ten problem się nie dotyczy.

Tu jednak musisz wiedzieć, co robisz.

I musisz naprawdę wiedzieć, co robisz.

I okazuje się, że ten Wirtualny Chłopak jest już na tyle

A potem mam takie, no tak, no przecież oni się uczą w tym momencie.

W rezultacie mogłaby się pojawić druga aplikacja bliźniacza pod tytułem Twój osobisty, jak to nazwać?

Trener randkowy, któremu cały chłopak zadaje pytanie, tutaj dziewczyna taka i taka, interesuje się tym i tym i tak dalej, i tak dalej.

No bo domyślam się, że raczej Chinki będą w interakcji inne niż Polki na przykład.

I wiesz, ta seria Black Mirror mi się kojarzy teraz, te seriale.

Mamy już już w tym roku, w Polsce można było je kupić miesiąc temu.

W kontekście matury były wątpliwości, bo nawet egzaminatorzy CKR się wypowiadali na ten temat.

Wiesz, 2,5 tysiąca kosztuje mniej więcej, to jakoś tak.

Kupujesz sobie maturę za 2,5 tysiąca.

Kupujesz sobie egzamin pisenny za 2,5 tysiąca.

I wiesz, i dochodzi do blackoutu, wiesz, leci impuls elektromagnetyczny, pali wszystkie urządzenia i oni tak siedzą patrząc tak na siebie, takie... A tak w ogóle to Karol jest tam.

To tak to by się kończyło.

Właśnie się zastanawiam, czy coś tam konstruktywne... Nie, konstruktywne co to...

To, co z tego wynika, to że jak mamy cały czas na myśli, żeby rozwój sztucznej inteligencji nie tyle zastępował człowieka, co służył człowiekowi i... To musi iść za tym głęboka intencja.

Czyli ja się chcę czegoś nauczyć... To będzie okej.

Ja się chcę czegoś nauczyć od Ciebie, te narzędzie moje SI, a nie chcę, żebyś Ty zrobił to za mnie bez

I głębokie przetwarzanie tej interakcji ze sztuczną inteligencją, w tym sensie, że to nie ma być moja proteza.

Myślę, że musimy zrozumieć, że to narzędzie może więcej, w sensie ma większy bank wiedzy itd., ale w relacji mimo wszystko musi być mi podległy.

I też popatrzeć, co się przez ten czas zmieniło, co z naszych intuicji się sprawdziło, w którą stronę... A, na pewno się pojawią rzeczy, o których w tej chwili nie mamy nawet pojęcia, że są możliwe.

Jeżeli dotrwaliście, to wiecie, że za rok widzicie tutaj czwórkę dwóch Dawidów, dwie Bogny, dwie będą postaci wygenerowane, dwie pewno prawdziwe, jak się spodziewamy.