Mentionsy

TECHNOFOBIA
TECHNOFOBIA
23.03.2026 16:00

Nie dajmy się oszukać AI! (gość: Michał Kosiński) | TECHNOFOBIA

Czy prywatność już się skończyła? A może oddaliśmy ją platformom społecznościowym i firmom technologicznym znacznie wcześniej, niż byliśmy gotowi to zauważyć?

W tym odcinku mojego podcastu rozmawiam z Michałem Kosińskim — psychologiem społecznym, badaczem psychometrii i analizy osobowości w sieci, związanym m.in. z Cambridge i Stanfordem. Punktem wyjścia do naszej rozmowy są jego głośne badania pokazujące, jak wiele można wyczytać o człowieku na podstawie pozornie błahych danych: polubień, cyfrowych śladów, historii zachowań i aktywności w internecie.Rozmawiamy o kulisach afery Cambridge Analytica, o tym, jak dane milionów użytkowników Facebooka mogły zostać wykorzystane do profilowania psychologicznego i politycznej manipulacji, a także o granicy między naukowym odkryciem a jego niebezpiecznym zastosowaniem. Pytam też, czy twórca narzędzi ujawniających skalę zagrożenia może poczuć się jak Oppenheimer cyfrowej epoki.Ale to dopiero początek. Wspólnie zastanawiamy się, jaką wiedzę mają o nas platformy technologiczne, czy jesteśmy bardziej przewidywalni, niż chcielibyśmy wierzyć, i co dzieje się ze społeczeństwem, gdy algorytmy zaczynają rozumieć nasze emocje, preferencje, lęki i poglądy lepiej niż inni ludzie. Rozmawiamy także o autorytaryzmie wspieranym przez technologię, o Chinach jako laboratorium cyfrowej kontroli oraz o tym, czy Zachód naprawdę różni się od tych praktyk, czy tylko wdraża je wolniej i bardziej dyskretnie.Duża część rozmowy dotyczy też sztucznej inteligencji: modeli językowych, ich wpływu na język, kulturę i sposób myślenia. Pytam Michała Kosińskiego o to, czy AI ogłupi ludzi, czy uzależni nas od siebie, czy można ufać modelom wykorzystywanym do terapii, tłumaczenia emocji i podejmowania strategicznych decyzji. Zastanawiamy się również, kto dziś naprawdę kontroluje komunikację — państwa, korporacje, a może twórcy modeli fundamentalnych.


Mój podcast nie mógłby istnieć bez wsparcia Partnerów:


Finax PL - platforma, która pokazuje, że inwestowanie może być proste i dostępne. Finax wykorzystuje technologię, by pomóc użytkownikom systematycznie budować kapitał na przyszłość. Bez skomplikowanych decyzji, za to z myśleniem długoterminowym. Zostań klientem przez stronę https://finax.tech/technofobia , a robodoradca będzie przez rok za darmo zarządzał Twoim kapitałem do 30 tys. zł. Pamiętaj - inwestowanie wiąże się z ryzykiem!

Studio Miś - dom produkcji podcastów i wideo. Trzy niezależne studia, unikalne scenografie i pełen zaplecze produkcyjne. To miejsce w którym marka realizuje cały proces: od planu po efekt końcowy. Wszystko w jednym miejscu, w centrum Warszawy: https://studiomis.com/

Sponsorzy odcinka (1)

Studio Miś post-roll

"partnerami audycji TECHNOFOBIA są Studio Miś, dom produkcji podcastów i wideo"

Szukaj w treści odcinka

Znaleziono 17 wyników dla "AI"

Dobra broń jest taka, co pokazuje na przykład w małej skali wojnę na Ukrainie, jest to broń autonomiczna.

Widać to także po tym, iż inżynierowie, którzy te modele tworzą w OpenAI, w Google, w Facebooku, są bardzo często zaskoczeni tym, co te modele mogą zrobić, jak już się je wyjmie z tego treningowego pudełka i wtedy właśnie przydaje się psycholog, który może postarać się do jakiegoś stopnia to zrozumieć.

Potwierdzę, czy tam wielokrotnie widziałem spory toczone, czy w ogóle możemy mówić o tym, że te modele myślą, czy powinniśmy używać właśnie takiego air quote mówiąc, słuchajcie, to w ogóle nie rozumuję, to jest przecież ciąg przyczynowo-skutkowy.

To, co mamy do czynienia z AI obecnie, z generatywno-sztuczną inteligencją, to będzie augmentacja nas, czy to będzie zastąpienie?

Bardzo często mówiąc o AI ogólnie, o generatywnej i sztucznej inteligencji w szczególności, osoby, już nie tylko naukowce, ale też inżynierowie, przedsiębiorcy, odwołują się do kwestii ludzkiego mózgu, neuronów, budowania właśnie doświadczeń podobnych, jak to ma miejsce w procesie nauki człowieka.

Czy raczej będziemy cały czas traktowali go jako ten black box i na podstawie black boxa naszego projektowali black box AI-owy?

Czy jest to zapis zapisanych przez nas dokumentów czy naszych e-maili?

Wiesz, mam przygotowane pytania związane z AI, ale to wróćmy w takim razie do... Ale może skończ swoje poprzednie pytanie, jeżeli chcesz.

I teraz wchodzi w to perspektywa AI, który może agregować olbrzymie ilości danych i dzięki tym swoim dziwnym black boxowym zdolnościom, o których już nawet sami producenci i sami wytwórcy mówią, nie wiemy, przyznajemy się, mówimy szczerze.

Nie dajmy się oszukać AI!

Dobra broń jest taka, co pokazuje na przykład w małej skali wojnę na Ukrainie, jest to broń autonomiczna, która może sama podejmować decyzje bez udziału operatora.

Może nie byłoby to fair, że Stany Zjednoczone mają taką wielką dominację, by na pewno z tego były inne problemy, ale oszczędzilibyśmy sobie tego niesamowitego ryzyka tych dziesiątek tysięcy głowic nuklearnych.

Ludzie pracujący nad rozwojem sztucznej inteligencji wykształceni są na tych teoriach i boję się, że logiczną konkluzją dla osoby w Pentagonie odpowiadającej za rozwój broni oparty na AI będzie stworzenie takiego ultimatum w momencie, kiedy wydawało nam się będzie w Ameryce czy w Chinach, że mamy wyższość.

Bardzo rzadko albo inaczej, kiedy się podnosi temat związany z AI,

Tego człowieka, ale też dużo energii, dużo środków zainwestowanych przez społeczeństwo, przez rodziców w wyprodukowanie tego jednego lekarza, który może zobaczyć ograniczoną ilość klientów, pacjentów dziennie i którego też okres życia, okres aktywności zawodowej też jest ograniczony.

I na przykład słyszysz ludzi mówiących, no tak, tutaj wydał OpenAI 200 milionów dolarów, żeby wytrenować ten model, ja tutaj mu daję bardzo proste zadanie matematyczne i ten model nie potrafi sobie z tym poradzić.

Nie tylko przez godzinę tygodniowo, ale może patrzeć na was jak piszecie maila albo rozmawiacie ze swoją żoną.