Mentionsy
Trzy lata z AI. Co się zmieniło, odkąd ChatGPT stał się naszą codziennością?
100 milionów użytkowników w 60 dni.
Tyle zajęło ChatGPT, by stać się najszybciej rosnącą aplikacją w historii ludzkości.
Dla porównania:
Internet potrzebował 7 lat. Facebook - 4,5 roku. Instagram - 2,5 roku. ChatGPT - 2 miesiące.Dziś, niecałe 3 lata później, żyjemy w świecie, gdzie:
→ Wirtualna minister Diella nadzoruje wszystkie przetargi w Albanii → AI w Turcji znalazła 1034 oszustów podatkowych wśród... wróżbitów → 62% polskich urzędników używa AI (często w tajemnicy przed szefem) → Nauczyciele wracają do egzaminów ustnych sprzed 100 latWszystko, co przewidywaliśmy o AI, było błędne. Wszystko, czego się obawialiśmy, dzieje się inaczej. Wszystko, na co liczyliśmy, przynosi nieoczekiwane skutki.
Zachęcam Was serdecznie do wysłuchania całości odcinka o tym, jak w niecałe trzy lata sztuczna inteligencja przestała być ciekawostką, opowiadającą żarty o kurach, a stała się częścią naszej coraz dziwniejszej codzienności.
P.S. Wróżbici z Turcji, którzy nie przewidzieli, że AI znajdzie ich oszustwa podatkowe? To najlepsza metafora naszych czasów.
Szukaj w treści odcinka
No i właśnie wtedy, gdzieś między kolejną kawą, a sprawdzaniem maili, między meetingiem na Teamsach, a robieniem zakupów na Allegro, część z nas natknęła się na dziwną notatkę w internetach.
OpenAI wypuściło ChatGPT.
Twój szef nie pyta już, czy używasz AI, tylko której AI używasz.
Nie człowiek wspomagany przez AI.
Dosłownie AI, która sama podejmuje decyzje.
W Turcji Fiskus używa AI do tropienia oszustów podatkowych.
AI znalazła 1034 wróżbitki, które zapomniały, że z czytania kart też się płaci podatki.
Ministerstwo używa AI, żeby sprawdzić, czy rzeczywiście napisał je bot.
Bo nie da się odróżnić, co napisał uczeń, a co AI.
Bo potrafi rozmawiać z AI.
AI diagnozuje raka lepiej niż lekarze.
AI odkrywa nowe antybiotyki.
AI pisze kod szybciej niż programiści.
AI tłumaczy lepiej niż tłumaczę.
AI... No właśnie.
Co jeszcze potrafi AI?
Gdzie nie będziesz pewien, czy głos w telefonie to twój syn, czy oszust z AI.
A może nawet tego podcastu, który teraz słuchacie, nie prowadzę ja, tylko Eleven Labs, gdzie AI udaje mnie.
Jak firmy, które dodały AI do nazwy spaliły miliardy i zbankrutowały.
Jak Estonia, cyfrowy lider Europy, przegrywa z AI.
Na samym początku chcę Wam opowiedzieć historię, która właściwie zainspirowała mnie do dzisiejszego odcinka.
Bo on się bardzo ucieszył, bo uważał, że ich konkurencja od jogurtów i tutaj wymienił nazwę, której nie mogę powtórzyć, ale każdy z nas ma ich produkty w lodówce, że oni chwalą się, że mają AI-powered content creation i że oni
No i mu Arek obiecał, że tak, jasne, bez problemu, AI, spoko, będzie bardziej AI niż konkurencja.
Wyszedł ze spotkania, zawołał zespół i powiedział, że od dzisiaj wszystko co robią ma mieć w nazwie AI.
No i oczywiście zespół popatrzył na niego jak na wariata, bo przecież nie ma żadnej AI, mają Photoshopa i Excela.
Ale Marek, jak każdy marketingowiec, stwierdził, że ubierze Excela w pazłotko i że od dzisiaj Photoshop to będzie AI Enhanced Visual Creation Tool, a Excel to będzie AI Driven Analytics Platform, a jak ktoś ich zapyta, jak działa to ich AI, to mają mówić, że to jest in-house solution.
I tak przez kolejne miesiące Marek udawał, że jego agencja używa AI, podczas gdy tak naprawdę jego zespół pokrojony używał ChatGPT do pisania postów na social media.
No i mówią do niego, że skoro używają AI do tworzenia contentu, a ChatGPT jest darmowy, no to można by było chyba obniżyć budżet, tak co najmniej o 50%.
I Marek próbował tłumaczyć, że AI jest tylko narzędziem, że potrzeba strategii, że ktoś musi to weryfikować, że kreatywność, że human touch, że doświadczenie.
Gdy AI wykonuje te same zadania w minuty, a ich przewagą mają być głównie relacje z klientem, co coraz częściej, jak podkreśliła, również klienci zaczynają dostrzegać.
Kasia powiedziała wtedy jeszcze, no i właściwie trudno się z nią nie zgodzić, że najśmieszniejsze w całej tej zabawie w kotka i myszkę jest to, że oni udają przed klientami, że używają AI, a klienci udają przed zarządem, że potrzebują agencji.
Że nie sprzedaje AI, bo te ma dzisiaj każdy.
OpenAI po cichu wypuszcza Research Preview ChatGPT.
Sam Altman, CEO OpenAI, później przyznał w wywiadzie, że myśleli, że może kilkaset tysięcy osób to sprawdzi, że to będzie taki fajny eksperyment.
Według doniesień mediów nakazuje zespołom rzucić wszystkie inne projekty i skupić się na odpowiedzi na boom generatywnego AI.
W lutym 2023 roku w desperacji wypuszczają Barda, swojego chatbota AI.
I tak, w styczniu 2023 roku Microsoft ogłasza, inwestujemy 10 miliardów dolarów w OpenAI.
Ale CEO Microsoftu stanął przed pracownikami i powiedział, każdy produkt Microsoft będzie miał AI.
Word dostanie AI, Excel dostanie AI, PowerPoint, Outlook, Teams, wszystko.
Nawet Paint dostanie AI.
Za 5 lat nie będzie produktu bez AI, tak jak dzisiaj nie ma produktu bez internetu.
Odkąd AI stała się powszechnie dostępna, przestępczość weszła na zupełnie nowy poziom.
To wszystko robi AI w kilka sekund na osobę.
A to dopiero początek, bo teraz AI analizuje wszystkie dostępne informacje o rodzinie.
Potem AI generuje scenariusz rozmowy.
Skuteczność jest przerażająca, bo klasyczne oszustwo na wnuczka miało skuteczność około 3%, a z AI to jest 15-20%.
Wałszywe ogłoszenia o prace generowane przez AI, które wyglądają profesjonalnie, mają idealne opisy stanowisk, benefity, wszystko.
Kiedyś poznawałeś oszukańczy mail po błędach językowych.
AI pisze idealną polszczyzną, używa właściwego tonu, nawet naśladuje styl komunikacji Twojego banku.
Wysłali 2000 maili phishingowych, 1000 napisanych przez człowieka, a 1000 przez AI.
Przy człowieku 12% kliknęło w link, a przy AI 37%.
Jeśli myślicie, że oszustwa finansowe to największe zagrożenie związane z AI, to się mylicie.
Turcja stała się światowym laboratorium tego, jak można użyć AI do totalnej kontroli społeczeństwa.
W 2024 roku Turcja zaczęła wyposażać wszystkich policjantów w kamery nasobne z AI i planem do końca 2025 roku jest to, żeby każdy z 80 tysięcy policjantów w Stambule chodził z kamerą, która w czasie rzeczywistym analizuje każdą napotkaną osobę.
AI analizowała wszystkie nagrania z kamer podczas protestów.
Sądy dostają analizy AI.
Bo jeśli uniewinni kogoś, kogo AI określiła jako wysokie ryzyko, a potem coś się stanie,
Human Rights Watch w raporcie z 2024 roku napisało, że Turcja stworzyła system, w którym AI jest sędzią, prokuratorem i katem jednocześnie.
Chiny mają swój social credit system, gdzie AI ocenia wiarygodność społeczną każdego obywatela.
Każdy mail, wiadomość, każdy post.
AI szuka takich ekstremistycznych treści.
Iran z kolei używa AI do identyfikowania kobiet, które nie noszą hijabu.
AI cię złapie, zidentyfikuje i na pewno ukaże.
We Francji podczas olimpiady w 2024 użyto eksperymentalnie AI do analizy tłumów.
W Wielkiej Brytanii policja używa AI do przewidywania, gdzie popełnione zostaną przestępstwa.
Czasem zapobiega przestępstwu, ale częściej zatrzymuje przypadkowych ludzi, bo wyglądają podejrzanie w miejscu, które AI określiła jako niebezpieczne.
A teraz spójrzmy na to, co AI zrobiła z edukacją.
Uniwersytety próbowały używać detektorów AI, programów, które miały rozpoznawać teksty napisane przez sztuczną inteligencję.
Co gorsza, często oznaczały jako napisane przez AI prace studentów, których pierwszym językiem nie był angielski czy polski.
17% przyznało, że oddało pracę napisaną w całości przez AI.
W Polsce sytuacja wygląda bardzo podobnie, bo badanie Uniwersytetu Warszawskiego z 2024 roku pokazało, że 73% studentów używa AI regularnie do pisania prac.
40% przyznało, że bez AI nie byłoby w stanie terminowo oddawać zadań.
I tu nauczyciele stanęli przed dylematem, bo z jednej strony używanie AI to oszustwo, a z drugiej za 5 lat ci sami studenci będą używać AI w pracy jako standardowego narzędzia.
Czy uczenie ich, żeby nie używali AI nie jest jak uczenie, żeby nie używali kalkulatora na matematyce?
Wprowadził obowiązkowo kurs AI w nauce i pracy.
Studenci uczą się nie tylko jak używać AI, ale przede wszystkim jak weryfikować to, co AI produkuje, jak łączyć sztuczną inteligencję z krytycznym myśleniem i jak używać AI etycznie.
Jeśli praca została napisana przez AI, to bardzo szybko wychodzi to na jaw.
Gimnazjum nr 3 w Poznaniu wprowadziło projekt Znajdź błąd AI i uczniowie mają za zadanie poprosić ChatGPT o napisanie wypracowania, a potem znaleźć wszystkie błędy merytoryczne.
I okazuje się, że AI często zmyśla, dodaje postacie, przekręca fabuły książek.
I efekt jest taki, że uczniowie pierwszy raz naprawdę czytają lektury, żeby móc wyłapać błędy AI.
Największym problemem okazały się jednak prace dyplomowe, bo w 2024 roku kilka uniwersytetów w Polsce i na świecie wykryło przypadki prac licencjackich i magisterskich napisanych w całości przez AI.
Ale może największą zmianą jest to, że AI ujawniła słabości systemu edukacji.
A teraz AI robi to wszystko lepiej.
Może to jest sygnał, że powinniśmy uczyć tego, czego AI nie potrafi, czyli kreatywności, krytycznego myślenia, współpracy czy empatii.
Po trzech latach życia z AI wiemy jedno.
Mieliśmy pewność, że AI najpierw zastąpi pracę fizyczną.
Tymczasem AI najszybciej wypiera białe kołnierzyki.
Bo AI nie ma rąk.
A drugi paradoks, kraje, które miały być liderami AI, przegrywają z własnymi sukcesami.
System Xroad łączy wszystkie bazy danych, e-rezydencja, blockchain w służbie zdrowia.
No wydawałoby się, że to idealny grunt dla AI.
Awa rzeczywistość jest taka, że adopcja AI w estońskim biznesie to zaledwie 5,2%, poniżej średniej Unii Europejskiej, która wynosi 8%.
Tymczasem w administracji publicznej Estonia ma 47 projektów AI.
AI analizuje dane medyczne, sugeruje niezdziałania prewencyjne.
Parlament używa AI do automatycznej transkrypcji z dokładnością 95%.
Tak jak w Polsce, gdzie 62% urzędników używa AI, ale większość małych firm nawet nie wie, czym jest ChatGPT.
Fakt, że AI miała zwiększyć produktywność.
Zamiast 3 maili wyślą 15?
Badania Uniwersytetu Stanforda pokazało, że średni menadżer spędza teraz 6 godzin dziennie na przeglądaniu dokumentów wygenerowanych przez AI.
AI generuje content, który trafia do innych AI, które go analizują, generują kolejny content.
Czwartym paradoksem jest to, że młodzi mieli wygrać z AI, bo są cyfrowi, tymczasem to 50-latkowie, którzy nauczyli się promptowania, dominują na rynku.
Bo AI nie tylko jest technologią, tylko narzędziem do myślenia.
Możemy też stwierdzić, że po trzech latach eksperymentów, sukcesów i porażek właściwie wiemy już, co na tym etapie faktycznie działa w świecie AI, a co jest tylko marketingiem.
Pierwszą lekcją, którą chyba wynieśliśmy już wszyscy, to że AI jest naszym asystentem, a nie zastępstwem.
I że najlepsze efekty daje połączenie człowieka z AI, a nie zastąpienie człowieka przez AI.
Badania z Johns Hopkins pokazały, że lekarze używający AI do analizy zdjęć rentgenowskich mają dokładność 96%, a sam lekarz to 88%, z kolei sama AI to 91%.
Kancelarie, które używają AI do analizy dokumentów, ale zachowują ludzką weryfikację, wygrywają 80% spraw, a te, które polegają tylko na AI, wygrywają 60%.
Te z kolei, które ignorują AI, wygrywają 55%.
Druga lekcja to proste rozwiązania dla konkretnych problemów działają lepiej niż skomplikowane systemy AI.
Bo AI kłamie.
A te, które ślepo ufają AI, regularnie publikują bzdury.
Firmy, które trenują małe, wyspecjalizowane modele AI do konkretnych zadań, osiągają wyniki dzisiaj dużo lepsze niż te, które używają uniwersalnych modeli, jak ChatGPT.
I tutaj za przykład niech posłuży nam duńska firma farmaceutyczna, która wytrenowała sobie model AI tylko do analizy interakcji między lekami.
No i ostatnia, piąta lekcja to taka, że AI ujawnia problemy, których wcześniej nie widzieliśmy.
Gdy firmy zaczęły używać AI do automatyzacji procesów, odkryły, że 70% tych procesów jest bez sensu.
Raporty, których nikt nie czyta, spotkania, które mogły być mailem i niczego nie ustalają, procedury, które istnieją, bo kiedyś ktoś je wymyślił i nikt nie miał odwagi ich skasować.
AI, próbując je zautomatyzować, pokazała ich absurdalność.
Prosiliśmy o żarty, przepisy, o pomoc w pisaniu maili.
A niecałe trzy lata później żyjemy w świecie, gdzie AI podejmuje decyzje kredytowe, diagnozuje choroby, pisze wyroki sądowe, decyduje o przejęciu pracy, ocenia dzieci w szkołach, kontroluje ruch uliczny, śledzi nasze zachowania, przewiduje nasze potrzeby.
80% prac studenckich napisanych częściowo lub całkowicie przez AI.
Możemy wykorzystać AI do rozwiązywania największych problemów ludzkości, takich jak choroby, zmiany klimatu, bieda, niewiedza, ale możemy też pozwolić, żeby AI pogłębiła nierówności, zniszczyła prywatność, zastąpiła ludzkie relacje algorytmami.
AI nie jest tutaj w ogóle inna.
I z AI będzie podobnie.
Dlatego jeżeli nie korzystacie z technologii AI w żaden sposób, jeżeli stronicie od ChatGPT jak od ognia,
AI to nie jest coś, co przydarza nam się z zewnątrz i jest narzucone.
I tak jak wróżbici z Turcji nie przewidzieli, że AI będzie ich ścigać za podatki, tak my nie jesteśmy w stanie przewidzieć co nadchodzi.
Ostatnie odcinki
-
Czego szukamy w maszynach? Samotność, duchowość...
03.02.2026 10:53
-
Co tak naprawdę wydarzyło się z AI. Podsumowani...
13.01.2026 09:40
-
Pandemonium. Historia modelu, który wyprzedził ...
09.10.2025 05:23
-
Trzy lata z AI. Co się zmieniło, odkąd ChatGPT ...
19.09.2025 07:00
-
Large World Model. AI, która nie papuguje, tylk...
14.05.2025 14:25
-
Chmura po europejsku. O co chodzi w projekcie G...
04.04.2025 08:07
-
Nierówności Cyfrowe. Czy technologia naprawdę ...
05.03.2025 13:43
-
DeepSeek - Chiński czarny koń, czy wiele hałasu...
06.02.2025 10:36
-
2025 – Rok Sztucznej Inteligencji: 5 Trendów, o...
23.01.2025 06:12
-
Error 404: Tradycyjne Święta Not Found?
10.12.2024 08:00