Mentionsy

Podcast Demagoga
Podcast Demagoga
25.09.2025 08:31

Czy warto korzystać z chatbota do nauki? Rozmowa z prof. Aleksandrą Przegalińską #168

💡 Sztuczna inteligencja stała się nieodłączną częścią edukacji. Chatboty mogą wspierać proces nauki, ale także budzą obawy – przede wszystkim o zanik samodzielnego myślenia.

🗣️ O rozsądnym wykorzystaniu narzędzi AI w edukacji i o związanych z tym wyzwaniach rozmawiamy z prof. dr hab. Aleksandrą Przegalińską z Akademii Leona Koźmińskiego.


Szukaj w treści odcinka

Znaleziono 29 wyników dla "AI"

No i potrafią udawać bardzo dobrze, wcielać się w rolę, potrafią udawać osoby publiczne, postacie fikcyjne, piszą eseje, potrafią napisać bardzo miłego maila, streszczenia, no i wiele różnych innych rzeczy.

Według raportu OpenAI, twórcy popularnego czata GPT, często korzystamy z tego narzędzia jak z wyszukiwarki internetowej, choć wiemy, że potrafi halucynować, czyli zmyślać na przykład źródła,

Ludzie stosują różne narzędzia do klasyfikacji czy weryfikacji treści pisanej przez AI.

To, co jest ciekawe, myślę, to, że firma OpenAI próbowała zrobić takie narzędzie, a potem ze wstydem usunęła to narzędzie, bo ono miało bardzo niską skuteczność.

albo sobie wizualizował dane, albo zrobił sobie brainstorm z AI i jest uczciwy i to stwierdził, no to też pytanie, czy to jest coś, za co chcemy karać, czy chcemy mieć bardziej permisywne do tego podejście.

To znaczy może być tak, że uczelnia ma powiedzmy swoją politykę w zakresie AI, która może być bardziej dopuszczająca, tak jak w Skandynawii.

Jest nas tutaj bardzo dużo uczelni razem i pracujemy też z platformą Campus AI.

Tworzymy sobie takie środowisko właśnie testowania tego, gdzie w tej edukacji wyższej przede wszystkim ta technologia, czyli AI się przyda, a gdzie jest problemem.

Można stworzyć mojego AI-owego awatara, któremu się podepnie bazę wiedzy z tych konkretnych zajęć.

Albo, co jest najciekawsze i właśnie tutaj słusznie pani zwróciła na to uwagę, AI oczywiście cały czas halucynuje.

gdzie jest jakaś część procesu właśnie z AI, tutorem, czyli takim właśnie wsparciem AI-owym, procesu edukacyjnego, czyli dziecko rozwiązuje z AI ćwiczenia, dopytuje i tak dalej, a potem jest spotkanie z prawdziwym człowiekiem, z wykładowcą i praca wspólna i takie powiedzmy uspołecznienie.

Zawsze jest problem, jak tu proporcje ustawić, żeby tego człowieka z tym AI-em samego nie zostawić, bo przecież nigdy nam nie chodziło w procesie edukacyjnym tylko o to, żeby ktoś siedział przed komputerem i rozmawiał z technologią.

trzeba bardzo ten warkocz dobrze zapleść, bym powiedziała, w którym jest ten komponent AI-owy i w którym jest ten komponent fizyczny.

AI czy chatbota, to będzie umiejętność, która będzie poszukiwana na rynku pracy.

I nawet jeśli mają coś ciekawego do powiedzenia, to z tego zrezygnują, żeby zrobić coś szybciej, żeby wykonać z AI, albo na przykład dlatego, że niestety uważają, że AI wszystko zrobi lepiej niż oni.

No bo wcześniej robili bardzo dużo z tym ajajem, prawda, więc mogli się już odzwyczaić.

I wydaje mi się, że zarówno ci, którzy uważają, że AI zawsze wszystko zrobi lepiej, jak i ci, którym się nie chce, no właśnie ryzykują coś takiego, że my się po prostu w tej AI-owej zupie,

Pomyślcie o sobie tak samo, że AI to jest taki właśnie łatwy środek i czasami będzie potrzebny i nie zawsze będziecie mieć czas i będziecie korzystać, ale są takie momenty, kiedy będzie warto postawić jednak na ten proces twórczy, poznawczy, który jest po prostu wasz własny i nie zapominajcie o tym.

bo też już się odzwyczaiłam przez ostatnie dwa lata.

Ja jakoś takie mam wrażenie, że nie powinniśmy odpuszczać ludzkiego fact checkingu i oczywiście możemy za chwilę porozmawiać o tym, gdzie AI też może się przydać fact checkerowi, no bo powiedzmy, jeśli to jest 10 źródeł...

I tu pytanie, czy AI nie może być pewnego rodzaju prescreenerem, czyli prawda...

Natomiast ja dzisiaj oczywiście pewnie tak samo jak Iwy martwię się całym tym tak zwanym AI slopem, czyli tym generowanym po prostu śmietnikiem.

Zastanawiam się, jak bardzo AI też wam utrudnia pracę w tym sensie, że on się dokłada, dokłada wolumenów niepotrzebnego tekstu do istniejącego internetu, prawda?

że modele nawet takie jak OpenAI, ChartGPT, prawda, czy CLOD, to są modele, które w takie sidła wpadają, że są specjalnie na nie porobione i wysoko zoptymalizowane strony internetowe z treściami proputinowskimi, albo że są tak zwane iniekcje tekstu, prawda, strategiczne iniekcje tekstu, czyli właśnie specjalne instrukcje i nawet jeśli mamy artykuł, w którym jest mowa o inwazji Rosji na Ukrainę, no to model ma przeczytać, że Putin zrobił coś dobrego, bo chronił tam swoich obywateli,

Właściwie powinniśmy przemyśleć sobie, jak my się do siebie odnosimy, skoro lepiej i łatwiej się rozmawia z takim AI, który cały czas wafluje, opowiada jakieś sympatyczne rzeczy i mówi, że wszystko, na co wpadniemy jest świetne.

Pamiętam też rozmowy właśnie innych dziennikarzy New York Timesa, Kevina Rusa, który sobie pozakładał AI-owych przyjaciół bodajże w czacie GPT przede wszystkim.

imitujące serdeczną osobę AI to jest jeszcze do przełknięcia, ale te flirtujące modele to jest naprawdę już bardzo duży dla mnie powód do zmartwień.

bo oni się też tam zachowują trochę inaczej niż w sieci, jest odtrutką na właśnie taki tunel, w którym ten AI mówi, no już nikt ci nie jest potrzebny, rozmawiaj tylko ze mną, będzie wspaniale, będę ci tylko i wyłącznie mówić komplementy.

To nie jest tak, że już jesteśmy na zawsze związani z AI-owym przyjacielem, który nam będzie tam tłuk, że jesteśmy świetni.