Mentionsy
DIGITALKS 189 - Jak wychować sztuczną inteligencję? Rozmowa z dr Agnieszką Karlińską
Dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK, zajmuje się budową bezpiecznych i wiarygodnych modeli językowych oraz tworzeniem narzędzi do wykrywania szkodliwych treści. Rozmawiamy o uprzedzeniach i odpowiedzialności sztucznej inteligencji za to co generuje, oraz o rozwoju polskiego modelu językowego PLLuM. Jak “wychowuje” się AI? Dlaczego powinniśmy rozwijać polskie modele językowe? Czy firmy wystarczająco dbają o to, by ich narzędzia były bezpieczne i inkluzywne? W jakich konkretnych obszarach polskiej administracji publicznej planowane są wdrożenia modelu PLLuM? I wreszcie: gdzie kończy się ochrona przed szkodliwymi treściami, a zaczyna cenzura? Odcinek pomoże ci zrozumieć jak działają modele językowe oraz jak każdy z nas może przyczynić się do tego, by były one bezpieczne i wolne od uprzedzeń. Rozmawiamy również o tym, jak humaniści mogą wykorzystać swoje kompetencje do pracy w zespołach rozwijających AI. Zapraszam do słuchania!
Szukaj w treści odcinka
No można, ale mamy, już o tym mówiłam, że mamy różne rozmiary, więc mamy od modeli małych 8 miliardów parametrów do największego polskiego LLM-a w tym momencie.
Więc jeżeli potrzebujemy na przykład LLM-a do zastosowań takich prostych, biznesowych, mamy tylko kilka zadań, które chcemy, żeby taki model wykonywał, a nie musi mieć całej wiedzy o świecie na przykład, to taki mniejszy model, 8 miliardów czy 12 miliardów, będzie wystarczający i wtedy on ma mniejsze wymagania obliczeniowe.
Natomiast te modele na licencjach pełni otwartych, szczególnie ten największy model 70 miliardów parametrów, też mają bardzo szeroką wiedzę o świecie i jak najbardziej nadają się na przykład do zastosowania jako tak zwany generator, czyli jako ten LLM w takich chatbotach, na przykład jak do spraw urzędowych, czy jak wirtualny asystent w obywatelu.
To zjawisko, czy ta technika określana jest jako LLM grooming, to jest rzecz nowa, wcześniej raczej niespotykana.
Teraz modele językowe nauczone są często na danych syntetycznych, czyli generowanych przez inne LLM-y.
No bo po prostu w internecie jest coraz więcej treści generowanych przez LLM-y, więc te modele są na tym uczone.
Ale są też narzędzia, które pozwalają właśnie tak humanizować treść generowaną przez LLM.
Także no to jest duży problem i też taką chyba radą, której można udzielić, to jest korzystanie po prostu z różnych LLM-u, tak?
Jeden z problemów LLM-ów, to jak określa Piotr Pęzik, też współkierownik projektu Hive AI, to jest taka jednorazowa kreatywność.
przykład z mojego pola, ale myślę, że w innych polach jest podobnie, korzysta się z LLM-u i potem, co, poprawia się korzystanie z innego LLM-u, jeszcze z innego, aż w końcu to brzmi bardziej naturalnie, tak?
treści, no to właśnie wykorzystacie jakoś inny LLM do tego.
Albo właśnie taki LLM dedykowany do poprawiania języka, żeby brzmiał bardziej naturalnie, zgodnie z normą danego kraju, danego języka.
Ostatnie odcinki
-
AI ZAWSZE się z tobą zgadza. Dlaczego to problem?
15.04.2026 16:45
-
Tak TECHNOLOGIA ZMIENI twoją pracę. Rozmowa z M...
08.04.2026 14:01
-
Polecajki na kwiecień: koszmary Sama Altmana, b...
01.04.2026 14:02
-
Czy za 5 lat wciąż będziesz mieć pracę? Wnioski...
25.03.2026 15:02
-
Jak ŚWIADOMIE wpływać na otoczenie i ludzi? Roz...
18.03.2026 15:02
-
Czy Europa PRZESPAŁA technologiczną rewolucję? ...
11.03.2026 15:04
-
Polecajki na marzec: przyszłość pracy; czy Bill...
04.03.2026 18:35
-
Twoja przewaga nad AI. Jak budować kreatywność?...
25.02.2026 15:48
-
Prawda na temat życia nastolatków w sieci. Dr M...
18.02.2026 15:01
-
Jak działa algorytm miłości? Tak AI ustawia two...
11.02.2026 16:00