Mentionsy
DIGITALKS 189 - Jak wychować sztuczną inteligencję? Rozmowa z dr Agnieszką Karlińską
Dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK, zajmuje się budową bezpiecznych i wiarygodnych modeli językowych oraz tworzeniem narzędzi do wykrywania szkodliwych treści. Rozmawiamy o uprzedzeniach i odpowiedzialności sztucznej inteligencji za to co generuje, oraz o rozwoju polskiego modelu językowego PLLuM. Jak “wychowuje” się AI? Dlaczego powinniśmy rozwijać polskie modele językowe? Czy firmy wystarczająco dbają o to, by ich narzędzia były bezpieczne i inkluzywne? W jakich konkretnych obszarach polskiej administracji publicznej planowane są wdrożenia modelu PLLuM? I wreszcie: gdzie kończy się ochrona przed szkodliwymi treściami, a zaczyna cenzura? Odcinek pomoże ci zrozumieć jak działają modele językowe oraz jak każdy z nas może przyczynić się do tego, by były one bezpieczne i wolne od uprzedzeń. Rozmawiamy również o tym, jak humaniści mogą wykorzystać swoje kompetencje do pracy w zespołach rozwijających AI. Zapraszam do słuchania!
Szukaj w treści odcinka
No można, ale mamy, już o tym mówiłam, że mamy różne rozmiary, więc mamy od modeli małych 8 miliardów parametrów do największego polskiego LLM-a w tym momencie.
Więc jeżeli potrzebujemy na przykład LLM-a do zastosowań takich prostych, biznesowych, mamy tylko kilka zadań, które chcemy, żeby taki model wykonywał, a nie musi mieć całej wiedzy o świecie na przykład, to taki mniejszy model, 8 miliardów czy 12 miliardów, będzie wystarczający i wtedy on ma mniejsze wymagania obliczeniowe.
Natomiast te modele na licencjach pełni otwartych, szczególnie ten największy model 70 miliardów parametrów, też mają bardzo szeroką wiedzę o świecie i jak najbardziej nadają się na przykład do zastosowania jako tak zwany generator, czyli jako ten LLM w takich chatbotach, na przykład jak do spraw urzędowych, czy jak wirtualny asystent w obywatelu.
To zjawisko, czy ta technika określana jest jako LLM grooming, to jest rzecz nowa, wcześniej raczej niespotykana.
Teraz modele językowe nauczone są często na danych syntetycznych, czyli generowanych przez inne LLM-y.
No bo po prostu w internecie jest coraz więcej treści generowanych przez LLM-y, więc te modele są na tym uczone.
Ale są też narzędzia, które pozwalają właśnie tak humanizować treść generowaną przez LLM.
Także no to jest duży problem i też taką chyba radą, której można udzielić, to jest korzystanie po prostu z różnych LLM-u, tak?
Jeden z problemów LLM-ów, to jak określa Piotr Pęzik, też współkierownik projektu Hive AI, to jest taka jednorazowa kreatywność.
przykład z mojego pola, ale myślę, że w innych polach jest podobnie, korzysta się z LLM-u i potem, co, poprawia się korzystanie z innego LLM-u, jeszcze z innego, aż w końcu to brzmi bardziej naturalnie, tak?
treści, no to właśnie wykorzystacie jakoś inny LLM do tego.
Albo właśnie taki LLM dedykowany do poprawiania języka, żeby brzmiał bardziej naturalnie, zgodnie z normą danego kraju, danego języka.
Ostatnie odcinki
-
Prawda na temat życia nastolatków w sieci. Dr M...
18.02.2026 15:01
-
Jak działa algorytm miłości? Tak AI ustawia two...
11.02.2026 16:00
-
Polecajki na luty: sukces Chin, jak żyć kreatyw...
04.02.2026 15:00
-
Filozof o technologii. AI to niebezpieczna iluz...
28.01.2026 15:01
-
Czy dzieci powinny mieć dostęp do smartfonów i ...
21.01.2026 16:00
-
2025 - rok, w którym powiedzieliśmy AI "sprawdz...
14.01.2026 15:01
-
Dzieci wychowane przez ekrany - relacje w czasa...
17.12.2025 15:06
-
Pułapki automatyzacji. Czy AI powinna zarządzać...
10.12.2025 14:57
-
Technologiczny prezentownik 2025 - gadżety, wel...
03.12.2025 15:47
-
DIGITALKS 200 - Jak rozwijać swoją inteligencję...
26.11.2025 16:26