Mentionsy

DIGITALKS
DIGITALKS
10.09.2025 14:00

DIGITALKS 189 - Jak wychować sztuczną inteligencję? Rozmowa z dr Agnieszką Karlińską

Dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK, zajmuje się budową bezpiecznych i wiarygodnych modeli językowych oraz tworzeniem narzędzi do wykrywania szkodliwych treści. Rozmawiamy o uprzedzeniach i odpowiedzialności sztucznej inteligencji za to co generuje, oraz o rozwoju polskiego modelu językowego PLLuM. Jak “wychowuje” się AI? Dlaczego powinniśmy rozwijać polskie modele językowe? Czy firmy wystarczająco dbają o to, by ich narzędzia były bezpieczne i inkluzywne? W jakich konkretnych obszarach polskiej administracji publicznej planowane są wdrożenia modelu PLLuM? I wreszcie: gdzie kończy się ochrona przed szkodliwymi treściami, a zaczyna cenzura? Odcinek pomoże ci zrozumieć jak działają modele językowe oraz jak każdy z nas może przyczynić się do tego, by były one bezpieczne i wolne od uprzedzeń. Rozmawiamy również o tym, jak humaniści mogą wykorzystać swoje kompetencje do pracy w zespołach rozwijających AI. Zapraszam do słuchania!

Szukaj w treści odcinka

Znaleziono 12 wyników dla "LLM"

No można, ale mamy, już o tym mówiłam, że mamy różne rozmiary, więc mamy od modeli małych 8 miliardów parametrów do największego polskiego LLM-a w tym momencie.

Więc jeżeli potrzebujemy na przykład LLM-a do zastosowań takich prostych, biznesowych, mamy tylko kilka zadań, które chcemy, żeby taki model wykonywał, a nie musi mieć całej wiedzy o świecie na przykład, to taki mniejszy model, 8 miliardów czy 12 miliardów, będzie wystarczający i wtedy on ma mniejsze wymagania obliczeniowe.

Natomiast te modele na licencjach pełni otwartych, szczególnie ten największy model 70 miliardów parametrów, też mają bardzo szeroką wiedzę o świecie i jak najbardziej nadają się na przykład do zastosowania jako tak zwany generator, czyli jako ten LLM w takich chatbotach, na przykład jak do spraw urzędowych, czy jak wirtualny asystent w obywatelu.

To zjawisko, czy ta technika określana jest jako LLM grooming, to jest rzecz nowa, wcześniej raczej niespotykana.

Teraz modele językowe nauczone są często na danych syntetycznych, czyli generowanych przez inne LLM-y.

No bo po prostu w internecie jest coraz więcej treści generowanych przez LLM-y, więc te modele są na tym uczone.

Ale są też narzędzia, które pozwalają właśnie tak humanizować treść generowaną przez LLM.

Także no to jest duży problem i też taką chyba radą, której można udzielić, to jest korzystanie po prostu z różnych LLM-u, tak?

Jeden z problemów LLM-ów, to jak określa Piotr Pęzik, też współkierownik projektu Hive AI, to jest taka jednorazowa kreatywność.

przykład z mojego pola, ale myślę, że w innych polach jest podobnie, korzysta się z LLM-u i potem, co, poprawia się korzystanie z innego LLM-u, jeszcze z innego, aż w końcu to brzmi bardziej naturalnie, tak?

treści, no to właśnie wykorzystacie jakoś inny LLM do tego.

Albo właśnie taki LLM dedykowany do poprawiania języka, żeby brzmiał bardziej naturalnie, zgodnie z normą danego kraju, danego języka.