Mentionsy

DIGITALKS
DIGITALKS
10.09.2025 14:00

DIGITALKS 189 - Jak wychować sztuczną inteligencję? Rozmowa z dr Agnieszką Karlińską

Dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK, zajmuje się budową bezpiecznych i wiarygodnych modeli językowych oraz tworzeniem narzędzi do wykrywania szkodliwych treści. Rozmawiamy o uprzedzeniach i odpowiedzialności sztucznej inteligencji za to co generuje, oraz o rozwoju polskiego modelu językowego PLLuM. Jak “wychowuje” się AI? Dlaczego powinniśmy rozwijać polskie modele językowe? Czy firmy wystarczająco dbają o to, by ich narzędzia były bezpieczne i inkluzywne? W jakich konkretnych obszarach polskiej administracji publicznej planowane są wdrożenia modelu PLLuM? I wreszcie: gdzie kończy się ochrona przed szkodliwymi treściami, a zaczyna cenzura? Odcinek pomoże ci zrozumieć jak działają modele językowe oraz jak każdy z nas może przyczynić się do tego, by były one bezpieczne i wolne od uprzedzeń. Rozmawiamy również o tym, jak humaniści mogą wykorzystać swoje kompetencje do pracy w zespołach rozwijających AI. Zapraszam do słuchania!

Szukaj w treści odcinka

Znaleziono 5 wyników dla "Agnieszka"

I dlatego właśnie moją gościnią dzisiaj jest dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Model Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK.

Agnieszka jest badaczką, która zajmuje się budowaniem bezpiecznych i wiarygodnych dużych modeli językowych.

Agnieszka, co mnie bardzo cieszy, będę to podkreślała, jest kierowniczką projektu Hive AI, którego celem jest rozwijanie polskiego modelu językowego Plum i wdrażanie grupy właściwie modeli Plum w systemach administracji publicznej.

I teraz tak, twoim zdaniem, Agnieszka, kto powinien o tym decydować?

Moją gościnią była Agnieszka Karlińska, dr Agnieszka Karlińska.