Mentionsy
DIGITALKS 189 - Jak wychować sztuczną inteligencję? Rozmowa z dr Agnieszką Karlińską
Dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK, zajmuje się budową bezpiecznych i wiarygodnych modeli językowych oraz tworzeniem narzędzi do wykrywania szkodliwych treści. Rozmawiamy o uprzedzeniach i odpowiedzialności sztucznej inteligencji za to co generuje, oraz o rozwoju polskiego modelu językowego PLLuM. Jak “wychowuje” się AI? Dlaczego powinniśmy rozwijać polskie modele językowe? Czy firmy wystarczająco dbają o to, by ich narzędzia były bezpieczne i inkluzywne? W jakich konkretnych obszarach polskiej administracji publicznej planowane są wdrożenia modelu PLLuM? I wreszcie: gdzie kończy się ochrona przed szkodliwymi treściami, a zaczyna cenzura? Odcinek pomoże ci zrozumieć jak działają modele językowe oraz jak każdy z nas może przyczynić się do tego, by były one bezpieczne i wolne od uprzedzeń. Rozmawiamy również o tym, jak humaniści mogą wykorzystać swoje kompetencje do pracy w zespołach rozwijających AI. Zapraszam do słuchania!
Szukaj w treści odcinka
Agnieszka, co mnie bardzo cieszy, będę to podkreślała, jest kierowniczką projektu Hive AI, którego celem jest rozwijanie polskiego modelu językowego Plum i wdrażanie grupy właściwie modeli Plum w systemach administracji publicznej.
Ty jesteś zaangażowana w budowę Pluma, jednego z dwóch polskich modeli językowych.
Jednym z nich jest Plum.
A jednak ja zawsze zachęcam, jeżeli chcesz czuć się patriotą, patriotką, to uprawiajmy patriotyzm technologiczny, przynajmniej raz dziennie wejdźmy i zasilmy, nakarmy trochę pluma.
My mamy modele i Bielik i Plum, to są modele otwarte, bezpłatne, można z nich korzystać, można je dostrajać na własne potrzeby.
W przypadku Bielika to jest ten rozmiar 11 miliardów parametrów, w przypadku Pluma są różne rozmiary, różne architektury, także można dostosować model do własnych konkretnych potrzeb, jakie zadania chcemy realizować, jak dużo tych zadań, no i jaką mamy infrastrukturę.
A przez to, że na przykład te modele Plum wytwarza środowisko naukowe przede wszystkim, no to ci ludzie potem przekazują wiedzę dalej, tak?
Jasne, więc projekt Plum to był zeszły rok, 2024, od końca stycznia do końca roku.
Natomiast teraz rozwijamy modele Plum właśnie pod szyldem Hive AI i poza tym, że je rozwijamy, to mamy już ten aspekt wdrożeniowy.
No kuś mnie, żeby cię dopytać o ostatnie wasze prace, bo w konsorsum HiFiI stworzyliście ostatnio trochę nowych modeli w grupie Plum.
Tutaj właśnie nie jeden model, ale rodzina modeli Plum.
Dlatego właśnie po co nam różne plumy, po co nam różne bieliki, po co nam różne modele?
No w przypadku polskich modeli językowych, my w przypadku modeli Plum nie korzystamy bezpośrednio z tych treści, które są z promptu po prostu, które są przekazywane do naszych modeli.
Już samo korzystanie z... Mamy okienko czatowe, PlumChat.
Ostatnie odcinki
-
Prawda na temat życia nastolatków w sieci. Dr M...
18.02.2026 15:01
-
Jak działa algorytm miłości? Tak AI ustawia two...
11.02.2026 16:00
-
Polecajki na luty: sukces Chin, jak żyć kreatyw...
04.02.2026 15:00
-
Filozof o technologii. AI to niebezpieczna iluz...
28.01.2026 15:01
-
Czy dzieci powinny mieć dostęp do smartfonów i ...
21.01.2026 16:00
-
2025 - rok, w którym powiedzieliśmy AI "sprawdz...
14.01.2026 15:01
-
Dzieci wychowane przez ekrany - relacje w czasa...
17.12.2025 15:06
-
Pułapki automatyzacji. Czy AI powinna zarządzać...
10.12.2025 14:57
-
Technologiczny prezentownik 2025 - gadżety, wel...
03.12.2025 15:47
-
DIGITALKS 200 - Jak rozwijać swoją inteligencję...
26.11.2025 16:26