Mentionsy
DIGITALKS 189 - Jak wychować sztuczną inteligencję? Rozmowa z dr Agnieszką Karlińską
Dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK, zajmuje się budową bezpiecznych i wiarygodnych modeli językowych oraz tworzeniem narzędzi do wykrywania szkodliwych treści. Rozmawiamy o uprzedzeniach i odpowiedzialności sztucznej inteligencji za to co generuje, oraz o rozwoju polskiego modelu językowego PLLuM. Jak “wychowuje” się AI? Dlaczego powinniśmy rozwijać polskie modele językowe? Czy firmy wystarczająco dbają o to, by ich narzędzia były bezpieczne i inkluzywne? W jakich konkretnych obszarach polskiej administracji publicznej planowane są wdrożenia modelu PLLuM? I wreszcie: gdzie kończy się ochrona przed szkodliwymi treściami, a zaczyna cenzura? Odcinek pomoże ci zrozumieć jak działają modele językowe oraz jak każdy z nas może przyczynić się do tego, by były one bezpieczne i wolne od uprzedzeń. Rozmawiamy również o tym, jak humaniści mogą wykorzystać swoje kompetencje do pracy w zespołach rozwijających AI. Zapraszam do słuchania!
Szukaj w treści odcinka
Agnieszka, co mnie bardzo cieszy, będę to podkreślała, jest kierowniczką projektu Hive AI, którego celem jest rozwijanie polskiego modelu językowego Plum i wdrażanie grupy właściwie modeli Plum w systemach administracji publicznej.
Ty jesteś zaangażowana w budowę Pluma, jednego z dwóch polskich modeli językowych.
Jednym z nich jest Plum.
A jednak ja zawsze zachęcam, jeżeli chcesz czuć się patriotą, patriotką, to uprawiajmy patriotyzm technologiczny, przynajmniej raz dziennie wejdźmy i zasilmy, nakarmy trochę pluma.
My mamy modele i Bielik i Plum, to są modele otwarte, bezpłatne, można z nich korzystać, można je dostrajać na własne potrzeby.
W przypadku Bielika to jest ten rozmiar 11 miliardów parametrów, w przypadku Pluma są różne rozmiary, różne architektury, także można dostosować model do własnych konkretnych potrzeb, jakie zadania chcemy realizować, jak dużo tych zadań, no i jaką mamy infrastrukturę.
A przez to, że na przykład te modele Plum wytwarza środowisko naukowe przede wszystkim, no to ci ludzie potem przekazują wiedzę dalej, tak?
Jasne, więc projekt Plum to był zeszły rok, 2024, od końca stycznia do końca roku.
Natomiast teraz rozwijamy modele Plum właśnie pod szyldem Hive AI i poza tym, że je rozwijamy, to mamy już ten aspekt wdrożeniowy.
No kuś mnie, żeby cię dopytać o ostatnie wasze prace, bo w konsorsum HiFiI stworzyliście ostatnio trochę nowych modeli w grupie Plum.
Tutaj właśnie nie jeden model, ale rodzina modeli Plum.
Dlatego właśnie po co nam różne plumy, po co nam różne bieliki, po co nam różne modele?
No w przypadku polskich modeli językowych, my w przypadku modeli Plum nie korzystamy bezpośrednio z tych treści, które są z promptu po prostu, które są przekazywane do naszych modeli.
Już samo korzystanie z... Mamy okienko czatowe, PlumChat.
Ostatnie odcinki
-
AI ZAWSZE się z tobą zgadza. Dlaczego to problem?
15.04.2026 16:45
-
Tak TECHNOLOGIA ZMIENI twoją pracę. Rozmowa z M...
08.04.2026 14:01
-
Polecajki na kwiecień: koszmary Sama Altmana, b...
01.04.2026 14:02
-
Czy za 5 lat wciąż będziesz mieć pracę? Wnioski...
25.03.2026 15:02
-
Jak ŚWIADOMIE wpływać na otoczenie i ludzi? Roz...
18.03.2026 15:02
-
Czy Europa PRZESPAŁA technologiczną rewolucję? ...
11.03.2026 15:04
-
Polecajki na marzec: przyszłość pracy; czy Bill...
04.03.2026 18:35
-
Twoja przewaga nad AI. Jak budować kreatywność?...
25.02.2026 15:48
-
Prawda na temat życia nastolatków w sieci. Dr M...
18.02.2026 15:01
-
Jak działa algorytm miłości? Tak AI ustawia two...
11.02.2026 16:00