Mentionsy

Podcast SGH: SGcHat
Podcast SGH: SGcHat
18.11.2025 06:30

SGcHat: B_2.5 #BadaniaNaukoweIRozwój: Od halucynacji do innowacji, czyli jak zarządzać AI

Czy będziemy potrzebowali działu HR dla… algorytmów? Czy halucynacje AI to problem, czy szansa na innowacje? Czy można załatwić sprawę urzędową w 30 sekund zamiast w 14 dni?

W najnowszym odcinku podcastu SGcHat w paśmie Badania i Rozwój, dr hab. Agnieszka Chłoń-Domińczak, prof. SGH, rozmawiała z prof. Markiem Kowalkiewiczem (Queensland University of Technology) oraz prof. dr hab. Bogumiłem Kamińskim (dyrektor AI Lab w SGH).

Okazją do spotkania była wizyta w Szkole Głównej Handlowej w Warszawie prof. Marka Kowalkiewicza, związana z polskim wydaniem jego książki "Sterowani algorytmami? Nie pytaj, czy AI rządzi biznesem, pytaj, jak bardzo".

Rozmawiano o praktycznych aspektach AI, od zarządzania "armią cyfrowych minionków" po wpływ dużych modeli językowych na rynek pracy. Omówiono zagadnienie halucynacji AI (rozumianych jako źródło innowacji) oraz koncepcję „research innovation sprint”. To zaproponowana przez prof. Kowalkiewicza metoda sześciotygodniowych projektów badawczych, które łączą rygory naukowe z metodami działania biznesu. Ekspert opowiedział także o współpracy z australijską administracją publiczną, którejosią jest wprowadzanie rozwiązań AI.

Szukaj w treści odcinka

Znaleziono 4 wyniki dla "alignment"

alignment problem, czyli czy ona będzie robiła to, co my chcemy, więc jest pytanie, czy my twoim zdaniem już dzisiaj jesteśmy gotowi,

Natomiast użyłeś słowa alignment, czyli takiego jednolicości tego, co byśmy chcieli, a tego, jak te systemy się zachowują.

Jest też teraz pojęcie alignment faking, gdzie widzimy, że te systemy zaczynają nas oszukiwać.

Jedna rzecz mnie bardzo zaciekawiła, którą powiedziałeś o tym, czy te algorytmy, ten alignment jest taki, że algorytmy zachowują się tak, jak my byśmy chcieli.