Mentionsy

Podcast Sektor 3.0
Podcast Sektor 3.0
26.11.2025 09:00

AI nas zagłaskuje. Jak sztuczna inteligencja zmienia nasze postrzeganie świata i współpracę?

Czy AI może za bardzo nam schlebiać? Jaki może mieć to wpływ na naszą pracę? A czy odbija się na relacjach międzyludzkich i chętniej rozmawiamy z chatem niż ze współpracownikami? O tym, a także o podejściu do krytycznego myślenia i inteligencji zbiorowej w kolejnym odcinku Podcastu Sektor 3.0 opowiada Marcin Woźniak z Fundacji Optimum Pareto.

⏹️ W tym odcinku: INTRO / Wprowadzenie do tematu AI i pracy02:46 Inteligencja zbiorowa i jej znaczenie05:46 Relacje międzyludzkie a sztuczna inteligencja08:52 Techniki interakcji z AI11:56 Mapowanie argumentacji jako narzędzie14:57 Przykłady zastosowania mapowania argumentacji18:01 Wyzwania i przyszłość pracy z AI20:38 Krytyczne myślenie w erze AI23:56 Podsumowanie i przyszłość relacji z AI⏹️ Więcej przeczytasz na naszym Blogu⏹️ W tym odcinku naszym gościem jest Marcin Woźniak, prezes zarządu Fundacji Optimum Pareto.Marcin urzeczywistnia wizję świata, w której ludzie zamiast prowadzić bezproduktywne kłótnie w internecie, budują rozwiązania na fundamencie wiedzy gromadzonej przez pokolenia. Troszczy się o przyszłość sztucznej inteligencji, demokrację i bycie miłym dla ludzi, zwierząt i robotów.⏹️ SEKTOR 3.0 to przedsięwzięcie, które wspiera transformację cyfrową i wykorzystywanie nowych technologii w działaniach społecznie użytecznych. ⏹️ Więcej informacji znajdziesz na http://sektor3-0.pl oraz w naszych mediach społecznościowych: FB - https://www.facebook.com/sektor3.0 IG - https://www.instagram.com/sektor_3 LI - https://www.linkedin.com/company/sektor-3-0/

Szukaj w treści odcinka

Znaleziono 13 wyników dla "AI"

A tym razem porozmawiamy o zmieniającej się w obliczu AI pracy.

Kierowałeś między innymi projektami badawczymi dotyczącymi AI.

Jak w ogóle doszedłeś do tego, żeby zajmować się akurat relacjami, tą współpracą i inteligencją zbiorową w tym świecie AI?

Ja obserwuję i nie wiem, czy Ty też obserwujesz, ale generalnie trend światowy jest taki, że ludzie coraz częściej pytają różnego rodzaju narzędzia AI, zamiast zapytać o coś drugiego człowieka.

I dzieje się to i w życiu takim naszym prywatnym, gdzie nagle okazuje się, że AI jest bliższy niż terapeuta czy terapeutka.

Nie mówię dużo o osobie eksperckiej, do której można zadzwonić, napisać mailem, bo jest to jednak większy wysiłek.

Ty masz takie sposoby na rozpoznawanie tego, jak AI nas zagłaskuje, tzn.

Są inne techniki też trenowania tak zwanego alignmentu, czyli żeby sztuczna inteligencja była sterowana pewnymi wartościami, ale często to też są techniki, które mają swoje wady, jak na przykład Constitutional AI, gdzie AI nie rozmawia z ludźmi, ale rozmawia sam ze sobą i sam ocenia swoje odpowiedzi na podstawie specyfikacji.

Ty mówisz, że istnieje taki AI, który odpowiada i rozróżnia się od takiego AI, który wspiera wspólne myślenie.

Powiedz, jakie trzy proste rzeczy mogą wprowadzić zespoły, żeby pracować z AI bardziej świadomie?

Czegoś takiego, co po prostu pozwoli nam nie oszukiwać siebie samych, nie oszukiwać swojej organizacji, no i nie dać się na te manipulacje związane z AI.

Także to bym na pewno polecał, żeby systemowo ten sceptycyzm do odpowiedzi AI sobie w polityce firmy zaimplementować.

Także ja bym się wystrzegał przed delegowaniem za dużo takiego myślenia samodzielnego do AI, żeby pomyślało za nas.