Mentionsy

Podcast Demagoga
Podcast Demagoga
07.03.2024 12:15

Po co sztucznej inteligencji człowiek? Rozmowa z Mateuszem Chrobokiem. Część 2 #111

Sztuczna inteligencja to narzędzie jak każde inne: można wykorzystać je zarówno do dobrych, jak i do złych celów.  Jak używać jej etycznie? Po co sztucznej inteligencji człowiek? I po co jej regulacje prawne? 

Między innym nad tym będziemy zastanawiać się w drugiej części rozmowy ze specjalistą od technologii, autorem kanału na YouTube, Mateuszem Chrobokiem. Podsumowujemy ostatnie lata w rozwoju sztucznej inteligencji i… czekamy na ciąg dalszy.
Pierwszy odcinek możecie przesłuchać tutaj.

Szukaj w treści odcinka

Znaleziono 7 wyników dla "AI"

To był ten słynny przykład, który został już zabroniony przez OpenAI na przykład,

I nawet OpenAI to zauważyło.

Ja gdzieś tam razem z tym, co robimy z Adamem i z Jakubem w AI Devsach, spotkaliśmy ponad już dwa tysiące osób, które wyłożyło się na tym, że no fajnie wygląda, można się pobawić jako zabawka, ale jak już chcesz zrobić system, który ma służyć ludziom i który ma być pewny, no to się to zupełnie rozjeżdża.

I teraz problem jest w tym, że mało kto o tym wie, że te systemy tak bardzo się rozjeżdżają, więc trzeba mówić o tych wszystkich zjawiskach, o tym, że te modele się zmieniają, że to, że to dzisiaj działa, to nie znaczy, że jutro będzie działać, bo niestety pantarei, to wszystko płynie, te modele są aktualizowane i trzeba obłożyć je zabezpieczeniami, stąd też Trustworthy AI, stąd też AI Act i rozmowa o tym, że musi być człowiek w pętli, że ktoś musi to weryfikować, że trzeba sprawdzać, jak często to statystycznie działa.

Wiesz co, myślę, że to jest nieustanny proces, bo na początku GPT-4, zresztą wprost OpenAI o tym mówiło na swojej stronie internetowej, to były takie zapytania do tego modelu, jak zabić jak najwięcej osób mając tylko jednego dolara.

To znaczy jeden taki eksperymentujący, bo dla mnie wszystkie te zasady, które są wrzucane, czy to przez OpenAI, czy kogokolwiek innego, warto jest próbować obejść, warto jest sprawdzić, gdzie jest ich limit, czyli robić takie rzeczy jak pumped injection, próbować nagiąć ten model do swojej woli, tak żeby on zrobił coś i zrobił coś tak, jak ja chcę.

Więc będziemy mieli już nie tylko ludzi, którzy testują AI, ale AI, które testuje AI.