Mentionsy

Kolega Ignacy
Kolega Ignacy
07.11.2025 15:00

JAK AI ROBI Z NAS IDIOTÓW

Otwierasz oczy. Sprawdzasz na telefonie godzinę – masz nowy budzik, dźwięczną melodyjkę. Masz jeszcze czas: szybka toaleta z krótkimi filmikami. Potem śniadanie przy dźwiękach nowego zespołu. A w autobusie czytasz skrót najważniejszych informacji. Większość z tego, co widziałeś, słyszałeś i przeczytałeś, nie jest dziełem człowieka – to wytwór AI.🎵 Zapraszam na TikToka: https://www.tiktok.com/@kolega_ignacy🎧 Odsłuchaj jako Podcast: https://podcasters.spotify.com/pod/show/ignacy-ukowski✅ Subskrybuj: http://bit.ly/1AfGxtE📷 Instagram: https://www.instagram.com/kolegaignacy/Wykorzystaj możliwości XTB, klikając w link i wpisując w trakcie rejestracji kod “IGNACY”: https://link-pso.xtb.com/pso/ilhyo Inwestowanie jest ryzykowne. Inwestuj odpowiedzialnie. [reklama] Źródła:Materiał współtworzyli:Ignacy ŁukowskiMarceli ŁukowskiJakub SzubaDominika Twardoń - ŁukowskaLaura Mazur

Szukaj w treści odcinka

Znaleziono 36 wyników dla "AI"

To wytwór AI.

Analiza Guardian odkryła, że 9 z top 100 najszybciej rosnących kanałów na YouTubie zawiera treści generowane przez AI.

Rewolucja AI to nie tylko wyzwanie techniczne, ale też obawa, czy rzeczywistość, którą oglądamy w internecie, oddala się coraz bardziej od tego, co naprawdę prawdziwe.

Simon Wilson, brytyjski programista, wymyślił termin AI-slop, czyli cyfrowy bałagan, bagno, pomyje, by określić treści wypełniające przestrzeń, które priorytetyzują szybkość i ilość nad substancją i jakością.

Obrazy, filmy, tekst, dźwięk, wszystko tworzone przez AI, często bez dbałości o dokładność czy wartość.

Ale prawdziwy problem nie polega tylko na tym, że AI generuje śmieci.

Prawdziwy problem polega na tym, że AI uczy się z własnej śmieci.

Dokładnie to zdarza się z AI.

Z AI jest podobnie.

Nowy model AI uczy się z tego tekstu, potem generuje kolejny tekst, zawierający błędy i przeinaczenia i tak w kółko, aż wszystko zamienia się w bezsensowny bełkot.

Błędy się kumulują, a każda kolejna generacja modelu AI pogłębia problem.

Naukowcy zastosowali test używany do wykrywania demencji u ludzi do programów AI.

Wynik AI wykazało znaczące upośledzenie poznawcze, podobne do ludzi we wczesnym stadium demencji.

AI na jednym czasie zapomina, co wygenerowało.

Pierwsza wiralowa postać z uniwersum Italian, Brainrod.

Serii absurdalnych obrazów stworzonych przez AI, przedstawiających hybrydy zwierząt z codziennymi przedmiotami.

Na TikToku hashtag ItalianBrainRot osiągnął 3 miliardy wyświetleń.

Karty kolekcjonerskie Panini, tak, tych samych Panini, którzy robili naklejki do Twoich dziesięcych albumów, czyli Skiffidol Italian BrainRot Trading Cards.

Gra w Roblox, Stile BrainRot czy zabawki.

Ludzie wpisywali jej nazwisko w Lens AI, aplikację, którą używała Stable Diffusion i otrzymywali obrazy w stylu Kelly McKernan.

12 sierpnia 2024 roku amerykański sąd odrzucił wnioski firm AI o oddalenie części pozwu i w przełomowej decyzji uznał za prawdopodobne, że platformy AI naruszają prawa autorskie artystów, pozwalając prawie ruszyć dalej do postępowania dowodowego.

I nawet powstały narzędzia, które miały maskować styl artysty lub truć dane treningowe AI.

Według raportu Światowego Forum Ekonomicznego rynek AI w mediach, sztuce, rozrywce ma wzrosność do 120 miliardów dolarów do 2032 roku przy rocznym tempie wzrostu na poziomie 26%.

Firmy wpychają AI wszędzie, nie zastanawiając się po co.

Ale rozwój AI sprawi, że zamiast demokratyzacji mamy koncentrację.

Jakby praca z asystentem AI sprawiała, że później trudniej zacząć myśleć samodzielnie.

Ekipa z BBC przetestowała cztery najpopularniejsze modele AI.

Inne badanie z udziałem 22 mediów publicznych z 18 krajów wykazało, że generatywne AI w 45% przypadków zniekształca wiadomości, niezależnie od języka czy tematu.

No a po drugie AI nie ma mechanizmu pilnowania prawdy.

Treści generowane przez AI rozchodzą się w sieci około 30% szybciej niż podobne fejki stworzone przez ludzi.

No przypuszcza się, że AI stosując neutralny, przyjemny styl i pozytywną narrację, na przykład żartując, ludzie mniej się wtrykucą w komentarzach i chętnie podają to dalej.

Badanie, które przeanalizowało ponad 91 tysięcy postów z Twittera, odkryło, że stworzona przez AI czaty dezinformacja otrzymuje 34% więcej polubień, prawie 11% więcej retweetów i 10% więcej wyświetleń niż taka napisana przez człowieka.

W tym samym czasie tysiące uczniów używa AI do pisania esejów, których nie pamięta.

Możemy domagać się oznaczania treści generowanych przez AI oraz powszechnej weryfikacji źródeł edukacji, która nauczy rozpoznawać to, co prawdziwe.

AI powinno pracować dla ludzi, nie zamiast nich.

Bo AI może być użyteczne pod warunkiem, że nie pozwolimy przejść u lusterów.