Mentionsy

Opanuj.AI Podcast
Opanuj.AI Podcast
09.01.2026 05:00

Wielkie Podsumowanie AI w 2025 - Modele, Narzędzia, Przełomy, Liderzy, Firmy i Wpadki Influencerów

OpenAI czy Google? GPT-5.2 czy Gemini 3? Demis Hassabis czy Sam Altman? Bielik czy PLLuM? Ubiegły rok był pełen zaciekłych rywalizacji na wielu polach, a rozwój AI raz jeszcze przebił najśmielsze oczekiwania. W specjalnym, podsumowującym ostatnie 12 miesięcy odcinku, przechodzimy wspólnie przez 10 unikalnych aspektów rozwoju Sztucznej Inteligencji w 2025r. - nie zabraknie rewolucyjnych narzędzi, ambitnych liderów, porad dla inżynierów i rozliczenia influencerów z mediów społecznościowych. Nie możecie tego przegapić!


Rozdziały:

- Intro03:44 - Ogłoszenia Opanuj.AI06:12 - Kategoria 1: Trend roku14:06 - Kategoria 2: Zaskoczenie roku23:18 - Kategoria 3: Polska scena AI32:14 - Kategoria 4: Narzędzie roku dla programistów46:22 - Kategoria 5: Rozczarowanie roku58:32 - Kategoria 6: Badanie roku i research fail01: - Kategoria 7: Startup, firma lub organizacja01: - Kategoria 8: Przełom roku01: - Kategoria 9: Osoba roku01: - Kategoria 10: Model roku01: - Podsumowanie i prognozy na 2026

Szukaj w treści odcinka

Znaleziono 4 wyniki dla "GPU"

wpis dość obszerny, to jest taki artykuł, który schodzi tak naprawdę na najniższą warstwę abstrakcji, bo do samego GPU i tam krok po kroku możemy się zapoznać z tym, dlaczego w dużej skali, jak korzystamy z modeli chmurowych, z usług takich jak właśnie chat GPT, dlaczego te tokeny tam są zwracane w sposób nieprzewidywalny i nie chodzi o to, o co chodzi większości z nas, nawet nie chodzi o to, co czasami pada gdzieś tam na naszych warsztatach, chodzi o to, jak same GPU pracują w skali, w momencie, kiedy

gdzieś tam w rozproszony sposób do tych GPU trafia setki tysięcy zapytań, GPU nigdy nie były projektowane w ten sposób, żeby działały w sposób przewidywalny, tam miała być jakaś współbieżność, zrównoleglenie tak naprawdę różnych operacji, które tam się dzieją i to tak naprawdę warstwa po warstwie przekłada się na to, że te tokeny są zwracane w sposób nieprzewidywalny.

I to nie był chyba tak popularny wpis, jak myślę to, o których ty Marcin powiedziałeś, bo to też były turbo ważne publikacje i osiągnięcia, ale wydaje mi się, że jak ktoś chce tak naprawdę rozumieć głębiej to, o czym my tu mówimy, głębiej niż na LinkedInie, wejdźcie sobie właśnie na ten blog Thinking Machines i poczytajcie, co się dzieje właśnie na GPU, co się dzieje gdzieś tam w warstwie inferencji i o co chodzi z tą nieprzewidywalnością LLM-u, bo to nie jest tak, że to są właśnie takie krasnoludki, które tam kurczę biegają i...

który tutaj w kontrowersyjny sposób opowiadał o tym, gdzie to AGI, Johnson Huang, Król GPU, liderzy DeepSeeka, Liang Wenfeng, może Satya Nadele z Microsoftu, Sander Pichai, no sporo tych osób było, sporo podcastów, sporo mocnych wypowiedzi, też sam Altman, o którym oczywiście trzeba tutaj wspomnieć, każdy z nas ma jakiegoś takiego lidera, zastanawiam się, czy autorytet, to też może odpowiedz też na to pytanie, czy to będzie dla ciebie autorytet, ta osoba, którą wskazałeś, czy raczej po prostu taki pik neutralny,