Mentionsy

Opanuj.AI Podcast
Opanuj.AI Podcast
09.01.2026 05:00

Wielkie Podsumowanie AI w 2025 - Modele, Narzędzia, Przełomy, Liderzy, Firmy i Wpadki Influencerów

OpenAI czy Google? GPT-5.2 czy Gemini 3? Demis Hassabis czy Sam Altman? Bielik czy PLLuM? Ubiegły rok był pełen zaciekłych rywalizacji na wielu polach, a rozwój AI raz jeszcze przebił najśmielsze oczekiwania. W specjalnym, podsumowującym ostatnie 12 miesięcy odcinku, przechodzimy wspólnie przez 10 unikalnych aspektów rozwoju Sztucznej Inteligencji w 2025r. - nie zabraknie rewolucyjnych narzędzi, ambitnych liderów, porad dla inżynierów i rozliczenia influencerów z mediów społecznościowych. Nie możecie tego przegapić!


Rozdziały:

- Intro03:44 - Ogłoszenia Opanuj.AI06:12 - Kategoria 1: Trend roku14:06 - Kategoria 2: Zaskoczenie roku23:18 - Kategoria 3: Polska scena AI32:14 - Kategoria 4: Narzędzie roku dla programistów46:22 - Kategoria 5: Rozczarowanie roku58:32 - Kategoria 6: Badanie roku i research fail01: - Kategoria 7: Startup, firma lub organizacja01: - Kategoria 8: Przełom roku01: - Kategoria 9: Osoba roku01: - Kategoria 10: Model roku01: - Podsumowanie i prognozy na 2026

Szukaj w treści odcinka

Znaleziono 12 wyników dla "LLM"

Mieliśmy choćby boom na modele rezoningowe, które podniosły możliwości surowych modeli językowych, znacznie lepsze wyniki LLM-ów, czy też już właśnie modeli rozumujących w zadaniach ścisłych, w programowaniu, w matematyce.

poprzedników i też pokonały wiele słabości LLM-ów, które były widoczne szczególnie w tych zadaniach ścisłych.

Wychodząc od samej definicji agentów to nie był wcale taki łatwy temat, żeby zdefiniować to czym ci agenci mieliby się różnić od LLM-ów, były różne definicje tego czym ci agenci mieli być.

No i jesteśmy rok później i tak naprawdę nie wyobrażamy sobie systemów opartych o LLM-y, takich systemów agentowych właśnie bez tego mechanizmu obsługi narzędzi.

I to właśnie ci agenci sprawili, że przekraczanie ograniczeń LLM-ów stało się faktem, bo w wielu obszarach, w których korzystamy z AI potrzebujemy właśnie determinizmu, przewidywalności, potrzebujemy realnych danych, odwoływania się do jakichś źródeł.

Chińczycy wcześniej wcale nie mieli silnej pozycji w LLM-ach, wręcz przeciwnie, wypuszczali jakieś dziwne modele Alibaba i tak dalej, z których nikt nie korzystał.

Było też sporo zarzutów o to, że ten GPT-5 jest takim bardzo suchym modelem, z którym jakby nie można się zidentyfikować, który tak jak niektórzy tutaj mówili jest troszkę takim właśnie beżowym pracownikiem z korporacji, która się tutaj z publikacji firm medialnych ze Stanów użyła takiego określenia, że to jest po prostu taki najbardziej nudny, przewidywalny LLM, który się pojawił na rynku, który gada jak takie jakieś corpo

jeżeli chodzi o różne języki, w jakich możemy komunikować się z LLM-em.

I to co ja bym chciał tutaj wyróżnić, na co chciałbym zwrócić Waszą uwagę, to jest taka publikacja na blogu Thinking Machines Defeating Non-Determinism in LLM Inference, czyli czemu tak naprawdę te modele są nieprzewidywalne jeśli chodzi o inferencję, czemu one tak naprawdę zwracają te tokeny w losowej kolejności, czy to losowanie tokenów to tak naprawdę jest clue problemu i to jest mega techniczny...

To jest taki duży skrót, takie uproszczenie, natomiast jak sobie wejdziecie na ten blog Thinking Machines, to tam naprawdę można zrobić taki kolejny krok w rozumieniu tego, czemu LLM są nieprzewidywalne

I to nie był chyba tak popularny wpis, jak myślę to, o których ty Marcin powiedziałeś, bo to też były turbo ważne publikacje i osiągnięcia, ale wydaje mi się, że jak ktoś chce tak naprawdę rozumieć głębiej to, o czym my tu mówimy, głębiej niż na LinkedInie, wejdźcie sobie właśnie na ten blog Thinking Machines i poczytajcie, co się dzieje właśnie na GPU, co się dzieje gdzieś tam w warstwie inferencji i o co chodzi z tą nieprzewidywalnością LLM-u, bo to nie jest tak, że to są właśnie takie krasnoludki, które tam kurczę biegają i...

dużą ilość informacji zawarto w języku w sposób, który jest łatwy do gdzieś tam zmapowania LLM-om na te ich koncepty, na te ich idee.