Mentionsy
GPT-5.2 to GEMINI KILLER? Google VS OpenAI, MCP w Linux Foundation i wątpliwości wokół benchmarków METR
Gorące premiery grudnia – czy GPT-5.2 i GPT-Image 1.5 wystarczą OpenAI, by odzyskać koronę w starciu z rodziną Google Gemini 3 i zmieniającą się dynamiką rynku? Jak czytać partnerstwo autorów ChataGPT z Disneyem - to trwała przewaga technologiczna czy kontrolowany eksperyment na najcenniejszym IP świata? Co mówią twarde dane o relacji ChatGPT - Gemini i dlaczego sama dystrybucja w ekosystemie Google’a zaczyna wygrywać z narracją o „najlepszym modelu”? Czy przekazanie Model Context Protocol (MCP) do Linux Foundation rzeczywiście porządkuje świat agentów AI, czy tylko przesuwa walkę o standardy na wyższy poziom?
Szukaj w treści odcinka
MCP stało się częścią Linux Foundation i skille Clouda stały się teraz skillami po prostu agentów.
jakie tutaj organizacje wchodzą w skład albo będą się zajmować tym rozwojem tego Agentic AI Foundation, Antropic, który na pewno za MCP stoi, ale również OpenAI, mamy wsparcie Google'a, Microsoft'u, AWS'a, Cloudflare'a i Bloomberga, a więc coraz więcej gdzieś tam niezależności od pojedynczego dostawcy i przeniesienie procesu decyzyjnego właśnie na poziom komitetów, jakichś takich konsorcjów, które tutaj wspólnie będą rozwijać te standardy.
W tym momencie mamy już ponad 10 tysięcy aktywnych publicznych serwerów MCP, ponad 75 gotowych konektorów w ekosystemie Cloud, więc to MCP naprawdę zyskuje szeroką adopcję.
Mamy tutaj wsparcie dla Pythona, mamy wsparcie dla TypeScripta, miliony pobrań miesięcznie, integracje z procesami CICD i też produkcyjnymi systemami AI, wsparcie na chmurach, wsparcie na AWSie, Cloudflare, Google Cloud, a więc mówimy o takim rozwiązaniu, które już tak naprawdę w każdy gdzieś tam obszar tego ekosystemu programistycznego, ekosystemu AI zagląda.
Być może losy MCP podzieli również Cloud Skills, teraz już znane w ramach otwartego standardu jako Agent Skills.
No i w ostatnim czasie właśnie ta długość działania modeli językowych, ta długość działania agentów stała się takim, jednym z najbardziej popularnych benchmarków, czy też takich aspektów, pod którym oceniane są modele językowe, no bo jeśli możemy powiedzieć, że na przykład właśnie Cloud Code z Opusem pracował przez 4 do 8 godzin nad jakimś zadaniem,
Jeśli mieliśmy kilka miesięcy temu modele, które pracują na poziomie kilku sekund, na przestrzeni minut, potem gdzieś tam zbliżały się do godziny, to teraz coraz więcej informacji pojawia się o tym, że właśnie Cloud z Opusem pracuje na 4 do 8 godzin itd., itd., a więc właśnie to zastąpienie pracowników umysłowych jest tuż za rogiem.
My na przykład możemy powiedzieć, że z naszego programistycznego doświadczenia Cloud Code coraz lepiej realizuje te długie zadania.
Jak w ogóle, tak się zastanawiam, jak te Twoje doświadczenia z tym ostatnim Cloud Codem, bo to też dotyka tego tematu długości działania modeli.
Znacznie mniej muszę też wprowadzać jakiś korekt, poprawek do działalności Opusa w Cloud Code.
Ostatnie odcinki
-
Doktor AI nadchodzi - ChatGPT Health vs Google ...
01.02.2026 18:45
-
Wielkie Podsumowanie AI w 2025 - Modele, Narzęd...
09.01.2026 05:00
-
GPT-5.2 to GEMINI KILLER? Google VS OpenAI, MCP...
01.01.2026 10:51
-
Gemini 3 to hit, ale konkurencja nie śpi! GPT-5...
01.12.2025 12:38
-
Cursor 2.0 vs Windsurf SWE-1.5 - dobrze, szybko...
04.11.2025 05:00
-
Czy agenci AI zdominują branżę e-commerce? Chat...
04.10.2025 06:10
-
Czy agenci AI zdominują branżę e-commerce? Chat...
03.10.2025 05:05
-
GPT-5: sukces i porażka. Koniec marzeń o AGI pr...
01.09.2025 09:02
-
Czy AI spowalnia programistów? Halucynacje w NC...
02.08.2025 06:27
-
5 mitów programowania z AI - zapomnij o Vibe Co...
29.07.2025 06:00