Mentionsy
Cursor 2.0 vs Windsurf SWE-1.5 - dobrze, szybko i tanio? Nowa era programowania z AI już tu jest (+ DGX Spark, ChatGPT Atlas i nanochat)
Cursor 2.0 rozszerza tradycyjne środowisko programistyczne na rzecz rewolucyjnej platformy wieloagentowej, fundamentalnie zmieniając podejście do pisania kodu. Cognition natychmiast kontratakuje, wypuszczając Windsurf SWE-1.5 – model kodujący z oszałamiającą prędkością 950 tokenów na sekundę. Analizujemy ten pojedynek gigantów i sprawdzamy, które podejście zdominuje AI-assisted development. W odcinku również: premiera taniego i szybkiego Haiku 4.5, rozczarowujące testy superkomputera DGX Spark, krytyka przeglądarki Atlas od OpenAI oraz wielkie podsumowanie 10xDevs II.
Szukaj w treści odcinka
Ja sam zdarza mi się, ja głównie obecnie korzystam z Cloud Coda, chociaż ten update jak najbardziej mnie zachęca, żeby znowu więcej bawić się w kursorze, no to w Cloud Codzie zdarza mi się odpalić kilka instancji terminala i gdzieś tam pracować na dwóch, trzech sesjach.
nie wiem, dostrojenia modelu, ale też właśnie na poziomie infrastruktury tego, jak ten model jest hostowany, jaka jest jego dostępność, to też myślę, że będzie zmienne, bo wszyscy użytkownicy Cloud Coda wiedzą, że AI w Polsce o określonych godzinach działa inaczej rano czy wieczorem, w zależności od tego, czy Ameryka też z danego rozwiązania korzysta, natomiast tutaj przynajmniej na takim syntetycznym poziomie ten SWI 1.5 działa naprawdę szybko.
Pięć tygodni pełne informacji, wiedzy i praktycznych umiejętności jak z RLM-ów korzystać, jak korzystać z kursora, windsurfa, cloudcoda i innych topowych narzędzi, o tym jak działają RLM-y, jak się z nimi komunikować, jak je rozstrzelać za pomocą MCP i jakie techniki promptowania stosować, aby osiągać najlepsze efekty.
Wiemy, że coraz więcej firm właśnie ma ze sobą etap eksperymentowania z narzędziami, dotknęło Copilota, dotknęło Coursora, dotknęło Cloud Coda.
Jeśli chodzi o cloud coda, no to myślę, że tutaj te główne argumenty, te cechy tego narzędzia są dość dobrze znane.
milion tokenów wyjściowych, to jest 5 dolarów, no więc są to trzykrotnie niższe ceny niż Sonnet 4.5, więc jeżeli jesteście posiadaczami tego planu Cloud AI Pro i na przykład korzystacie z Cloud Coda, no to to jest świetny sposób, żeby dużo wolniej te limity przepalać, które na Sonecie 4.5 przepalają się stosunkowo szybko, jeżeli jesteśmy na tym najniższym planie,
z zadania, więc tutaj również jest to jakaś przewaga względem MCP, które czasami pożera dużą ilość kontekstu, nawet jeżeli jest w stanie uśpienia, gdzieś tam załadowania tylko na przykład do naszego Cloud Coda, zwłaszcza jeżeli tych MCP mamy dodanych.
Ostatnie odcinki
-
Doktor AI nadchodzi - ChatGPT Health vs Google ...
01.02.2026 18:45
-
Wielkie Podsumowanie AI w 2025 - Modele, Narzęd...
09.01.2026 05:00
-
GPT-5.2 to GEMINI KILLER? Google VS OpenAI, MCP...
01.01.2026 10:51
-
Gemini 3 to hit, ale konkurencja nie śpi! GPT-5...
01.12.2025 12:38
-
Cursor 2.0 vs Windsurf SWE-1.5 - dobrze, szybko...
04.11.2025 05:00
-
Czy agenci AI zdominują branżę e-commerce? Chat...
04.10.2025 06:10
-
Czy agenci AI zdominują branżę e-commerce? Chat...
03.10.2025 05:05
-
GPT-5: sukces i porażka. Koniec marzeń o AGI pr...
01.09.2025 09:02
-
Czy AI spowalnia programistów? Halucynacje w NC...
02.08.2025 06:27
-
5 mitów programowania z AI - zapomnij o Vibe Co...
29.07.2025 06:00