Mentionsy

DevTalk - Maciej Aniserowicz
DevTalk - Maciej Aniserowicz
18.03.2026 10:28

DevTalk Trio S03E05 – Vendor lock-in i widmo dyktatury cenowej gigantów AI

W tym odcinku rozmawiamy (Pilimon, Szydło, Kubryński) o tym, czy jesteśmy uwiązani do jednego dostawcy modeli bardziej, niż nam się wydaje. Z tego odcinka dowiesz się m.in.: Czy da się wrócić do kodowania bez AI; Czy przeniesienie „skilli” z Claude’a do Gemini jest proste; Czym jest AI Gateway i czy fasady mogą uratować Twoją niezależność; […]

The post DevTalk Trio S03E05 – Vendor lock-in i widmo dyktatury cenowej gigantów AI appeared first on DevTalk.

Szukaj w treści odcinka

Znaleziono 18 wyników dla "AI"

I te odcinki spotkały się z bardzo dużym zainteresowaniem i ciepłym przyjęciem.

To jest przerażające, bo jeżeli tak naprawdę OpenAI wydaje na INFRE więcej niż ma przychodu rocznego, no to coś się tam nie spina.

Ja bym powiedział, że może naiwnie na to patrzę, ale gdybym był właścicielem takich firm, to jest to gdzieś naturalna konsekwencja tego, bym powiedział, że najpierw w cudzysłowie uzależniam ludzi od siebie.

Natomiast jakby jeżeli byłem w stanie pisać kod trzy lata temu bez AI, to tak samo będę go w stanie pisać bez AI.

Jakby ten AI mi zniknie z jakiegoś powodu, natomiast ja na przykład bym nie chciał wrócić już do pisania kodu takiego normalnego, bo jak zobaczyłem jak można zapierdalać z AI, to by mi się nie chciało teraz z tubkami chodzić przy tym.

Ale moim zdaniem to w ogóle nie jest taki wybór, bo to jest wybór między tym, czy ja będę korzystał z Cloud Coda, czy będę korzystał z Codexa od OpenAI, czy ja będę korzystał z Jiminy CLI, czy ja będę korzystał z OpenCoda i będę się podłączał pod API jakiegoś tam konkretnego LLM-a, z którym będę chciał pracować.

Marek, który u nas rozwija ten cały plugin AI-owy, jakby też pomaga firmom we wdrażaniu jego.

Chodzi o to, jak masz cały zestawiony workflow, całe SDRC zestawione na jednym narzędziu, nie jest łatwo go zaimplementować w innych, bo się okazuje, że nagle masz ograniczenia, bo inaczej wygląda transfer kontekstu pomiędzy agentami, inaczej wygląda stawianie tych agentów.

Tam jest jeden do jednego, są te same koncepty, czy subagenty, czy skille, czy te pliki... Są inaczej zaimplementowane.

I teraz jest kolejna rzecz, dlatego że my mówimy teraz o użyciu AI w procesach, ale teraz powiedzmy sobie idźmy krok dalej.

Jest jakikolwiek sens, znaczy nie ma, ale może moglibyśmy sobie zadać takie pytanie, czy jest sens implementować na przykład projekt w taki sposób, że wołasz bezpośrednio API OpenAI?

Wiemy teraz, że nie ma i po to mamy różnego rodzaju gatewaye, narzędzia typu LangChain, LangFuse i tak dalej, żeby tak naprawdę sobie rootować tymi modelami.

Są różnego rodzaju narzędzia, które wspierają tak naprawdę tworzenie tej specyfikacji promptów, które mają nam na to odpowiedź i to jest tak naprawdę ten element takiej architektury, może jeszcze nie AI native, ale takiej AI supported albo supporting AI, która pozwala nam właśnie z tym pracować.

I zobaczcie, że są narzędzia, które na przykład są w stanie wyczaić, które prompty powinny być wysyłane do których modeli.

Nie chodzi mi tylko o to, że wiesz, tam masz jedno narzędzie i ono sobie wybiera, czy ma użyć takiego modelu, czy takiego, bo teraz piszę kod, to używam takiego modelu, teraz robię reasoning, to używam takiego, a teraz to robię jakiś tam brainstorming, to używam jeszcze innego.

I wydaje mi się, że właśnie taki AI Gateway

Znasz, Łukasz, taką stronę aistupidlevel.info?

To co wynika z mojego doświadczenia, to że w przypadku takich runtime'owych operacji, które są jednak dość proste, bo my nie wrzucamy do AI tysięcy stron tekstu, żeby coś nam z tego wypluł.