Mentionsy
DevTalk Trio S03E05 – Vendor lock-in i widmo dyktatury cenowej gigantów AI
W tym odcinku rozmawiamy (Pilimon, Szydło, Kubryński) o tym, czy jesteśmy uwiązani do jednego dostawcy modeli bardziej, niż nam się wydaje. Z tego odcinka dowiesz się m.in.: Czy da się wrócić do kodowania bez AI; Czy przeniesienie „skilli” z Claude’a do Gemini jest proste; Czym jest AI Gateway i czy fasady mogą uratować Twoją niezależność; […]
The post DevTalk Trio S03E05 – Vendor lock-in i widmo dyktatury cenowej gigantów AI appeared first on DevTalk.
Szukaj w treści odcinka
I teraz to, co chciałbym poruszyć, to jeżeli teraz opieramy swoje produkty czy też procesy w dużej mierze o LLM-y, to jak nie dać sobie zrobić takiego, wiecie, taki vendor lock 2.0, gdzie jesteśmy tak uzależnieni od jednego
Jakby ja mówię z perspektywy firmy, gdzie jakby ludzie nie piszą ani jednej linijki kodu, tylko wszystko powstaje poprzez LLM-a i nie udało nam się tego osiągnąć z żadnym innym modelem, a testowaliśmy wiele.
Z LLM, bo on na tyle długo myśli, że jakby praca nad jednym projektem jest nieefektywna.
Ale moim zdaniem to w ogóle nie jest taki wybór, bo to jest wybór między tym, czy ja będę korzystał z Cloud Coda, czy będę korzystał z Codexa od OpenAI, czy ja będę korzystał z Jiminy CLI, czy ja będę korzystał z OpenCoda i będę się podłączał pod API jakiegoś tam konkretnego LLM-a, z którym będę chciał pracować.
Jeżeli masz tak naprawdę system, który jest oparty o LLM, to czy na przykład...
I wydaje mi się, że teraz jest moment, w którym trzeba tak naprawdę dość mocno się zastanowić, w jaki sposób powinny działać fasady i decoupling tak naprawdę w przypadku używania LLM-ów jako element runtime'u produkcyjnego, bo to co mówiliśmy teraz, mówiliśmy o devtime.
Teraz jakby z LLM-ami jest podobnie.
Ciężko się na przykład testuje LLM-y integracyjnie, bo czasem dostajesz odpowiedzi, które są od czapy.
My kiedyś mieliśmy taką funkcję w LLM-ie, która robiła podsumowanie jakiejś osoby na podstawie skilli, który ta osoba ma.
Bo dla mnie to wygląda tak, że jeżeli rzeczywiście ja mam bardzo takie ogólne i proste prompty, które dają mi potencjał jakby bardzo różnorodnych odpowiedzi, to się zgadzam, że te odpowiedzi w zależności od tego, na którym LLM-ie będziemy puszczać, to będą drastycznie różne.
To to jest dobra praktyka, nawet używanie jakby gateway'a LLM-owego, który będzie rozrzucał ruch w zależności od tego, który model w danym momencie radzi sobie lepiej, który radzi sobie gorzej.
Ostatnie odcinki
-
DevTalk #141 – O technologii w służbie bezpiecz...
03.04.2026 10:41
-
DevTalk Trio S03E08 – Kto odpowiada za kod, któ...
28.03.2026 16:40
-
DevTalk Trio S03E07 – Taktyczne wzorce projekto...
26.03.2026 10:04
-
DevTalk Trio S03E06 – Czy AI odbiera nam umieję...
24.03.2026 09:33
-
DevTalk Trio S03E05 – Vendor lock-in i widmo dy...
18.03.2026 10:28
-
DevTalk Trio S03E04 – Poprawianie kodu po LLM-ie
16.03.2026 16:02
-
DevTalk Trio S03E03 – DDD w erze LLM
13.03.2026 09:15
-
DevTalk Trio S03E02 – Czy Twój SaaS przetrwa er...
11.03.2026 10:17
-
DevTalk Trio S03E01 – Czy AI zastąpi programistów?
09.03.2026 10:14
-
DevTalk #140 – O Salesforce CRM ze Stanisławem ...
02.03.2026 17:31