Mentionsy

Patoarchitekci
Patoarchitekci
13.02.2026 07:00

PoC agentowe: Kill, Iterate, Scale

“Niestety, mimo że prompt jest bardzo precyzyjny, prawie za każdym zapytaniem odpowiedzi różnią się merytorycznie.” Łukasz cytuje feedback od osoby nietechnicznej - i to właśnie frustracja niedeterministyczną naturą LLM sprowokowała odcinek o PoC agentowych. Bo zanim zbudujesz armię agentów AI, musisz zrozumieć: ChatGPT i Copilot to no-go do eksperymentów biznesowych - mają własny System Prompt, auto-switching i logikę, której w API nie dostaniesz. 🎯 Proof of concept zaczyna się od mapowania “interfejsu białkowego” (copy-paste między systemami) i weryfikacji API - bo Łukasz ostrzega: “API niby jest, ale potrzebnych danych nikt nigdy nie wystawiał - bo nikt wcześniej nie pytał.” Excel z wynikami? Idealne. PDF-y zamiast UI? Jeszcze lepsze. Łukasz podsumowuje: “Trzeba to napisać tak syfiaście, żeby nie dało się tego użyć jako produkcję.” ⚠️ Trzy możliwe decyzje po PoC: kill (sukces!), iterate (najgorsza opcja - sunk cost fallacy), scale. Łukasz: “Operacja się udała, pacjent zmarł. To również sukces PoC-a - udowodniliśmy, że rozwiązanie nie działa.” A wdrożenie? Zwykły projekt software’owy, z niedeterministycznym klockiem w deterministycznym świecie. Najważniejsze pytanie AI w biznesie: w którym miejscu wpuścisz human in the loop, zanim rozbijesz się o ścianę? 🤖     A teraz nie ma co się obijać! 👉 Wpadajcie na naszego Discorda: https://discord.gg/78zPcEaP22 ! 🔥Tam możecie się z nami pokłócić o przyspieszanie SQL-a, podyskutować o naiwnych nadziejach na AI albo po prostu podzielić się swoimi IT-owymi przemyśleniami.     Słuchasz Patoarchitektów dzięki PROTOPII – firmie, w której Łukasz i Szymon działają na co dzień, wspierając zespoły IT na każdym etapie: od projektowania, przez wdrożenia i migracje, aż po optymalizację i zabezpieczenia. Oferujemy też mentoring i szkolenia dostosowane do potrzeb każdej firmy, niezależnie od wielkości. Sprawdź nas: 👉 protopia.tech   - Nasze sociale i linki - Materiały do odcinka - Pato szkolenia

Szukaj w treści odcinka

Znaleziono 27 wyników dla "PoC"

Bo nagle tak jak w moich przypadkach okazuje się, że w trakcie poca dowiadujemy się, że API jest, ale tej części danych nigdy nikt nie chciał z API, więc nie wystawiamy z systemu.

PoC agentowe.

Jak przygotować się do POC, POV agentowych rozwiązań?

Projektujemy scope i granice PoC.

Tak naprawdę, co w PoCach albo w Proof of Value jest najbardziej krytyczne?

Bo pamiętamy, że jest to PoC, czyli udowadniamy, że technologia hipoteczna może działać.

Tak, więc trzeba sobie określić granice automatyzacji przed rozpoczęciem.

I trzeba sobie powiedzieć z tym, jeżeli POC zadziała, to trzeba powiedzieć sobie o dokładności.

To jednak jest przejście przez to, jak ten POC działał i czy odpowiedź albo akcje, które on wykonał uznajemy za poprawne, uznajemy za akceptowalne, czyli czy jeżeli by coś takiego zrobił człowiek, to byśmy stwierdzili, że jest okej.

Tak, i teraz jest taka rzecz, że pamiętajmy, że w PoCu nie obsłużymy wszystkiego i tam też mogą być lesson learned na pilota produkcję, czyli możemy już teraz zastanowić się, jaki mógłby być pomysł na fallback, failure modes, czyli jak już zaprojektować sobie na przyszłość, co można byłoby zrobić, żeby poprawić, ale sorry, nie testujemy tego, nie implementujemy w większości przypadków.

To są wnioski z PoCa, a nie implementacja, bo mamy takie... To, czego nienawidzę u nas w naszej branży, to to, że PoC ma nagle stawać się... Wszyscy piszą PoCe i robią PoCe tak, że zaraz staje się produkcją.

To co, budujemy PoCa.

Wrzucamy tam przy POCu logów nigdy nie za dużo, żeby można było łatwo.

Tak, ja dam wam przykład z jednego z dwóch ostatnich POCów takich właśnie wykonywanych dla klientów, czy jak to wygląda, to udostępnialiśmy, w jednym udostępnialiśmy Excela z przypadkami, czyli tam było dosłownie Excel, jaką agent podjął decyzję, co zaproponował, jaki był reasoning i dlaczego, plus tam linki do źródeł i innych takich rzeczy, czyli był dosłownie Excel do oceny.

Tak powinno się robić na PoCach i pamiętać, że nie wprowadzamy, bo mi się też zdarza zrobić w tym, w pewnym momencie prompty agentów dojechały do wersji V20 i zostałem zapędzony w tak, że trzeba było to przepisać, bo nie miało to sensu.

To są takie rzeczy, o których trzeba pamiętać i widzieć, na przykład teraz mimo wniosków z PoC nadal walczę w jednym miejscu teraz produkcyjnym z halucynacjami, bo nadal się gdzieś pojawiają, a ponoć nie powinny.

Czyli nam się tak naprawdę poza POC-em tworzą ograniczenia, ale też możliwości rozwojowe dalsze nie po stronie systemu agentowego, tylko systemów docelowych, a czasem źródłowych.

Pierwsza, której wszyscy nienawidzą, czyli zabijamy PoCa.

I to jest też sukces PoCa.

Biznesowo to jest porażka, a de facto po to robimy PoC, żeby nie wtopić dalej.

Potem jest opcja najgorsza, czyli robimy kolejną iterację PoCa.

To jest ten cały problem, który jest razem z Kill, czyli zazwyczaj zaczynamy iterować PoC z tego powodu, że w teorii zainwestowaliśmy już za dużo, żeby się wycofać.

Bo nagle się okazuje, że zaczynamy już testy nie POC, tylko testy tego, co ma zostać wdrożone.

I teraz zbieram feedback po tym, zbieram, mam gdzieś pisane wymagania, mam feedback po tym, po POC-u, ale to nie tak miało działać.

Ja mówię o osobach, które są w projekcie, które uczestniczyły w tym od początku.

Łukasz, a czy możemy z tego, to jest teraz dosłowny tekst, który miałem gdzieś na początku grudnia.

I uświadomić, że to jest w porządku, bo dalej część tych projektów pochodzi do tego, że po to wydarzamy AI, żeby człowieka w ogóle nie było.