Mentionsy

DDL Podcast
DDL Podcast
23.04.2026 13:35

Agenci AI - przereklamowany trend? Praktyczne zastosowania w biznesie

Czy agenci AI to tylko kolejny przereklamowany trend? Rozkładamy temat na czynniki pierwsze. Gdzie agenci mają sens, a gdzie kompletnie się nie sprawdzają? Porównujemy podejścia "z pudełka" (Microsoft Copilot Studio) z bardziej customowymi rozwiązaniami (OpenClaw) i zastanawiamy się, czy istnieje optymalny kompromis. Jeśli zastanawiasz się, czy wdrażać agentów AI w swojej organizacji - ten odcinek pomoże Ci podejść do tematu realistycznie.

Rozdziały (7)

1. Wprowadzenie i przedstawienie gościa

Wprowadzenie do tematu AI i przedstawienie gościa Mikołaja Przelzaka z ATDev.

2. Definicja agencji AI

Praktyczne zastosowania agencji AI w biznesie, w tym automatyzacja procesów i integracja z narzędziami.

3. Porównanie Copilot Studio z ChatGPT

Omówienie funkcjonalności Copilot Studio i jego zastosowań w biznesie.

4. Omówienie agentów AI i ich zastosowań

Omówienie agentów AI i ich zastosowań, w tym porównanie z chatbotami.

5. Zastosowania Copilot Studio w praktyce

Praktyczne zastosowania Copilot Studio w biznesie, w tym omówienie konfiguracji i pierwszych kroków.

6. Przyszłość agencji AI

Diskussja nad przyszłością agencji AI, w tym porównanie z chatbotami i zastosowania w różnych branżach.

7. Praktyczne zastosowania agentów AI w biznesie - integracje i integracje z zewnętrznymi narzędziami

Rozmowa kontynuuje omówienie praktycznych zastosowań agentów AI w biznesie, w tym bezpieczeństwo, integracje i integracje z zewnętrznymi narzędziami, a także porównanie Microsoft Copilot Studio z OpenClaw.

Szukaj w treści odcinka

Znaleziono 7 wyników dla "LLM"

Gdzie będą jakieś kroki, które niekoniecznie będą zawsze do wyboru przez LLM, tak?

Mamy na samym końcu na środku jeden element, który pozostaje ten sam, czyli LLM-a, wybranego jakiegoś dostawcy OpenAI-a, Cloud-a, Google'owego Gemini'a, czy coś takiego, obudowanego jakąś serią narzędzi, który występuje w jakimś konkretnym czasie, w konkretnym kontekście aplikacji, czy urządzenia, na którym na pewno funkcjonuje.

Pytania też trzeba umieć zadawać i LLM czasem je interpretuje lepiej lub czasem gorzej i zawsze im bardziej szczegółowe nasze zapytanie będzie, tym jest szansa na uzyskanie lepszych wyników, bo zawsze jak powiem mu przygotuj mi dokument, nie powiem co w nim ma być, no to on sobie schalucynuje i on będzie obszerny, ale nie będzie miał sensu.

Nie zostawiamy tam fulla do interpretacji dla LLM-u, tylko on ma przejść punkt po punkcie i zawsze ma przejść po wszystkich.

No właśnie, ale teraz tak, no bo Open Claw musi i tak wykorzystywać jakieś zewnętrzne LLM-y.

Open Claw wcale nie jest LLM-em, który działa na naszym komputerze.

No bo to myślę, co powiedziałeś, nie trafione pod tym kątem, że właśnie podsumowanie dokumentów, czy taką prostą pracę, może znowu za wcześnie wyskoczyłem, też tak samo jak z tym rozgraniczeniem światów AI-owego i LLM-owego ogólnie.