Mentionsy
Nowości w AI a przyszłość pracy
Jak to, co dzieje się dziś na rynku sztucznej inteligencji wpływa na nasze możliwości, produktywność i tworzenie aplikacji oraz side projektów. Na co się przygotować i co wziąć pod uwagę jeśli chcemy płynąć na fali narzędzi AI i stworzyć coś swojego.
Szukaj w treści odcinka
A temat dzisiejszego odcinka to, co się dzieje w AI, ale w takim kontekście rozwoju naszych aplikacji.
My, jak wiecie, rozwijamy aplikację Alice, czyli narzędzia asystenta AI, asystenta automatyzacji AI, w którym dodajemy
No i powoli wchodzi to AI trochę tak do mainstreamu, więc chcielibyśmy może te rzeczy związane z nowymi modelami czy nowymi ciekawymi rzeczami w AI też odnieść do tego, jak ma się to w wizji takiej pracy przyszłości i korporacyjnej pracy przyszłości też, bo ostatnio sporo z tym mamy do czynienia w Alice.
Na przykład kupiło jakiś czas temu Alice albo dostało, a teraz do niej wraca i chce dopiero ją odkrywać, bo wcześniej nie miało czasu, więc to też jest ciekawe, że sporo osób zaczyna właśnie teraz dostrzegać ten potencjał AI w kontekście produktywności i tej osobistej, no ale to też trochę jest dlatego, że pchamy bardzo dużo nowych funkcji do Alice, co jest tutaj zasługą Adama i Alice w sumie.
ChatGPT czy natywne aplikacje od Anthropic czy od XAI.
Co ciekawego ostatnio Twoim zdaniem pojawiło się na rynku albo w perspektywie sześciu miesięcy prawdopodobnie dużo się zmieni w AI, ale mając na uwadze i też na uwadze te rzeczy związane z produktem i z Alice, jak może wpłynąć, jak te zmiany w AI i te nowe rzeczy, które się pojawiają, wpływają w ogóle na te narzędzia czy aplikacje, które oparte są sztuczną inteligencję?
Tak, w zasadzie obserwujemy na pewno pewien shift, pewną zmianę, jeżeli chodzi o sposób pracy z AI, bo powoli wychodzimy z interfejsu czatu albo bardziej ten interfejs się transformuje, ponieważ zaczynają pojawiać się agenci
Natomiast teraz przechodzi to jeszcze głębiej, ponieważ agenci zaczynają pracować nie tylko posługując się jakimiś tam wbudowanymi, prostymi narzędziami, ale zaczynają posługiwać się właśnie serwerami MCP, czyli gdzieś tam protokołem, który pozwala im łączyć się z zewnętrznymi narzędziami, takimi jak nasze listy zadań, maile, czy jakieś inne zewnętrzne usługi, systemy CRM i tak dalej.
Czyli zaczynamy prowadzić wątki z AI, równolegle prowadząc ich kilka na raz.
Tak samo AI zaczęło pojawiać się na przykład właśnie w repozytoriach kodu na Githubie, gdzie również możemy poprosić na przykład o code review itd.
Które z tych elementów będą tak jakby natywnie dostępne w AI.
To jest kwota, która dla większości organizacji, jeżeli mielibyśmy każdemu pracownikowi dać teraz 3,5 tysiąca dolarów budżetu na to, żeby pracował sobie z AI, no to już często nawet nie wchodzi tutaj dyskusja, czy to jest warte ceny, tylko że po prostu tego budżetu nie ma.
No i szereg tych problemów rzuca tak jakby perspektywę na obecne AI, czyli z jednej strony otrzymujemy dużą wartość
W ogóle mieliśmy też taki swojego czasu odcinek cały poświęcony temu platform risk, czyli temu ryzyku, które wynika z tworzenia aplikacji AI-owych dziś.
To znaczy na początku tak naprawdę mieliśmy duże zagrożenie ze strony tego, że OpenAI na przykład przestanie działać, bo w momencie, gdy OpenAI było tylko jedynym API, z którego mogliśmy korzystać, faktycznie spowodowałoby to na przykład brak możliwości świadczenia przez Alice odpowiedzi, czyli brak działania aplikacji, które było niezależne od nas.
Patrząc na właśnie takie powody, dla których widzimy zagrożenia dla różnych aplikacji, no jednym z nich i to istotnym jest to, że te duże firmy też w swoich aplikacjach takich bardziej mainstreamowych jak właśnie ChartGPT czy Cloud od Anthropica zaczynają wprowadzać funkcje, które również posiada Alice czy różne inne narzędzia AI-owe.
Powstają chyba codziennie, powstają tysiące w zasadzie narzędzi AI.
Dlatego, że to jest jeszcze za wcześnie, żeby użytkownicy tak bardzo przyzwyczaili się do korzystania z tych narzędzi.
Duża firma taka jak Anthropic czy OpenAI potrafi odwzorować te funkcjonalności, a ludzie, którzy już za to płacą najczęściej nie chcą płacić dodatkowo za kolejne narzędzie i ten ból związany z tym, że trzeba za coś dodatkowo płacić, gdzieś się logować i tak dalej, no oczywiście jest większy niż nawet to, że od razu nie ma tam wszystkich tych funkcji.
Na przykład ja teraz siedzę na Intercomie, no i Intercom jako jeden z pierwszych zaczął wprowadzać ten FinAI, czyli taką inteligencję do baz wiedzy.
Po pierwsze, generalnie robimy AI w dosyć bezpieczny sposób, ponieważ robimy ją w zasadzie w pierwszej kolejności dla siebie.
Natomiast z drugiej strony dużo rzeczy, które robi Adam, też wykorzystujemy na swoje potrzeby, dla naszych zespołów i po prostu też po to, żeby rozwijać się i lepiej trochę rozumieć AI, żeby też móc zarobić czasem na innych produktach, które
Które korzystają z tej wiedzy, którą zdobywamy praktycznie ucząc się AI.
Dlatego, że zwyczajnie nie ma w tym zainteresowania.
ChatGPT jest aplikacją taką general public, super mainstreamową.
ChatGPT nie ma interesu w tym, żeby tworzyć właśnie jakieś automatyzacje, łączyć się z aplikacjami, które są pozamainstreamowymi, czy tworzyć jakieś rozwiązania dla programistów.
W ogóle widać, że po prostu nie mają w tym zainteresowania.
No a użytkownicy, którzy tak naprawdę nie będą dostawali tej wartości, no będą wiadomo, że też zawalali nas mailami, my nie mamy za bardzo możliwości ich supportować i tak dalej, więc generalnie chcemy na tym etapie tak się zdywersyfikować nasze podejście, żeby po prostu było to w miarę jasne, że jest to dla trochę innych osób.
Żeby po prostu nie iść za mainstreama.
To jest jakby... To znaczy ja sobie pomyślałem w pytaniu Mateusza, czy nie przejmujemy się, że OpenAI nas zastąpi, to powiem tak, jeżeli jesteś nauczycielem angielskiego, jeżeli jesteś programistą w front-endu albo jakiejś tam technologii, która coś tam...
Tak jakby obawiać się wszystkiego, bo to nawet nie musi to być AI.
Wystarczy, że przyjdzie inny biznes, który z jakiegoś powodu będzie delikatnie inny, to nie musi być open AI.
Dla mnie Alice jest rzeczywiście takim takim sandboxem, miejscem, w którym eksploruję AI.
Tak jakby stosuję dość zaawansowane techniki, jeżeli chodzi o to, żeby sprawić, żeby AI zapamiętywało informacje na mój temat.
I ta kategoria wyzwania pojawia się zarówno w wymiarze AI, jak i w wymiarze narzędzi, jak i mojej wiedzy.
Czyli AI, chodzi tutaj o możliwość np.
No i dlatego też nasza perspektywa czy spojrzenie na AI jest takie, a nie inne.
XAI od teraz powinno być traktowane już mega poważnie, jeżeli chodzi o wyścig AI.
Przewaga Alice, no bo ja nie jestem powiązany ani z OpenAI, ani z Anthropic, ani z XAI, więc jak wchodzę sobie na Supergroka, to tam mam tylko modele groka.
Jak wchodzę sobie na ChartGBD, to mam modele OpenAI, a jak na Gemini, to modele DeepMind.
I tutaj Mariusz jeszcze napisał, że pojawiły się badania, które mówią, że AI zamiast przyspieszać pracę programistów, to je spowalniają.
Przekładają się na taką praktykę, czyli potem się okazuje, że testowanych programistów to było tylko 16, oni pierwszy raz na oczy widzieli AI, pierwszy raz na oczy widzieli kursora i stwierdzili, że oni bez AI są w stanie zrobić zadanie w 45 minut, bez AI są w stanie zrobić w godzinę.
I to samo, jeżeli chodzi o ogłupianie ludzi korzystających z AI.
Można to właśnie oglądać z ciekawością i oczywiście poza mainstreamowymi mediami, które nie rozumieją totalnie o co chodzi, wszyscy wiemy o co chodzi i jest to bardzo ciekawe.
Ostatnie odcinki
-
Koniec Rozmów na Autopilocie
17.11.2025 07:00
-
Ostatnie pokolenie
20.10.2025 06:00
-
Nowości w AI a przyszłość pracy
30.07.2025 06:00
-
Czy AI nas ogłupia?
03.07.2025 06:00
-
Czy AI zabierze nam pracę?
01.07.2025 06:00
-
Co słychać w Dolinie Krzemowej
29.05.2025 06:00
-
Czy potrafimy jeszcze odróżnić AI od człowieka?
06.05.2025 06:00
-
Solo founderzy którzy zarabiają miliony
23.04.2025 06:00
-
GPT4.5 i inne nowe modele
05.03.2025 07:00
-
Wątpliwości związane z AI
03.03.2025 07:00