Mentionsy

Rozmowy na Autopilocie
Rozmowy na Autopilocie
06.05.2025 06:00

Czy potrafimy jeszcze odróżnić AI od człowieka?

W tym odcinku omówimy szereg nowości, które pojawiły się w ostatnim czasie w świecie AI i zastanowimy, co nadchodzi. Modele staja się coraz bardziej inteligentne, ale też pozwalają na bardziej intuicyjną pracę, także wspomaganą narzędziami.





Szukaj w treści odcinka

Znaleziono 42 wyników dla "AI"

A tematem dzisiejszego odcinka, jeśli go słuchacie, to są nowości, które przez ostatnie tygodnie rozpieszczały nas AI.

Jest ze mną Adam jak zwykle i Adam, najpierw mam właśnie pytanie o podsumowanie ostatnich tygodni w AI, bo naprawdę bardzo dużo się działo.

Gemini wychodzi na prowadzenie, jeżeli chodzi o taki w ogóle szeroko pojęty temat generatywnego AI.

No już nie muszą robić DEM i jakichś tam konferencji, tylko po prostu publikują modele i rzeczywiście całe Google AI Studio, bo to jest miejsce, w którym warto tych modeli doświadczyć.

No i jeżeli chodzi o OpenAI, oni również mają taki kill streak, ponieważ opublikowali zarówno wersję trzecią, pełną wersję modelu O3.

No i też OpenAI uderza w multimodalność, czyli mamy zarówno nowe modele, które zastąpiły nam Whispera, czyli model, który

Tak naprawdę będziemy mieć do czynienia z jednym modelem, który będzie zajmował się tym wszystkim, tym bardziej, że nawet po nazwach w przypadku OpenAI można łatwo powiedzieć, że mówimy tutaj o modelach, które tak jakby albo zostały wytrenowane na podstawie jednego modelu bazowego, albo są tak jakby jedną dziedziną modeli, które zajmują się po prostu konkretnymi formatami.

No bo przykładowo jak do tej pory, czy w zasadzie nawet trochę przed erą generatywnego AI, mieliśmy np.

Na koniec mamy jeszcze XAI, czyli firmę od Elona Muska, która również robi bardzo duży progres, jeżeli chodzi o inkrementacyjne ulepszenie groka, zarówno pod kątem samego API, czyli właśnie możliwości budowania, integracji itd.

Czyli jednego z najbardziej zaawansowanych, jednego z dwóch najbardziej zaawansowanych edytorów kodu generatywnego AI.

Odpowiedzi, które dostajemy od tych nowych modeli Gemini i od nowych modeli od OpenAI są zdecydowanie bardziej trafne w punkt, łatwo się z nimi porozumiewa, są przewidywalne, łatwo je też programować, w tym sensie, że łatwiej dostawać oczekiwane rezultaty niż od wcześniejszych modeli.

Więc wydaje mi się, że jesteśmy blisko miejsca, w którym ludzie po pierwsze przestają odróżniać rozmowę z AI, przynajmniej tekstową.

Od tej rozmowy z człowiekiem, a po drugie należy też zacząć się zastanawiać, czy przypadkiem nie zaczną ludzie preferować rozmowy z AI od rozmowy z człowiekiem, ponieważ AI jest bardziej empatyczne, jest bardziej cierpliwe, potrafi tłumaczyć i jeśli dodatkowo mamy wiedzę, że rozmawiamy z AI, no to prowadzimy konwersacje w taki sposób, który

Nam najbardziej odpowiada, nie boimy się zadawać trudnych pytań i wydaje mi się, że taka konwersacja stopniowo z AI zacznie dominować, jeśli chodzi o preferencje ludzi i mam takie przeczucie po prostu graniczące z pewnością, że może coś takiego w miarę szybko nastąpić, więc dla mnie to jest taki

Te ostatnie tygodnie to jest taki switch w kierunku takiego bardziej naturalnego porozumiewania się z AI i uzyskiwania jeszcze lepszych rezultatów w prostej komunikacji.

W każdym razie chodzi o modele od OpenAI do generowania grafiki, które są niesamowicie skuteczne i bardzo dobrze potrafią odwzorować.

Też chciałem pochwalić Google'a od tej strony, że Google AI Studio jest mega fajnym narzędziem do rozmaitych testów i ogólnie zaprzyjaźniania się z dobrymi modelami, z dużym zasobem, z dużym oknem kontekstu.

Z fajnym rozumieniem, więc możemy za darmo to robić w ramach Google AI Studio i polecam.

Zgadzam się, natomiast też zgadzam się z tym, że infrastrukturalnie, bo o tym właśnie chyba teraz mówisz, że tam jakiś Eleven Labs czy właśnie OpenAI to są firmy, które się tutaj liczą.

Który w tym przypadku nawiązuje do dialogu, który wtedy mówił o kredytach hipotecznych, a tutaj mówił o inwestycjach w projekty, które właśnie dostają finansowanie tylko dlatego, że są AI.

Ale przede wszystkim właśnie to sugeruje, że nawet na takim poziomie już AI może funkcjonować.

Czy potrafimy jeszcze odróżnić AI od człowieka?.

Pokazuje to, że rzeczywiście przekroczyliśmy jakiś tam tipping point, jeżeli chodzi o rozwój AI.

Myślę, że bardzo ciekawe czasy przed nami mimo wszystko i te ostatnie tygodnie pokazały, że wkraczamy w jakąś fazę dojrzałości AI.

Bardzo fajny moment, gdzie jeżeli ktoś do tej pory obserwował rynek i narzędzia i tak dalej, gdzieś tam słuchał sobie rozmów na autopilocie albo cokolwiek, ale jeszcze nie miał czasu na to, żeby eksplorować AI i żeby gdzieś tam wejść w to głębiej,

Warto, żeby teraz to zrobiły i sobie odpaliły to AI Studio, czy jakieś inne narzędzia, bo myślę, że już jest ten czas, żeby z tym po prostu zacząć otrzymywać od tego wartość.

I za 5 minut wracam z kawą i mogę sobie przeczytać bardzo szczegółowy raport, który zawiera już takie elementy, których wcześniej nie widziałem w AI, czyli elementy takie wnioskowania, jakieś elementy planowania, jakieś ciekawe rzeczy, które

Czy potrafimy jeszcze odróżnić AI od człowieka?.

Wyglądać jakby była wbudowana, nie wiem jak to tam pod spodem działa, ale przykładowo nowe modele OpenAI potrafią przy analizie zdjęć kropować, czyli przycinać oraz kadrować zdjęcie po to, żeby przyglądać się detalom i na podstawie tych detali rozumować.

Czy potrafimy jeszcze odróżnić AI od człowieka?.

My możemy sobie prześledzić jak te akcje wyglądały w czasie, co robił komputer Manusa i w jaki sposób dochodzi do rozwiązania i do rezultatu i możemy po prostu takiego mu agentowi już teraz zacząć zlecać rozmaite zadania.

Czy potrafimy jeszcze odróżnić AI od człowieka?.

I takie nasze refleksje dotyczące tych kolejnych iteracji Oats One AI.

Na pewno osoby, które skazywały AI na

Czy potrafimy jeszcze odróżnić AI od człowieka?.

Czy potrafimy jeszcze odróżnić AI od człowieka?

Tak jak wspominałem, że jak ktoś jeszcze nie interesował się głębiej AI i nie testował tych narzędzi, to teraz już powinien zacząć.

Jeśli zamierza się dzisiaj uczyć programowania albo jakichś innych rzeczy, które wygląda na to, że może AI wywrócić do góry nogami już bardzo, bardzo niedługo, więc warto tutaj też być na bieżąco.

Natomiast prawda jest gdzieś pośrodku i jak widzimy właśnie na przestrzeni ostatnich miesięcy, czy już w zasadzie lat, generatywne AI mocno się rozwija.

Natomiast ja nawet teraz przechodzę przez aktualizację szkolenia AI Devs, które właśnie ma na celu uczyć programistów, programistki tego, żeby korzystać z generatywnego AI właśnie do tworzenia aplikacji.

Tak, tych zmian, które są istotne jest bardzo mało, bo nawet jeżeli pojawiają się funkcjonalności, tak jakby oferowane przez OpenAI czy Gemini, tak w rzeczywistości, gdy potrzebujemy jeszcze więcej kontroli, trochę więcej optymalizacji, trochę więcej detali, trochę więcej personalizacji itd., to dalej musimy chodzić tymi samymi ścieżkami, więc tak jakby reguły i zasady pozostają takie same.

Natomiast w praktyce posiadanie wiedzy na temat tych fundamentów i potem tylko poaktualizowanie swojej wiedzy o te nowe możliwości czy nowe parametry modeli jest tak naprawdę wystarczające do tego, aby skutecznie z AI korzystać.