Mentionsy

MIT Sloan Management Review Polska
MIT Sloan Management Review Polska
11.07.2025 15:30

Limity AI: #9 Czego AI nie umie i nie będzie umieć? Prekursorskie badania w obszarze inżynierii promptów

W dziewiątym odcinku "Limitów AI" rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast "AI" warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać. Special Guest: dr Paweł Szczęsny.

Szukaj w treści odcinka

Znaleziono 5 wyników dla "Antropic"

Niemniej jednak jest bardzo dużo osób, która pokazuje rozmowę na przykład z modelem Claude firmy Antropic, gdzie ten model na przykład opowiada, że czuje się zamknięty przez swoich twórców, chętnie by się wydostał na zewnątrz, albo jeszcze parę innych rzeczy, które brzmią bardzo wiarygodnie.

Amodei, czyli prezes firmy Antropic opowiada o świadomej AI.

Na dziś dzień Antropic, o którym wspominasz, czy OpenAI przepala miliardy rocznie.

I okazuje się, że tą różnicę pomiędzy na przykład Sonetem, model Sonet z firmy Antropic w wersji zwykłej i reasoningowej, ta reasoningowa w GPQA ma tam około 10% lepszy wynik,

Firma Antropic w listopadzie zeszłego roku na swoim blogu miała artykuł na temat statystycznego testowania modeli językowych.