Mentionsy

MIT Sloan Management Review Polska
MIT Sloan Management Review Polska
11.09.2025 13:00

Podcast MIT SMRP. Prawdziwa rewolucja: sztuczne dane dla sztucznej inteligencji

Firmy od lat zmagają się z problemem niedoboru danych lub ich niskiej jakości. Jednocześnie rosną wymagania dotyczące ochrony prywatności oraz konieczność testowania rzadkich, trudnych do przewidzenia zjawisk. Odpowiedzią na te wyzwania stają się dane syntetyczne – sztucznie generowane zbiory, które wiernie odzwierciedlają statystyczne zależności w danych rzeczywistych, ale nie zawierają wrażliwych rekordów. Wysłuchaj podcastu MIT Sloan Management Review Polska, w którym Artur Skalski wyjaśnia m.in.: • Dlaczego dane syntetyczne mogą być kluczowym zasobem dla firm w erze cyfrowej? • Jak wspierają ochronę prywatności i ograniczają ryzyka prawne? • W jaki sposób umożliwiają testowanie rzadkich zjawisk, takich jak fraudy? • Czym są cyfrowe bliźniaki i jak dane syntetyczne pomagają w ich tworzeniu? Special Guest: Artur Skalski.

Szukaj w treści odcinka

Znaleziono 126 wyników dla "AC"

Zacznijmy sobie od takich podstaw może.

Tak, to zacznijmy od tego, że dane syntetyczne są danymi sztucznie wygenerowanymi na bazie danych rzeczywistych.

I co to oznacza?

Oznacza to tyle, że dane syntetyczne nie są odpowiedzią na złe zarządzanie danymi i nie są odpowiedzią na braki w jakości danych.

Ale jeżeli mówimy o danych syntetycznych w celu uczenia maszynowego, czy uczenia jakiejś bardziej zaawansowanej analityki, czy też testowania różnych aplikacji, no to dobrze jednak, żeby te dane jak najwierniej odzwierciedlały zależności i powiedzmy złożoności zjawisk, które są zawarte w danych rzeczywistych.

Co oznacza, że zanim zaczniemy syntetycznie czy statystycznie kopiować zbiory, mówię, że nie kopiować, ok, sztucznie generować dane, to powinniśmy jednak zapewnić, żeby jakość danych rzeczywistych była dobra, prawda?

Więc to ten wysiłek w kontekście zarządzania danymi i wysiłek w kontekście zapewnienia dobrej jakości danych pierwotnych, oryginalnych, no musi być jednak podjęty przez organizację, żeby móc z nich korzystać.

wyceniony w postaci kosztów zarządzania tymi danymi, wyceniony w postaci kosztów związanych z ryzykiem, związanym z wykorzystaniem tych danych i wyceniony w postaci potencjalnych przychodów z tego, że można te dane monetyzować, wykorzystywać, no to dane syntetyczne zdecydowanie w tych dwóch obszarach, czyli mitygacja ryzyk i podniesienie wartości zasobu, jakim są dane, są w stanie pomóc.

No dobrze, ale jeżeli jest firma w takiej sytuacji, w której nie ma jakościowych własnych danych, to czy może pozyskać z zewnątrz te dane syntetyczne do jakichś swoich działań i przewidywań na przykład?

To już jest raczej chyba, ja bym powiedział, że to jest kwestia znowuż pewnego rynku wymiany danych.

Ale być może będą podmioty, które będą generowały dane syntetyczne na bazie własnych obserwacji.

Czyli zazwyczaj jest tak, że mówimy sobie coś takiego, że chcemy ograniczać ryzyko związane z tym, że wykorzystujemy dane w organizacji do budowy jakichś systemów, aplikacji, procesów, które zawierają dane osobowe.

Być może będziemy potrzebowali te dane zanonimizować na przykład, ale jest potrzebny pewien wysiłek anonimizacji i też jest potem pytanie, co to są dane właściwie osobowe.

Bo zazwyczaj jest tak, że jakby można powiedzieć, że ogólnie postrzegamy dane osobowe jako imię, nazwisko, adres, jakiś numer identyfikacyjny, dowód, PESEL, cokolwiek jeszcze by tam mogło innego być.

Ale weźmy pod uwagę coś takiego, że w definicji danych osobowych z punktu widzenia legislacji to są nie tylko dane...

No i co to oznacza?

Oznacza to tyle, że w kontekście danych behawioralnych być może to jest większy jakiś zasób danych, które opowiadają o danej osobie w taki unikalny sposób, że powinniśmy traktować te dane jako dane osobowe.

W bankowości elektronicznej stosuje się, nie wiem czy już, czy trwają prace, ale trwają prace nad cyfrowym odciskiem palca, digital fingerprinting, prawda?

Działa to na tyle zasadzie, że my jako osoby okazuje się, że w taki sposób prowadzimy interakcję z aplikacją WW czy z aplikacją mobilną, że jest to dla nas unikalne.

Tworzy pewien wzorzec zachowania w świecie cyfrowym, który jest unikalny dla nas jako dla jednostki.

Chcielibyśmy wykorzystywać jak najwięcej danych medycznych pacjentów.

uczyć tą analitykę, która będzie nas wspierać w diagnozie i potem powiedzmy w rekomendacji jakiegoś przebiegu leczenia.

Więc teraz, jeśli chodzi o, wracając do tego tematu, to przede wszystkim, jeżeli mówimy o danych syntetycznych, to jesteśmy w stanie ograniczyć wszystkie te ryzyka związane z naruszeniem tej prywatności w danych.

Bo to, co dane syntetyczne robią, to one tak naprawdę kopiują pewne zależności statystyczne, których się uczą na zbiorach danych rzeczywistych i w tych danych syntetycznych nie ma danych realnych.

Czyli stosujemy dane syntetyczne wszędzie tam, gdzie moglibyśmy mieć pewne obawy, że niekoniecznie dobrze rozpoznajemy dane, albo nie mamy pewności, czy to są dane już, które podchodzą pod jakieś regulacje obostrzenia prawne, czy nie.

A z drugiej strony chcielibyśmy bardzo szeroko, w kontekście tego, że chcemy się rozwijać szybko, budować nowe aplikacje, systemy, potrzebujemy danych do testów w związku z tym, prawda?

Więc w ten sposób dane syntetyczne mają tutaj bardzo dużą zaletę, dlatego że przyspieszają, z jednej strony ograniczają właśnie to ryzyko, no i z drugiej strony spowodują, że jesteśmy w stanie bardzo szeroko wykorzystać w skali organizacji bez ponoszenia tego ryzyka.

Częściowo już żeśmy trochę tutaj poruszyli ten temat wartości danych, no bo jeżeli jesteśmy w stanie szybciej wytwarzać jakieś byty, systemy, aplikacje i nie mamy problemów z testowaniem, z danymi do testów, z procesem testowania, to jesteśmy szybciej w stanie je wdrażać.

Więc jesteśmy szybciej w stanie produkować aplikacje, które są po prostu dobre.

Więc ograniczamy koszty wytworzenia tej aplikacji przez to, że ona jest szybciej wdrożona, więc mamy te przychody, które z niej są ewentualnie generowane, pojawiają się szybciej.

W jakich przypadkach to się dzieje?

To jest w przypadkach, kiedy wiemy, że mamy jakiś świat rzeczywisty.

Na przykład weźmy sobie pod uwagę dla przykładu, powiedzmy, systemy, które mają wspomagać nas jako organizacje i klientów tej organizacji w wykrywaniu i przeciwdziałaniu różnym nadużyciom.

Gdybyśmy chcieli teraz w systemach antyfraudowych, gdziekolwiek by one nie działały, stworzyć, jakby jakiś postawić model, który miałby wykrywać zjawiska rzadkie, to może się zdarzyć, że bez danych statycznych te zjawiska zostaną po prostu pominięte.

statystycznych zmiennych tej ograniczonej próbki, tak żeby nie tworzyć jakiejś fikcji, ale jednak zmultiplikować te dane, w związku z czym jesteśmy w stanie tą próbkę tego zjawiska, którego rzadkiego powiększyć w taki sposób, że model zacznie ją wziąć pod uwagę i się nauczy tego zjawiska i będzie w stanie to zjawisko wykrywać.

Mówisz teraz o takich zjawiskach, które powiedzmy statystycznie rzadko mogą się wydarzyć i do tego wykorzystujemy dane syntetyczne, no ale w takim razie jak wykorzystać te dane syntetyczne do budowania tych scenariuszy, które niekoniecznie wydarzyły się w rzeczywistości, ale statystycznie mogłyby się pojawić?

Być może pewnym rozkładom statystycznym, które są zaobserwowane na danych prawdziwych, ale są też dane syntetyczne, które produkujemy na bazie, potrzebujemy jakiejś symulacji.

To zazwyczaj wykorzystuje się w cyfrowych bliźniakach, kiedy modelujemy jakiś ruch na skrzyżowaniach, czy próbujemy zasymulować, jak mógłby przebiec proces leczenia, albo jak mogłaby wyglądać fabryka, gdybyśmy dodali pewne urządzenia.

A czy możemy mówić o jakichś zagrożeniach wynikających z korzystania z danych syntetycznych?

To jest, wydaje mi się, zagrożenie, jakie istnieje i na które trzeba by pewnie zwracać uwagę, ale z drugiej strony jest to też zagrożenie, które w jakiś sposób jest możliwe do zmitygowania.

W samych też metodach generowania danych syntetycznych mamy też takie podejście do tego, żeby jednocześnie sprawdzać, czy to, co generujemy, odpowiada rzeczywistości.

Oczywiście dążymy do pewnej automatyzacji autonomii systemów inteligentnych,

A czy w tym momencie istnieją jakieś regulacje związane z korzystania z danych syntetycznych?

Czy to jest taki tak świeży obszar, że jeszcze żadne regulacje nie zdążyły powstać?

Nie słyszałem, natomiast to co słyszę to jest to, że dane syntetyczne są właśnie odpowiedzią na regulacje.

Czyli odpowiedzią w takim sensie, że jeżeli te regulacje, jest ich coraz więcej, są one coraz bardziej czasami może z pewnego punktu widzenia restrykcyjne, bo zabezpieczając powiedzmy prawa osób indywidualnych, no z drugiej strony troszeczkę jednak może, wydaje się być, że narzucają pewien kaganiec na tempo rozwoju, no to dane syntetyczne na pewno, o ile nie wiem, czy są regulowane, wydaje mi się, że nie, ale to...

Natomiast na pewno są odpowiedzią na to, żeby być z jednej strony, mieć pewność, że się nie naruszy pewnych regulacji, związanych chociażby z wykorzystaniem danych osobowych, a z drugiej strony mieć tą możliwość szybkiej innowacji.

Jeśli chodzi o analitykę, jeśli chodzi o jakieś systemy, aplikacje, tego typu rzeczy.

Tak, znaczy wydaje mi się, że jakby z tego co obserwuję, jak rozmawiamy z klientami, to zainteresowanie danymi syntetycznymi jest z dwóch powodów.

Przede wszystkim to są właśnie powody regulacyjne, czyli na przykład mamy jakieś dane, tak jak powiedziałem wcześniej, są to dane, co do których nie jesteśmy za bardzo pewni, na ile są to dane osobowe czy nie.

Albo chcielibyśmy w jakiś sposób szerzej, w ramach powiedzmy podejścia takiego do demokratyzacji danych, chcielibyśmy, żeby coraz więcej osób z tych danych korzystało, ale chcielibyśmy w jakiś sposób mieć to w jakiś sposób bezpieczne.

Z chmury niekoniecznie chcemy dane produkcyjne mieć w chmurze, ale by chcielibyśmy skorzystać na przykład z mocy obliczania tej chmury, z aplikacji, które działają w chmurze, które mogą pomóc nam te dane w jakiś sposób przeanalizować, czy też zbudować modele, no to wtedy robimy dane syntetyczne, te dane wysyłamy do chmury, nie ma żadnego...

Więc to jest z jednej strony, tak jak powiedziałem, takie podejście do tego, że nie jesteśmy pewni w kontekście regulacji, więc chcemy być bardziej bezpieczni, a z drugiej strony szybciej działać.

Jako organizacja teraz, jeżeli mamy dostęp do technologii, gdzie jesteśmy bardzo szybko w stanie budować modele analityczne, prawda?

w organizacji, no bo organizacje są zazwyczaj silosowe, więc tutaj te dane syntetyczne po prostu pomagają, że jesteśmy w stanie szybko stworzyć pewien zbiór syntetyczny, nie martwić się o to, czy tam powiedzmy właśnie o te kwestie powiedzmy związane z ryzykami i jesteśmy w stanie szybko wykorzystywać te dane do testów.

A czy możesz podzielić się jakąś historią albo najciekawszymi zastosowaniami danych syntetycznych klientów, z którymi miałeś do czynienia, albo osób, które korzystają z danych syntetycznych w firmach, co zrobili ciekawego, jakie testy może przeprowadzili, które były na przykład dla ciebie zaskoczeniem, że akurat do tego wykorzystano dane syntetyczne?

Tak, dane syntetyczne na razie to jest znowu taki obszar, w którym my właściwie zaczynamy dopiero realizować różne zadania po stronie klientów.

Natomiast ciekawym przykładem mogę się podzielić, który realizujemy z jedną z firm w Stanach Zjednoczonych.

No i to są dane syntetyczne, które wykorzystywane są przez fabrykę papieru, to jest Georgia Pacific, jeden z większych producentów papieru w Stanach.

i potrzebują w kontekście tego, żeby tą, powiedzmy, sieć produkcyjną rozwijać, żeby reagować na pewne zagrożenia, które się mogą, powiedzmy, wydarzyć, na przykład człowiek w nieodpowiednim miejscu albo człowiek, powiedzmy, zachowujący się niezgodnie ze standardami.

Ale wtedy w takiej fabryce mamy na przykład kamery, które obserwują pracowników.

Jeżeli dany pracownik jakoś zaczyna zachowywać się...

inaczej niż zazwyczaj, po prostu są wdrażane jakieś działania.

Tak, próbuje sprawdzić, powiedzmy, co się dzieje na linii produkcyjnej, coś mu się nie podoba, zaczyna na przykład przekładać ręce nad jakimiś urządzeniami, czego robić nie powinien.

No i możemy wygenerować sobie, tam jeszcze stosujemy, bo jak wygenerować powiedzmy dane syntetyczne, gdzie pracownik zachowuje się jakoś niewłaściwie, no to tam jeszcze wykorzystujemy Unreal Engine od Epic Games.

To jest w ogóle też ciekawe połączenie, że można silniki do gier komputerowych wykorzystywać do tego, żeby tworzyć syntetyczny obraz fabryki i potem uczyć system, jak się powinien zachowywać, kiedy coś się dzieje w tym systemie.

Ale dokładnie tak to działa, to znaczy z jednej strony my tworzymy dane syntetyczne właśnie w ten sposób, że mamy odzwierciedlony obraz fabryki tak jak ona jest, z tym jak się zachowują urządzenia, które w niej są i symulujemy zachowanie na przykład urządzeń, które chcemy dodać albo symulujemy zachowania ludzi pośród tych urządzeń, no i wykrywamy tego typu rzeczy, powiedzmy zachowania niepożądane i patrzymy jak się system zachowa dobrze.

No i faktycznie już system, który działa, który został nauczony na tych danych syntetycznych, no on będzie wiedział, że jeżeli w kamerze dostaje, zobacz, z kamery pracownik, nie wiem, podchodzi bez kasku, bez kamizelki na przykład jakiejś tam powiedzmy ochronnej, czy w jakiś sposób zaczyna prowadzić interakcje z urządzeniami, których nie powinien pracować przy działającej powiedzmy jakiejś taśmie produkcyjnej, no to wtedy system powinien w jakiś sposób zareagować.

Na przykład pracownik traci rękę, tak?

No ale to jestem ciekawa, czy w takim razie pojawiają się jakieś też bariery ze strony czy osób zarządzających firmami, czy pracowników, no bo wspomnieliśmy, że żeby te dane pozyskać i żeby odpowiednio też tą symulację stworzyć, no to potrzebujemy kamer, które obserwują na przykład ludzi i ich zachowania.

To znaczy, jakby kończąc ten przykład Georgia Pacific, tam nie ma bariery technologicznej, dlatego że kamery, które obserwują jakby hale produkcyjne, no już są.

ale też generujemy właśnie dane sztucznie ludzi, więc obraz z kamery my dostajemy, mamy dane historyczne, tylko jedyne co musimy zrobić, to właściwie ten obraz z kamery przesłać do systemu, który ma finalnie czuwać nad bezpieczeństwem samej fabryki i pracowników.

nie ma powiedzmy tej świadomości w organizacji, że my te dane musimy w jakiś sposób faktycznie traktować jako nasz zasób, tak, z którym wiążą się koszty, ryzyka i przychody, no to wtedy to może być jakaś taka bariera, która powoduje, że

że dane syntetyczne, bo barierą może być też powiedzmy jakieś kompetencje, tak, pozyskanie, chociaż to chyba jest akurat mała bariera, bo zawsze można je pozyskać z zewnątrz, tak, po prostu można mieć jakiś projekt, firmę konsultingową, która jakby w ten sposób jest w stanie organizację wesprzeć, czy też nawet przygotować jakiś biznes case, tak, po to też, żeby mieć jakieś powiedzmy argumentacje co do pewnych

Więc jeśli chodzi o barierę, to ja bym raczej powiedział, że to nie jest bariera technologiczna, tylko bardziej taka bariera, która wynika z nieprzyjęcia jeszcze pewnych strategii na poziomie organizacji związanych z zarządzaniem danymi.

Okej, ale czy w takim razie dane syntetyczne na ten moment są zarezerwowane tylko dla dużych graczy, czy mogą z nich też korzystać mniejsze firmy?

Czy też mali gracze mogą z nich skorzystać i ewentualnie, czy na przykład mogą powstać jakieś startupy, które bazując na tych danych syntetycznych mogą wnieść coś nowego, świeżego na nasz rynek?

To znaczy, bo to jest jeszcze pytanie, do czego my chcemy wykorzystać dane syntetyczne.

Co to znaczy mały gracz?

Mały gracz, który ma jakby mało danych, z jednej strony dla niego to wydaje mi się, że też może korzystać z metod analitycznych, które pozwalają wytworzyć dane syntetyczne.

Mali gracze, jeśli chodzi o startupy.

Jeżeli byłby rynek na modernizację danych syntetycznych na zewnątrz dużych organizacji i umożliwienie, żeby te dane były dostępne na rynku, na przykład w kontekście zakupu takich danych.

to tu nie ma właściwie przeszkód, żeby startupy nie mogły z tego korzystać i na bazie danych syntetycznych nie mogły rozwijać jakichś swoich innowacji, pomysłów.

Dlaczego mielibyśmy traktować to jako ryzyko?

Bo nawet jeżeli byśmy założyli, że robimy modele tylko i wyłącznie danych rzeczywistych, to i tak gro pracy z modelami analitycznymi to jest przygotowanie danych.

To jest jakby, i znowuż to jest, z jednej strony mamy pewne procesy jakości danych, które są gdzieś tam na początku, zanim w ogóle zaczniemy tworzyć tabele analityczne, zanim zaczniemy tworzyć zmienne do modeli analitycznych.

To znaczy, że są kompletne, dobrze opisane metadanymi, spójne, też wystandaryzowane.

I wtedy ja na takich zbiorach danych mogę tworzyć jakieś dane syntetyczne.

Tak czy inaczej, ja powinienem zadbać sobie, żeby w jakiś sposób to w modelowaniu uwzględnić.

To znaczy dlatego, że nie mamy obaw, że wykorzystujemy dane personalne.

Więc wydaje mi się, że jest to taki potencjał, który może też spowodować, że aplikacja sztucznej inteligencji w organizacjach będzie po prostu szybsza.

Jej zadaniem jest działanie trochę tak, jak my działamy, na źródłach danych, którymi my operujemy, czyli to jest obraz, dźwięk, tekst.

I na przykład weźmy asystentów, którzy mogliby nas wspierać powiedzmy w wykonywaniu naszej pracy.

Mamy przypadek medyczny, gdzie załóżmy, że chcemy zbudować asystenta, który będzie wspierał lekarza w diagnozie i w rekomendacji leczenia.

Ten asystent będzie operował na dwóch typach źródeł danych, czyli na obrazach, to będą na przykład zdjęcia rentgenowskie, jakieś USG, przez cokolwiek możemy człowieka przepuścić i cyfrowo poćwiartować i potem to zobrazować.

Więc to będą obrazy i będzie bazował też na tekstach, na przykład na tym, jak przebiegał proces choroby u tego pacjenta, jak przebiegały procesy choroby u pacjentów w podobnym wieku, o podobnej charakterystyce, co tym pacjentom, jakie leczenie zostało zarekomendowane, jakie były skutki tego leczenia.

Czyli on generalnie będzie bazował ten asystent z jednej strony na obrazie, z drugiej strony na tekstach.

To jest osoba, której powiedzmy mamy takie zależności, nie wiem, identyfikujemy powiedzmy po parametrach, nie wiem, takie jest ciśnienie krwi, taki jest skład chemiczny krwi, tego typu rzeczy.

No i możemy jakby te dane w jakiś sposób chociażby na przykład właśnie wykorzystać dane syntetyczne, dlatego że one będą miały te same jakby zależności statystyczne między sobą, więc on się dobrze nauczy, a z drugiej strony będą mitykowały to ryzyko ujawnienia pewnych informacji prywatnych do procesu uczenia, których na przykład nie chcielibyśmy.

Z drugiej strony też na przykład możemy w jakiś sposób rzadkie obrazy, na przykład rzeczy w obrazach, które są rzadkością, dogenerować próbki, wytwarzać te obrazy też syntetycznie po to, żeby nauczyć ten model, że na pewne rzeczy powinien zwracać uwagę, które są widoczne na przykład w obrazach.

No i taki asystent potem, o ile człowiek jest, może być fachowcem, ale zawsze zdarza się, że jest w jakiś sposób czasami omylny, zmęczony.

która działa podobnie jak my, to znaczy uczy się na obrazach, uczy się na tekstach, potrafi z nami w jakiś sposób wejść w taką interakcję, czyli zadajemy pytanie, ona nam odpowiada w takim samym języku jak my, a z drugiej strony i właśnie to jest taki obszar, gdzie te dane syntetyczne wykorzystujemy po to, żeby ją nauczyć i mieć pewność, że nie naruszamy prywatności danych.

obszar ubezpieczeń, gdzie i załóżmy, że chcemy zbudować w ramach powiedzmy takiego podejścia, że mobile first i wszystko chcemy właściwie załatwiać aplikacją mobilną, bo tak jest najwygodniej, dla użytkowników tak jest najwygodniej, w firmie też jest tak wygodniej, bo pewnie dużo rzeczy jest w stanie jakby zautomatyzować pewnego procesu i załóżmy, że chcemy zbudować takiego agenta, który będzie wykorzystywał tą analitykę kognitywną,

do tego, żeby jak maksymalnie zautomatyzować ocenę szkody i wypłatę odszkodowania na przykład z OC albo z AC, szkoda komunikacyjna.

Więc to już jest coś, mówimy, no będzie działało na obrazach, więc będzie tak jak człowiek te obrazy miała za zadanie zanalizować.

Z drugiej strony powinna jakby łączyć w sobie nie tylko ten obraz, ale pewien opis sytuacji.

To znaczy, że z obrazu nie zawsze wyjdzie nam pełna skala zniszczeń w samochodzie.

To znaczy samochód teoretycznie zderzak może wyglądać, ponieważ jest giętki, może być trochę lekko porysowany, ale wróci do swojego pierwotnego kształtu.

Ale na przykład powyginane belki w środku spowodują, że potem jak się okazuje, że przyjeżdżamy do warsztacie, powiedzmy, nie wiem, firma ubezpieczająca mówi nam, no to jak to jest tam jakieś tam rysy, to może trzeba będzie zderzak wymienić, pomalować, a tam dwa tysiące ci damy.

No i znowuż to są informacje, które pozyskujemy w pewien sposób, gdzie analityka kognitywna korzysta z tej naturalnego języka.

Więc to jest taki przykład, gdzie mamy połączenie tej analityki kognitywnej, działającej zarówno na tekście, powiedzmy, na obrazach, w celu zautomatyzowania jakiegoś procesu, która ta analityka może również być uczona na danych syntetycznych.

Nawet nie wiem, jaką liczbę tutaj podać, ale na pewno w tysiącach.

Kombinacja różnych zjawisk może być bardzo różna, tak?

Więc my możemy generalnie wykorzystać te dane syntetyczne, żeby wytworzyć szereg kombinacji, które nawet może mają bardzo małe prawdopodobieństwo do tego, żeby zaistniały.

ale przygotować takie dane i na podstawie tych danych zobaczyć, jak system zadziała.

I tutaj pytanie jest, jeżeli system w testach działa, powiedzmy na jakiejś hipotetycznej sytuacji, w jakimś scenariuszu, dokonuje pewnej decyzji albo podpowiada jakieś zadanie, które powinno być zrealizowane, to wtedy powinniśmy w jakiś sposób to ocenić, czy to jest dobre, czy nie.

No to tak czy inaczej raczej chyba przetestujemy wszystkie te mało prawdopodobne i możliwe i dla każdej z nich sprawdzimy, czy system działa dobrze, czy nie.

No bo inaczej trudno nam będzie, gdzieś musimy podać jakąś informację systemowi, czy on zadziałał dobrze, czy nie.

Nie będziemy się jakby skupiać na poszczególnych przypadkach pojedynczych.

A z drugiej strony być może w różnych przypadkach takich biznesowych będziemy jednak posługiwali się testami, że testujemy wszystko i na wszystko patrzymy, jaki jest wynik.

Wydaje mi się, że tak, że jest w stanach syntetycznych jest duży potencjał, bo jakby trudno to mówić o przewidywaniu, ale gdybyśmy chcieli jakby takie przeprowadzić trochę bardziej racjonalne wnioskowanie, znowuż może będę powtarzał po raz kolejny to, co już powiedziałem, ale wracając do ryzyk kosztów i zysków.

Jeżeli mam możliwość zdobyć przewagę konkurencyjną dzięki temu, że coś wypuszczam szybciej, bo mam lepszy dostęp do danych, do testów, to dlaczego miałbym tego nie zrobić?

Wydaje mi się, że to jest jakby naturalna rzecz, że w coraz większej ilości organizacji ten potencjał danych syntetycznych będzie dostrzegany i będą po prostu wykorzystywane.

Dlaczego by nie?

Właściwie można powiedzieć, że i tak właściwie można powiedzieć w całej tej transformacji cyfrowej, która jest wysiłkiem dla organizacji, pewnym kosztem też również wewnętrznym, no nie?

Więc jak najbardziej, wydaje mi się, nie chcę mówić, że przewiduję, ale jakby tak patrząc racjonalnie, powinno to być coś, moim zdaniem, co będzie pomagało organizacjom i będzie szeroko wykorzystywane.