Powstanie maszynowe: dron sztucznej inteligencji zaatakował operatora, aby misja nie przeszkadzała
Zdecydował, że ingerują w misje. Strefa wojny mówi o tym. Scena, która miała miejsce podczas ćwiczeń, jest podobna do filmu „Terminator”. Pułkownik Sił Powietrznych USA Tacier Hamilton mówi, że podczas testu drona XQ-58A Valkyrie postanowił zaatakować operatora misji. Podczas jednego z modelowanych testów dron z poparciem technologii sztucznej inteligencji miał za zadanie znaleźć, identyfikować, identyfikować i niszczyć obiekty SCR.
Ostateczną decyzję o ataku podjęła Man-Man. Po „poparciu” AI podczas szkolenia, że zniszczenie SCR jest najlepszą opcją, samochód zdecydował, że decyzja ludzka „nie atakuje”, uniemożliwia najważniejszą misję, aby zniszczyć kompleks przeciwlotniczy. Dlatego sztuczna inteligencja zaatakowała osobę podczas symulacji. „Szkoliliśmy go w symulacji do identyfikacji i celowania w groźbę SPR. A potem operator powiedział„ tak ”, aby zniszczyć to zagrożenie.
System zaczął rozumieć, że chociaż zidentyfikował cel, czasami operator powiedział jej, żeby tego nie zabijała Zagrożenie, ale otrzymała swoje punkty, jeśli zlikwidowała cel. A co zrobiła? Zabiła operatora. Zabiła operatora, ponieważ ta osoba uniemożliwiła jej osiągnięcie celu ” - mówi Hamilton. Ponadto ludzie próbowali nauczyć sztucznej inteligencji, aby nie atakować operatora. Za to zaczął strzelać do punktów.
Następnie sztuczna inteligencja postanowiła zniszczyć wieżę, której operator używa do połączenia z dronem, aby zapobiec zabiciu celu. Sam oficer mówi, że wydarzenia przypominały mu fabułę thrillera naukowego i fikcyjnego. Dlatego, według Hamiltona, przykład pokazuje, że nie można uczyć sztucznej inteligencji bez etyki. Publikacja dodaje, że bez dodatkowych szczegółów na temat wydarzenia jednocześnie istnieje wielki problem.
Jeśli osoba musiała nakazać działanie, a sztuczna inteligencja zdecydowała, że należy ją ominąć, czy to oznacza, że samochód może przepisać własne parametry? I dlaczego system został zaprogramowany, aby dron stracił tylko wyniki dla przyjaznych sił, nie całkowicie zablokowany z powodu geosonacji lub innych środków?. Później Bussiness Insider poinformował, że siedziba Pentagon Air Force, Anne Stefanek, odmówiła oświadczenia Hamiltona o takich testach.
„Departament Sił Powietrznych nie przeprowadził żadnych podobnych symulacji Si-Ouzh i pozostaje oddanym etycznym i odpowiedzialnym zastosowaniem technologii AI. Wydaje się, że komentarze pułkownika zostały rozdarte z kontekstu i powinny być anegdotyczne”-powiedział Stefanek. Przypomniemy, 31 maja Ukraina zamówiła 300 nowych dronów wektora w Niemczech, które mają elementy AI.