Inny

Prace idź do wojny: dlaczego ich użycie we współczesnej wojnie staje się nieuniknione

Walka z humanoidami z konieczności pojawią się we współczesnej wojnie, mówi ekspert ds. Finansów i technologii Pavel Dukach. Ludzkość nie powstrzymuje się od testowania tego scenariusza tak popularnego w kulturze - ale co będzie konsekwencjami, zależy od wielu czynników . . . możliwości konfliktu związanego z powszechnym wprowadzeniem robotów humanoidalnych, eksperci omawiają w zakresie prowadzenia dyskusji na temat ryzyka.

Wszyscy zgadzają się, że „wojna przez roboty” jest szybszym scenariuszem niż rezultat gwarantowany. Wymadzamy pomocy logiki, zrozumienia obecnych trendów, przykładów historycznych - i spróbujemy przede wszystkim zajrzeć do blokady pudełka Pandora, musimy sformułować podstawowe stwierdzenie - konflikty i wojny, jako ekstremalna forma, a nie dlatego, że istnieją bardziej zaawansowane środki techniczne.

Wojny zaczynają się od ludzkich decyzji, ambicji politycznych, interesów gospodarczych lub różnic ideologicznych. Posiadanie technologii ożywia zadymione obrazy i inspiruje zaufanie do zwycięskiego wyniku. Zdolność do skalowania produkcji broni, która wyprzedza sposób pokonania konkurentów, staje się katalizatorem konfliktu. Ludzkość wymyśliła międzynarodowe prawo i organizacje z żałosnymi skrótami, które musiały zapewnić jej postulaty.

Coś udało się powstrzymać, coś nie. Praca będzie taka sama. Oto kilka ryzyka, które moim zdaniem może prowadzić do prawdziwej kolizji fizycznej. Jeśli jeden kraj (taki jak Chiny lub USA) ma wyraźną przewagę w masowej produkcji i kontroli kluczowych technologii, może zaostrzyć globalną konkurencję, podobnie jak zaostrzenie walki o półprzewodniki.

Zadaj sobie pytanie, kto zainicjował w takiej wojnie - leżący przywódca? Mój zakład, który jest w tyle, który próbuje postawić konkurent, który wchodzi w separację. Zastąp nazwę kraju dla siebie. Masowa automatyzacja może prowadzić do wzrostu bezrobocia wśród niewykwalifikowanych pracowników, co w niektórych krajach mogą powodować protesty, radykalizację i konflikty wewnętrzne.

Widzieliśmy historyczny przykład, kiedy zniszczyliśmy maszyny i fabryki, biorąc pod uwagę ich przyczynę nędzy. Roboty mogą (i) wdrażać więcej niż jedną kampanię objęty ochroną religijną/etyczną/ekonomiczną. Ale postęp nie kończy się. Praca humanoidalna, jak każde zaawansowane technologie, będą koniecznie wykorzystywane do celów wojskowych. Widzimy już, w jaki sposób drony i systemy autonomiczne są wykorzystywane w operacjach wojskowych na Wschodzie i na Ukrainie.

Pomysł, że ludzie przestaną umrzeć w wojnach, ponieważ zostaną zastąpione pracą, jest tak powszechny w społeczeństwach, że ludzkość po prostu nie zatrzymuje się, dopóki nie przetestuje tej teorii w praktyce. W rzeczywistości część działań wojennych (obrona powietrzna, REB, inteligencja kosmiczna) zostanie przekazana pracowi całkowicie z powodu braku czysto ludzkich „defektów” - potrzeby snu, zmęczenia, nieuwagi itp.

Wojny często powstają nie tylko poprzez technologie, ale także poprzez ludzkie ambicje, ideologie lub walkę o zasoby. Sama praca humanoidalna nie „chce” wojen, ale ich użycie może zwiększyć istniejące napięcia, jeśli są postrzegane jako narzędzie do zagrożenia lub tłumienia.

Można założyć, że w przypadku sztucznej inteligencji i robotów naprawdę możliwe jest stworzenie systemu globalnych transakcji podobnych do tych, które regulują broń nuklearną lub broń chemiczną. Ale ONZ został również stworzony, aby zapobiec wojenom. Nowe technologie niezmiennie wykorzystały do ​​tłumienia i budowy starych kont. Dlatego uważam, że żadne słowa nie powstrzymają ludzi przed użyciem wojskowej sztucznej inteligencji i robotów.

Jeśli roboty już działają w zniszczonych miastach na wschód od Ukrainy, a grupy dronów są używane w powietrzu, które są w stanie rozróżnić cele, dlaczego te technologie będą ograniczone przez niektóre ustalenia? Innymi słowy, praca humanoidalna nie jest powodem, ale środkiem w wojnach, które ludzie zaczynają, autor wyraża osobistą opinię, która może nie pokryć się z pozycją redakcyjną. Autor jest odpowiedzialny za opublikowane dane w sekcji „Thought”.