Izraelska armia używa sztucznej inteligencji do wyboru celów: Jak jest tajemniczy system fabryki pożarów
Chociaż wojsko nie komentuje konkretnych operacji, urzędnicy twierdzą, że teraz używają systemu rekomendacji SI, który może przetwarzać ogromne ilości danych w celu wybrania celów dla strajków lotniczych.
Wszystkie naloty i ciosy są prognozowane dla analitycznych z systemu Fire Factory, który wykorzystuje dane dotyczące celów wojskowych zatwierdzonych do obliczenia liczby amunicji, priorytetów priorytetów i wskazania tysięcy celów przez samoloty i dronów oraz oferuje odpowiedni optymalny udar. Wszystko to wynika z faktu, że system opiera się na sztucznej inteligencji i progresywnych algorytmach obliczeń.
Szczegóły wojska oczywiście nie ujawniają, ale mówią, że Fire Factory, specjalnie zaprojektowana dla szybkiej i dokładnej analizy przetwarzania ogromnych tablic danych UP -Data i archiwalnych „To, co zajęło godzinę wcześniej, teraz zajmuje minuty , z kilkoma minutami, aby sprawdzić osobę ”, powiedział pułkownik Uri, który kieruje jednostką armii cyfrowej transformacji czołgu.
„Dzięki rozwojowi neurotrans z taką samą liczbą ludzi robimy znacznie więcej niż wcześniej” - podkreśliło wojsko. Izraelska armia obrony od dawna używa sztucznej inteligencji, ale w ostatnich latach rozpowszechniła te systemy na różne jednostki. Niektóre z tych systemów zostały zbudowane przez izraelskich wykonawców obrony; Inne, takie jak kamery kontroli granicy StarTrack, same rozwinęły wojsko.
Ten system łączy funkcję nadzoru wideo z szybką identyfikacją osób i przedmiotów, które zostały zidentyfikowane. Razem system jest dużą architekturą cyfrową zaprojektowaną do analizy ogromnej liczby filmów z dronów i kamer nadzoru wideo, a także obrazów satelitarnych. Tahal odmawia zgłoszenia wszelkich szczegółów technologii rozpoznawania twarzy stosowanej w StarTrack.
System ten jest aktywnie krytykowany przez działaczy na rzecz praw człowieka, ale izraelski wojskowy obiecuje, że nie zintegrują sztucznej inteligencji z oprogramowaniem do zatrudniania personelu wojskowego ze względu na ryzyko dyskryminacji kobiet i potencjalnych kadetów z niższych grup społeczno-ekonomicznych.
Najważniejszym czynnikiem, który dotyczy obrońców praw człowieka, jest ryzyko ofiar wśród cywilów, które mogą pojawić się z powodu niewłaściwych rozwiązań narzędzi sztucznej inteligencji. Izraelskie wojsko jest uzasadnione faktem, że sieci neuronowe są bardzo dokładnym narzędziem, a algorytmy analityczne mogą przekraczać ludzkie możliwości i mogą pomóc wojskowi zminimalizować straty.
Ale niektórzy analitycy nie pasują do tej odpowiedzi, zwracają uwagę na szybki i prawie niekontrolowany fakt rozwoju i wykorzystania systemów opartych na sztucznej inteligencji. Ponadto, według niektórych ekspertów prawników, dziś granica między systemami półautonomicznymi i całkowicie autonomicznymi jest tak niewyraźna, że często niemożliwe jest zrozumienie, kto ostatecznie podejmuje decyzję wojskową: osoba lub samochód.
„Jeśli w obliczeniach CI występuje błąd, to kogo obwiniamy za ten błąd?” - pyta Tal Mimran, nauczyciel prawa międzynarodowego na Uniwersytecie Jewish w Jerozolimie i byłego doradcy prawnego armii. „Możesz zniszczyć niewinną rodzinę lub połowę miasta z powodu błędu sieci neuronowej lub niewłaściwej analizy i kto będzie winny?” - dodaje. Wcześniej Focus powiedział, że w przyszłych wojnach z robotami i SI mogą się rozpocząć.