SHI nie dostanie kodów broni nuklearnej, ale nie jest to pewne
Departament Stanu USA opracował deklarację polityczną na temat odpowiedzialnego wojskowego użycia sztucznej inteligencji, wzywając wszystkie państwa nuklearne, aby nie wprowadzali AI w tak niebezpiecznej sferze, która może prowadzić do śmierci całej ludzkości. Tylko ludzie powinni podjąć ostateczną decyzję o użyciu YAO, w przeciwnym razie scenariusz filmu „Terminator” może być rzeczywistością.
Jednak według redaktora redaktora naczelnego dokumentu ten nie jest w żaden sposób nie powiązany przez Stany Zjednoczone, ani żadne inne kraje nuklearne. Według niego należy rozwinąć duży traktat między takimi krajami, który wyraźnie określi standardy użytkowania AI w rozwoju broni, a wprowadzenie sztucznej inteligencji w kuli nuklearnej i języku nie może być, mówi ekspert.
Jednak Will Knight, jako ekspert sztucznej inteligencji, słusznie stwierdza, że neuralnie jest bardzo przydatny tam, gdzie brakuje nawet specjalisty. Na przykład jest mało prawdopodobne, aby bojownicy obrony powietrznej byli w stanie samodzielnie obsłużyć cały rój dronów, natychmiast przełączając się z celu na cel, ale to może.
Organizacje praw człowieka, takie jak Międzynarodowy Czerwony Krzyż i Stop Killer Robots, nalegają nie tylko na ograniczenie użycia AI w broni nuklearnej, ale także ogólnie, aby zabronić jej użycia w każdej broni. Działacze na rzecz praw człowieka uważają, że znacznie więcej osób umrze z powodu broni autonomicznej niż zwykłych strzałów żołnierzy lub fałszywej rakiety.
Jednak kraje takie jak Stany Zjednoczone, Rosja, Izrael, Korea Południowa i Australia są w każdym możliwym sposobie blokowania prób praw człowieka, aby przejrzeć pomysł przez ONZ. Jednym z powodów jest to, że państwa te widzą szersze użycie sztucznej inteligencji w swoich programach wojskowych i już aktywnie używają takiej broni.
Ekspert uważa, że jeśli rozwój sztucznej inteligencji w kompleksie wojskowym i przemysłowym nie może zostać zakazany, bardzo ważne jest wspólne wykonanie jasnych instrukcji i wspólnych obowiązków w zakresie standardów wdrażania. Bez tego nikt nie może być pewien, że jutro jakiś kraj nie będzie ufał „walizce nuklearnej” sztucznej inteligencji.