Didzhital” na Facebooku według Erica Schmidta, w najbliższej przyszłości z powodu problemów z Chinami i bezpieczeństwem USA będą musiały zakończyć porozumienie w sprawie ograniczenia w dziedzinie sztucznej inteligencji, tak jak wcześniej Zazwyczaj test bomb nuklearnych i podpisał inne ważne umowy w tym obszarze. W latach 60. kraje stworzyły świat, który uniemożliwił „zaskoczenie” i osiągnęły równowagę zaufania.
Teraz nikt nie pracuje nad takimi ograniczeniami dla sztucznej inteligencji, chociaż jest „równie potężny”. „Jestem bardzo zaniepokojony, że postawa USA do Chin jako skorumpowanego, komunistycznego lub innego kraju oraz chińskiego podejścia do Ameryki jako porażki pozwoli ludziom powiedzieć:„ Mój Boże, myślą coś ”, a następnie wystrzeliwują coś w rodzaju puzzli.
Zaczynając robić coś dla broni lub przygotowania, powoduje troskę o drugą stronę ” - powiedział Eric Schmidt. Według Schmidta nie był w pełni świadomy siły informacji, gdy Google się kierował. Teraz widzi potencjalną szkodę technologii, więc wzywa ich do stworzenia ich, biorąc pod uwagę normy etyczne i wartości moralne ludzkości. Hiroshima i Nagasaki to dwa japońskie miasta, które Stany Zjednoczone zniszczyły pod koniec II wojny światowej, upuszczając bomby nuklearne.
Ten atak pochłonął życie dziesiątek tysięcy ludzi i pokazał, jak potężna i przerażająca jest broń nuklearna. Następnie ZSRR i Chiny opanowały również technologię, a ludzkość żyje zagrożone wzajemnym zniszczeniem. Teoria powstrzymania oznacza, że jeśli jeden kraj uruchomi głowice nuklearne, wówczas odpowiesz na nich tak samo i nastąpi globalna katastrofa.
Vice zauważa, że sztuczna inteligencja i uczenie maszynowe są uderzającymi technologiami, które często rozumieją zło. W przeważającej części maszyny nie są tak inteligentne, jak ludzie myślą, ale są w stanie tworzyć arcydzieła sztuki, wygrywać gry wideo lub komunikować się z klientami przez telefon. Niektórzy programiści starają się zmusić sztuczną inteligencję do prowadzenia samochodu w dużych miastach bez uczestnictwa człowieka, ale nadal są przypadki.
Inni zasugerowali, że masz kontrolę nad bronią nuklearną, wierząc, że nie popełni błędów i nie pomoże uniknąć katastrofy. „AI jest dalekie od tak destrukcyjnej, jak broń nuklearna. Ale ludzie, którzy są u władzy, boją się tej nowej technologii i z reguły z całkowicie błędnych powodów” - mówią analitycy. Wyjaśniają, że głównym problemem sztucznej inteligencji nie jest potencjał, który można porównać do broni nuklearnej, ale wady programistów.
Algorytmy maszynowe są dobre, jak ludzie, których tworzą. Na przykład rasiści, świadomie lub nie, przekazują swoje poglądy na chatbotach, które następnie pozwalają rasistowskiemu wypowiedzi. DEEPMIND DEPMIND CEO HASABIS, który stworzył sztuczną inteligencję, zdolną do wygrania ludzi w grze komputerowej Starcraft II: „AI, to bardzo duża rzecz, która tworzy SI, z których kultury pochodzą i jakie wartości w nich, twórcy o systemach AI.
Wszelkie prawa są chronione IN-Ukraine.info - 2022