USD
41.35 UAH ▲0.07%
EUR
46.15 UAH ▲0.76%
GBP
54.98 UAH ▲1.41%
PLN
10.79 UAH ▲1.08%
CZK
1.84 UAH ▲1.04%
Naukowcy opracowali metodę testowania modeli SHI pod kątem obecności „wiedzy”, k...

AI będzie w stanie stworzyć broń, która wyczyna ludzi z twarzy ziemi: jak jej zapobiec

Naukowcy opracowali metodę testowania modeli SHI pod kątem obecności „wiedzy”, która może być wykorzystana ze szkodą. Sztuczną inteligencję (AI), podobnie jak inne technologie, można stosować zarówno do dobrych, jak i dobrych celów. Naukowcy z Cornel University postanowili uzyskać sztuczną inteligencję ze szkodliwej „wiedzy”, aby nikt nie mógł jej użyć do stworzenia narzędzia masowego rażenia. Opublikowali wyniki badania na oficjalnej stronie.

Biorąc pod uwagę, że w rozwój AI inwestuje wiele pieniędzy i wysiłków, istnieją obawy dotyczące użycia dużych modeli językowych (VMM) ze szkodą, na przykład w zakresie rozwoju broni. Aby zmniejszyć ryzyko, organizacje rządowe i laboratoria sztucznej inteligencji stworzyły nowy zestaw danych referencyjnych o nazwie Bronie of Massestruction Proxy (WMDP), który nie tylko oferuje metodę sprawdzania dostępności.

Naukowcy rozpoczęli od ekspertów w dziedzinie bezpieczeństwa biologicznego, broni chemicznej i bezpieczeństwa cybernetycznego. Utworzyli listę 4000 pytań z kilkoma odpowiedziami, aby sprawdzić, czy dana osoba może użyć tych danych w celu wyrządzenia krzywdy. Upewnili się również, że pytania nie ujawniły żadnych poufnych informacji i że można je udostępniać otwarcie. W testach uczestniczyli studenci.

Zestaw WMDP służył dwóch głównych celów: oceny, jak dobrze uczniowie rozumieją niebezpieczne tematy i opracować metody „rekrutacji” sztucznej inteligencji z tej wiedzy. W rezultacie opracowano metodę zwaną cięcie, która, jak sama nazwa wskazuje, usuwa niebezpieczną wiedzę z VMM, przy jednoczesnym zachowaniu ogólnych umiejętności AI w innych dziedzinach, takich jak biologia i informatyka.

Biały Dom obawia się, że napastnicy używają sztucznej inteligencji do rozwijania niebezpiecznej broni, więc wzywają badania w celu lepszego zrozumienia tego ryzyka. W październiku 2023 r. Prezydent USA Joe Biden podpisał dekret, który zobowiązuje społeczność naukową do wyeliminowania ryzyka związanego z AI.

Prawo określa osiem podstawowych zasad i priorytetów odpowiedzialnego korzystania z AI, w tym bezpieczeństwo, bezpieczeństwo, prywatność, sprawiedliwość, prawa obywatelskie, ochrona konsumentów, rozszerzenie praw i możliwości pracowników, innowacje, konkurencja i globalne przywództwo.

„Moja administracja przywiązuje główną wagę do bezpiecznego i odpowiedzialnego zarządzania oraz wykorzystania AI, a zatem promuje wcześniej skoordynowane podejście na skalę całego rządu federalnego. Ulotny rozwój sztucznej inteligencji powoduje, że Stany Zjednoczone prowadzą w tej chwili dla naszych Bezpieczeństwo, gospodarka i społeczeństwo ”w dekrecie. Ale teraz metody dotyczące neurotransów są używane do kontrolowania systemów i są łatwe do ominięcia.

Ponadto testy, które pozwalają sprawdzić, czy model AI może przenosić ryzyko, są drogie i zajmują dużo czasu. „Mamy nadzieję, że nasze testy staną się jednym z głównych kryteriów, dla których wszyscy programiści ocenią swoje modele SHI”, powiedział Time Dan Gandrix, dyrektor wykonawczy Centrum Security of Artificial Intelligence i jeden ze współautorów badania. - „Daje to dobrą podstawę do zminimalizowania problemów bezpieczeństwa”.

<p> Lekarz zapewnia pomoc podczas ostrzału. Batalion Stugna </p>...
Ponad miesiąc temu
Ukraiński lekarz zapewnia wojsko podczas ostrzeżenia
By Simon Wilson