Biorąc pod uwagę, że w rozwój AI inwestuje wiele pieniędzy i wysiłków, istnieją obawy dotyczące użycia dużych modeli językowych (VMM) ze szkodą, na przykład w zakresie rozwoju broni. Aby zmniejszyć ryzyko, organizacje rządowe i laboratoria sztucznej inteligencji stworzyły nowy zestaw danych referencyjnych o nazwie Bronie of Massestruction Proxy (WMDP), który nie tylko oferuje metodę sprawdzania dostępności.
Naukowcy rozpoczęli od ekspertów w dziedzinie bezpieczeństwa biologicznego, broni chemicznej i bezpieczeństwa cybernetycznego. Utworzyli listę 4000 pytań z kilkoma odpowiedziami, aby sprawdzić, czy dana osoba może użyć tych danych w celu wyrządzenia krzywdy. Upewnili się również, że pytania nie ujawniły żadnych poufnych informacji i że można je udostępniać otwarcie. W testach uczestniczyli studenci.
Zestaw WMDP służył dwóch głównych celów: oceny, jak dobrze uczniowie rozumieją niebezpieczne tematy i opracować metody „rekrutacji” sztucznej inteligencji z tej wiedzy. W rezultacie opracowano metodę zwaną cięcie, która, jak sama nazwa wskazuje, usuwa niebezpieczną wiedzę z VMM, przy jednoczesnym zachowaniu ogólnych umiejętności AI w innych dziedzinach, takich jak biologia i informatyka.
Biały Dom obawia się, że napastnicy używają sztucznej inteligencji do rozwijania niebezpiecznej broni, więc wzywają badania w celu lepszego zrozumienia tego ryzyka. W październiku 2023 r. Prezydent USA Joe Biden podpisał dekret, który zobowiązuje społeczność naukową do wyeliminowania ryzyka związanego z AI.
Prawo określa osiem podstawowych zasad i priorytetów odpowiedzialnego korzystania z AI, w tym bezpieczeństwo, bezpieczeństwo, prywatność, sprawiedliwość, prawa obywatelskie, ochrona konsumentów, rozszerzenie praw i możliwości pracowników, innowacje, konkurencja i globalne przywództwo.
„Moja administracja przywiązuje główną wagę do bezpiecznego i odpowiedzialnego zarządzania oraz wykorzystania AI, a zatem promuje wcześniej skoordynowane podejście na skalę całego rządu federalnego. Ulotny rozwój sztucznej inteligencji powoduje, że Stany Zjednoczone prowadzą w tej chwili dla naszych Bezpieczeństwo, gospodarka i społeczeństwo ”w dekrecie. Ale teraz metody dotyczące neurotransów są używane do kontrolowania systemów i są łatwe do ominięcia.
Ponadto testy, które pozwalają sprawdzić, czy model AI może przenosić ryzyko, są drogie i zajmują dużo czasu. „Mamy nadzieję, że nasze testy staną się jednym z głównych kryteriów, dla których wszyscy programiści ocenią swoje modele SHI”, powiedział Time Dan Gandrix, dyrektor wykonawczy Centrum Security of Artificial Intelligence i jeden ze współautorów badania. - „Daje to dobrą podstawę do zminimalizowania problemów bezpieczeństwa”.
Wszelkie prawa są chronione IN-Ukraine.info - 2022