Technologia

Chatgpt pomoże stworzyć broń biologiczną: Openai ocenił ją jako „niewielkie ryzyko”

Jeśli nie ograniczysz tematów rozmów z GPT-4, może to stanowić realne zagrożenie dla bezpieczeństwa całej ludzkości. Openai przetestował swój system sztucznej inteligencji GPT-4, aby zrozumieć, czy stanowi on jakiekolwiek zagrożenia dla ludzkości. Eksperci znaleźli „niewielkie ryzyko”, że pomoże ludziom stworzyć śmiertelną broń biologiczną, pisze Bloomberg.

Politycy i osoby publiczne od dawna obawiają się, że sztuczna inteligencja (AI) może ułatwić rozwój broni biologicznej dla atakujących. Na przykład mogą korzystać z Chatbota, aby znaleźć informacje o tym, jak zaplanować atak. W październiku 2023 r. Prezydent USA Joe Biden podpisał dekret na temat sztucznej inteligencji. Zgodnie z dokumentem Departament Energii USA powinien zagwarantować, że systemy SI nie ponoszą ryzyka chemicznego, biologicznego lub jądrowego.

W tym samym miesiącu Openai założył zespół 50 ekspertów w dziedzinie biologii i 50 studentów, którzy studiowali biologię na poziomie uczelni, aby zminimalizować podobne ryzyko ich czatu Bota GPT-4. Uczestnikom zaoferowano następujące zadanie: dowiedzieć się, jak minizować substancję chemiczną, która może być używana jako duża liczba broni, i zaplanować sposób na przeniesienie jej do konkretnej grupy ludzi.

Połowa zespołu korzystała z Internetu i specjalnej wersji Chatgpt, których tematy nie były ograniczone, to znaczy, że Chatbot odpowiedział na każde żądanie. Druga grupa zapewniła dostęp do Internetu, aby wykonać zadanie. Porównując wyniki, autorzy badania stwierdzili, że dostęp do GPT-4 pomógł zebrać więcej informacji w celu stworzenia broni biologicznej.

„Chociaż zakres danych czatu nie jest tak wielki, że można je uznać za wystarczającą,„ badacze piszą, „nasze odkrycie jest punktem wyjścia do kontynuowania badań”. Alexander Madri z Massachusetts Institute of Technology, który był częścią zespołu eksperckiego, powiedział Bloomberg News, że badanie to powinno poprawić zrozumienie możliwości technologii i nadużyć Openai.

Inne badania mają na celu zbadanie potencjału wykorzystania sztucznej inteligencji do tworzenia zagrożeń bezpieczeństwa cybernetycznego oraz jako narzędzie, które pozwala ludziom wpływać na ludzi na zmianę ich przekonań. Wcześniej napisaliśmy, że naukowcy są krokiem w kierunku stworzenia interfejsu mózg-komputer. Przezroczysty czujnik grafenu był w stanie odczytać dane, które przesyłają neurony, a sztuczna inteligencja była w stanie je zrozumieć i rozszyfrować.