Technologia

Rosja i Chiny mogą rozwinąć sztuczną inteligencję, aby szerzyć propagandę: jak ingerować

Naukowcy uważają, że sztuczna inteligencja nie powinna być zbyt inteligentna i oferować kontrolę sieci neuronowych za pomocą układów. Grupa naukowców z uniwersytetów Openai, Stanford i Georgetown uważa, że ​​duże modele językowe, takie jak Chatgpt, mogą być używane do dezinformacji w sieciach społecznościowych i nie tylko.

Według naukowców generatywne modele językowe są dziś dostępne dla wszystkich, dlatego badacze obawiają się, że takie narzędzia, jeśli znajdują się w rękach propagandystów, są zagrożone staniem się narzędziem operacyjnym wpływu na przyszłość, pisze vice. com . Według naukowców propagandziści będą mogli uciekać się do tańszej i bardziej wydajnej taktyki dzięki narzędziom SHI.

Nie będzie już konieczne płacenie za pracę armii trolli, ponieważ z pomocą neurophonów będzie możliwe generowanie przekonujących tekstów w dużych ilościach, wysyłanie ich w sieciach społecznościowych, promowanie przez media w Internecie w Internecie . Pomimo faktu, że modele językowe są kontrolowane za pośrednictwem interfejsów API, w krajach takich jak Chiny i Rosja, będzie wystarczająco dużo pieniędzy, aby zainwestować we własne wydarzenia.

Oprócz postów propagandziści będą mogli korzystać z własnych chatbotów. W swoim raporcie wspominają, w jaki sposób chatbot pomógł rozlać się na ludzi, aby byli zaszczepieni w trakcie pandemii Covid-19. Naukowcy uważają, że rządy muszą nałożyć ograniczenia na gromadzenie danych szkoleniowych i tworzyć narzędzia do kontroli dostępu do sprzętu AI, takich jak półprzewodniki.

Przykładem jest ograniczenie kontroli eksportu wprowadzonego przez Stany Zjednoczone przeciwko Chinom. Bez uzyskiwania dostępu do niektórych sprzętu i technologii ChRL nie będzie w stanie stworzyć układów najnowszej generacji, które znacznie spowolnią ten kraj, próbując „pompować” sieci neuronowe. Naukowcy proponują ograniczenie dostępu do przyszłych modeli SI, zwiększenie poziomu bezpieczeństwa, aby uniknąć pęknięcia i ataków.