USD
41.17 UAH ▼0.44%
EUR
45.95 UAH ▼0.42%
GBP
55.12 UAH ▲0.26%
PLN
10.75 UAH ▼0.37%
CZK
1.83 UAH ▼0.76%
Podczas operacji, Doppelhanger i Bad Grammar, Rosjanie próbowali pozbawić Ukrain...

„Can Ban się nagle”: Rosja użyła sztucznej inteligencji z Openai przeciwko Ukraine - ft

Podczas operacji, Doppelhanger i Bad Grammar, Rosjanie próbowali pozbawić Ukrainę partnerów wspierających, tworząc treść neurotromów. Struktury związane z Rosją, Chinami, Iranem i Izraelem wykorzystują narzędzia sztucznej inteligencji Openai, które stworzyły chatbot chatgpt do tworzenia i rozpowszechniania dezinformacji, w szczególności w sprawie wojny na Ukrainie. Financial Times pisze o tym.

Według firmy modele sztucznej inteligencji Openai do generowania tekstu i obrazów były używane w dużych tomach w pięciu operacjach ukrytych wpływów i do tworzenia komentarzy. Wspomniana treść dotyczyła wojny na Ukrainie, konflikt w sektorze Gazy, wybory w Indiach, a także polityki w Europie, USA i Chinach. AI została również wykorzystana do zwiększenia wydajności, w tym dostosowania kodu i sieci społecznościowych.

Według raportu Openai użyto narzędzi firmy, w szczególności w ramach Rosji „Dopplganger” mającego na celu podważenie wsparcia Ukrainy. Wspomniana jest również rosyjska operacja gramatyki. Według firmy atakujący używali modeli OpenAI, aby uruchomić kod, aby uruchomić Bot Telegram, a także do tworzenia krótkich komentarzy na tematy polityczne w języku rosyjskim i angielskim do dystrybucji w telegramie.

Ponadto, zgodnie z publikacją, narzędzia AI z Openai korzystały z chińskiej sieci spamflage, która promuje interesy za granicą. Chodzi o tworzenie tekstu i komentarzy na temat kilku do publikacji w sieci społecznościowej X. Również zgłaszanie zapobiegania izraelskiej kampanii, prawdopodobnie zorganizowanej przez Stoic, która wykorzystywała sztuczną inteligencję do tworzenia artykułów i komentarzy na Instagramie, Facebooku i X.

Openai Policy zabrania Polityki Zastosowanie swoich modeli do modeli dla modeli oszustwa lub wprowadzania w błąd innych. Firma powiedziała, że ​​pracuje nad wykrywaniem kampanii dezinformacyjnych, a także tworzą narzędzia oparte na sztucznej inteligencji, aby robić to bardziej wydajnie. Przedstawiciele Openai zapewniają, że już skomplikowali pracę atakujących, a ich modele wielokrotnie odmawiały wygenerowania żądanej treści.

Openai Ben Nimmo, główny badacz działu wywiadu i śledztwa, powiedział w rozmowie z dziennikarzami, że korzystanie z modeli Openai w kampaniach nieznacznie wzrosło. „Teraz nie jest czas na samoocenę. Historia pokazuje, że operacje wpływów, które od lat nie przyniosły wyników, mogą nagle migać, jeśli nikt ich nie szuka” -podkreślił Ben Nimmo.

Przypomnij sobie, że Openai przetestował swój system sztucznej inteligencji GPT-4, aby zrozumieć, czy stanowi on jakiekolwiek zagrożenia dla ludzkości. Eksperci znaleźli „niewielkie ryzyko”, że pomoże ludziom stworzyć śmiertelną broń biologiczną. Openai poinformował również, że Openai ogłosił współpracę z mediami Axela Springera.

<p> Lekarz zapewnia pomoc podczas ostrzału. Batalion Stugna </p>...
Ponad miesiąc temu
Ukraiński lekarz zapewnia wojsko podczas ostrzeżenia
By Simon Wilson