Państwa zaawansowane są w stanie stworzyć cyberkcjonalną, która pominie każdą ochronę: co groźnie
Aby stworzyć tak potężne oprogramowanie, podmioty zagrożeń muszą uczyć modelu AI przy użyciu baz danych wyrażeń o wysokiej jakości - szkodliwe programy komputerowe, fragmenty kodów lub polecenia poleceń wykorzystujących podatność systemów. Powstały system utworzy nowy kod, który pominie bieżące środki bezpieczeństwa.
„Istnieje realistyczne prawdopodobieństwo, że państwa wysokie -techowe mają szkodliwe programy, które są wystarczająco duże, aby uczyć w tym celu modelu sztucznej inteligencji” -ostrzegł NCSC. To ostrzeżenie było tylko częścią serii sygnałów alarmowych, o których wspomniał NCSC w swoim raporcie.
Agencja oczekuje, że sztuczna inteligencja zaostrzy globalne zagrożenie wojowników, poprawi przeszukanie i śledzenie ofiar oraz zmniejszy barierę w penetracji cyberprzestępców. Generatywna sztuczna inteligencja zaostrza również zagrożenia w dziedzinie inżynierii społecznej, takie jak przekonujące interakcje z ofiarami i tworzenie uwodzicielskich dokumentów. AIS komplikuje wykrywanie phishing, wyczerpania i złośliwych żądań przez resetowanie poczty e -mail lub hasła.
Z tego powodu stany narodu otrzymają najpotężniejszą broń. „Bardzo zdolne podmioty państwowe prawie na pewno mają największy potencjał jako źródło cyberprzestępstw, aby wykorzystać potencjał sztucznej inteligencji w rozszerzonym zakresie cyberprzestrzeni”. Jednak w najbliższej przyszłości oczekuje się, że sztuczna inteligencja zaostrzy dostępne zagrożenia, a nie wywołują jakościowo nowych ryzyka.
Eksperci są szczególnie zaniepokojeni, że zaostrzy to globalne zagrożenie wojowników. „Wojowników nadal grozi bezpieczeństwem narodowym” - mówi James Babbage, dyrektor generalny agencji. Naukowcy twierdzą, że bardziej zaawansowane opcje ataku zostaną wdrożone do 2025 r. , Ale po ulepszeniu systemu sztucznej inteligencji. Rozpocznie się to udana kradzież danych, coraz bardziej dokładna kapusta.