USD
41.25 UAH ▼0.31%
EUR
45.71 UAH ▼0.72%
GBP
54.93 UAH ▼0.69%
PLN
10.67 UAH ▼1.17%
CZK
1.81 UAH ▼1.19%
Złośliwe oprogramowanie stworzone przez sztuczną inteligencję pozwoli ci przepro...

Państwa zaawansowane są w stanie stworzyć cyberkcjonalną, która pominie każdą ochronę: co groźnie

Złośliwe oprogramowanie stworzone przez sztuczną inteligencję pozwoli ci przeprowadzić szybką i niezauważalną kapustę, wpływającą na komputery i inne ofiary. Poprzez szkolenie sztucznej inteligencji w dużych bazach danych, zaawansowane technologicznie państwa mogą już stworzyć obrony cyberbezpieczeństwa. Jest to ostrzegane przez Narodowe Centrum Bezpieczeństwa Cyberbezpieczeństwa Wielkiej Brytanii (NCSC).

Aby stworzyć tak potężne oprogramowanie, podmioty zagrożeń muszą uczyć modelu AI przy użyciu baz danych wyrażeń o wysokiej jakości - szkodliwe programy komputerowe, fragmenty kodów lub polecenia poleceń wykorzystujących podatność systemów. Powstały system utworzy nowy kod, który pominie bieżące środki bezpieczeństwa.

„Istnieje realistyczne prawdopodobieństwo, że państwa wysokie -techowe mają szkodliwe programy, które są wystarczająco duże, aby uczyć w tym celu modelu sztucznej inteligencji” -ostrzegł NCSC. To ostrzeżenie było tylko częścią serii sygnałów alarmowych, o których wspomniał NCSC w swoim raporcie.

Agencja oczekuje, że sztuczna inteligencja zaostrzy globalne zagrożenie wojowników, poprawi przeszukanie i śledzenie ofiar oraz zmniejszy barierę w penetracji cyberprzestępców. Generatywna sztuczna inteligencja zaostrza również zagrożenia w dziedzinie inżynierii społecznej, takie jak przekonujące interakcje z ofiarami i tworzenie uwodzicielskich dokumentów. AIS komplikuje wykrywanie phishing, wyczerpania i złośliwych żądań przez resetowanie poczty e -mail lub hasła.

Z tego powodu stany narodu otrzymają najpotężniejszą broń. „Bardzo zdolne podmioty państwowe prawie na pewno mają największy potencjał jako źródło cyberprzestępstw, aby wykorzystać potencjał sztucznej inteligencji w rozszerzonym zakresie cyberprzestrzeni”. Jednak w najbliższej przyszłości oczekuje się, że sztuczna inteligencja zaostrzy dostępne zagrożenia, a nie wywołują jakościowo nowych ryzyka.

Eksperci są szczególnie zaniepokojeni, że zaostrzy to globalne zagrożenie wojowników. „Wojowników nadal grozi bezpieczeństwem narodowym” - mówi James Babbage, dyrektor generalny agencji. Naukowcy twierdzą, że bardziej zaawansowane opcje ataku zostaną wdrożone do 2025 r. , Ale po ulepszeniu systemu sztucznej inteligencji. Rozpocznie się to udana kradzież danych, coraz bardziej dokładna kapusta.

<p> Lekarz zapewnia pomoc podczas ostrzału. Batalion Stugna </p>...
Ponad miesiąc temu
Ukraiński lekarz zapewnia wojsko podczas ostrzeżenia
By Simon Wilson