USD
41.64 UAH ▼0.46%
EUR
48.78 UAH ▲1.19%
GBP
57.2 UAH ▲1.29%
PLN
11.51 UAH ▲1.79%
CZK
1.97 UAH ▲1.47%
Rozpowszechnianie: Gdy Stany Zjednoczone wkraczają w nową erę rywalizacji wielki...

Ludzkość lub wydajność: na jakie duże modele językowe powinny polegać przez armię amerykańską

Rozpowszechnianie: Gdy Stany Zjednoczone wkraczają w nową erę rywalizacji wielkich potęg, szczególnie w przypadku ambitnych technologicznie Chin, pytanie, w jaki sposób i kiedy zaufać systemom AI, takich jak duże modele językowe, stają się nie tylko techniczne, ale jest strategiczne. Narzędzia te będą miały kluczowe znaczenie dla tego, jak Stany Zjednoczone dystrybuują zasoby i określa priorytet inwestycji obronnych.

Jest to podane w artykule interesu narodowego pod nazwą „Podczas oceny USA USA powinny polegać na wydajności, a nie na wyjaśnieniu”, które zostało przetłumaczone przez Focus. Stany Zjednoczone powinny nauczyć się oceny narzędzi AI, takich jak duże modele językowe, w ich wydajności, a nie zdolność do wyjaśnienia swoich decyzji. Zaufanie powinno opierać się na wynikach, a nie na nierealistycznych oczekiwaniach myślenia antropomorficznego.

Ponieważ Stany Zjednoczone wkracza w nową erę rywalizacji wielkich mocarstw, szczególnie w przypadku ambitnych technologicznie Chin, pytanie, w jaki sposób i kiedy zaufać systemom AI, takimi jak duże modele językowe (VMM), staje się nie tylko techniczne. To jest strategiczne. Narzędzia te będą miały kluczowe znaczenie dla tego, jak Stany Zjednoczone dystrybuują zasoby, określić priorytet inwestycji obronnych i zajmować stanowiska w Indo-Pacyfiku i poza nią. Nie ma inteligencji.

Są to rozpoznawcy obrazów przeszkolonych na ogromnych zakresach danych i mają na celu przewidywanie następnego słowa w kolejności. Podobnie jak trawnik szachowy, który wykonuje genialny, ale intuicyjny ruch, często nie może wyjaśnić, dlaczego generują jeden lub inny wynik. Jednak Ministerstwo Obrony za pośrednictwem organizacji takich jak General Directorate for Digital Technologies i AI, zdefiniowało jasność decyzji AI jako wymóg jej szybkiego wykorzystania.

Ta dobra intencja może prowadzić do najlepszych konsekwencji. Wyjaśnienie w pąkach może być technicznie nieosiągalne, a dążenie do tego może być czynnikiem rozpraszającym. Te modele nie „rozumieją” w ludzkim sensie. Ich wyniki są powiązaniami statystycznymi, a nie przyczyną i skutkiem.

Wyjaśnienia post -czynne, chociaż przynoszą przyjemność, mogą wprowadzić w błąd i ostatecznie zapobiec wprowadzaniu narzędzi zdolnych do poprawy strategicznej prognozy, analizy inteligencji i planowania operacyjnego. Prawdziwym niebezpieczeństwem jest nadmierna uwaga na szkodę wydajności.

Wiele decyzji dotyczących bezpieczeństwa narodowego od wyboru celów na planowanie zamówień-na albumie, obejmuje nieprzezroczyste, ale sprawdzone procesy, takie jak varheiming lub ocena ekspertów. Można to uzupełnić tymi podejściami do przetwarzania ilości informacji z prędkością, których nie może porównać.

Zamiast uczynić go bardziej „człowiekiem”, musimy je ocenić według kryteriów spełniających sposób, w jaki faktycznie działają: spójność, dokładność i jasność ograniczeń. Należy zapytać: nowe metody, takie jak fakt automatyczny, znacznie zmniejszyły halucynacje - z 9 % do 0,3 % w niektórych modelach. Systemy oparte na wydajności, takie jak Trustllm, obiecują ocenić niezawodność modelu bardziej kompleksowo niż kiedykolwiek w wyjaśnieniu.

Aby zapewnić skuteczną i bezpieczną integrację dużych modeli językowych z kontekstami wojskowymi i obronnymi, politycy powinni być preferowani przez testowanie operacyjne niż jasność. Zamiast koncentrować się na sztucznej interpretacji, systemy należy oceniać na podstawie progu wydajności przed wdrożeniem. Podejście to opiera się na empirycznej niezawodności i gwarantuje, że narzędzia AI dają spójne wyniki w rzeczywistych warunkach.

Politycy powinni zachować dowództwo wojskowe w przyrodzie i ograniczeniach. Zaufanie w tych modelach powinno opierać się na zmierzonych wynikach, a nie na iluzji zrozumienia lub cech antropomorficznych. Będąc nieuzasadnionymi narzędziami, opiera się na rozpoznawaniu obrazów, a nie wiedzy i nie należy oczekiwać, że symulują ludzkie myślenie lub samoświadomość.

Na koniec konieczne jest opracowanie zaleceń dotyczących wprowadzenia AI, biorąc pod uwagę konkretne przypadki użytkowania. Różne scenariusze operacyjne wymagają różnych poziomów kontroli i niezawodności. Na przykład, gdy uogólniono dane wywiadowcze, priorytetem może być wysoce spójność, podczas gdy używanie walki wymaga systemu ograniczającego i stałej kontroli człowieka w celu zmniejszenia ryzyka i odpowiedzialności.

Ogólnie rzecz biorąc, zaufanie do pąków nie powinno opierać się na ich zdolności do brzmienia po ludzku, ale na ich stałej zdolności do wydawania dokładnych, powtarzających się i sprawdzonych wyników. Uważanie ich za cyfrowe wyroczniki jest nierealne i przynosi efekt przeciwny do zamierzonego. Ocena systemów AI opartych na wydajności, nie interpretacji lub atrakcyjności antropomorficznej, jest znacznie bardziej pragmatycznym i skutecznym podejściem.

Michael „Sparky” Perry-Lieutenant pułkownik Sił Powietrznych i wiodący pilot MC-130 z tytułem magistra administracji biznesu i spraw wojskowych. National Defense Research Fellow w SEM International Relations School w Georgia's Technology Institute. Jego badania w ramach programu obrony 2024/5 we współpracy z kilkoma ministerstwami i instytutami akademickimi poświęconymi sztucznej inteligencji w decyzjach Ministerstwa Obrony, a także niezawodność dużych modeli językowych.

<p> Lekarz zapewnia pomoc podczas ostrzału. Batalion Stugna </p>...
Ponad miesiąc temu
Ukraiński lekarz zapewnia wojsko podczas ostrzeżenia
By Simon Wilson