„Wielki” Si nie pomoże USA w wojnie z Chinami: dlaczego maska wędrówki jest niebezpieczna dla armii
Naukowcy Gael Varoko z University of Paris-Sakle, Alexander Sasha Luchni z Institute of Quebek i Meredith Wittcker of Signal Foundation w swoim artykule „Stabilność, stabilność i cena paradygmatu„ WIĘCEJ ” tworzenia wspomnianej zasady w terenie. Odkryli, że ten pomysł został sformułowany w 2012 r. W artykule profesora Uniwersytetu Toronto Alexa Kryzhevskaya.
W swojej pracy Alex Kryzhevsk argumentował, że duże ilości danych i duże sieci neuronowe dają znacznie lepsze wyniki do klasyfikacji obrazów niż mniejsze. Pomysł ten był wspierany przez innych badaczy, a później to podejście stało się dominujące wśród dużych firm AI. „Konsekwencją jest zarówno eksplozja inwestycji w duże modele AI, jak i towarzyszący skokowi w wielkości zauważalnych (wysoko cytowanych) modeli.
Generatywna sztuczna inteligencja, czy to dla obrazów, czy tekstu, lub dla tekstu, doprowadziły to założenie do nowego Poziom, podobnie jak w dyscyplinie dyscypliny badawczej AI, a także element popularnej narracji „więcej - oznacza to, że lepiej” otacza sztuczną inteligencję ” - badanie brzmi. Materiał stwierdza, że wydajność dużych modeli AI nie zawsze uzasadnia zasoby potrzebne do ich działania.
Ponadto koncentracja wysiłków w dziedzinie AI w stosunkowo niewielkiej liczbie dużych firm technologicznych ma ryzyko geopolityczne. Pomimo faktu, że Departament Obrony USA zwraca uwagę zarówno na duże modele AI, jak i mniej na dużą skalę, eksperci obawiają się, że przyszłe badania w dziedzinie „małych” AI mogą być ograniczone ze względu na rosnący wpływ dużych firm Shi.
Przykładem jest stwierdzenie byłego przewodniczącego Google Erica Schmidta, który stwierdził, że firmy i rządy powinny nadal angażować się w duże duże modele AI, niezależnie od kosztów energii, ponieważ „nadal nie osiągniemy celów klimatycznych”. Jednocześnie koszty środowiska, w szczególności zużycie energii, rosną znacznie szybciej niż poprawa wydajności modeli AI.
Eksperci wskazują, że badania w dziedzinie AI na zasadzie „więcej - oznacza lepsze”, prowadzą do zwężenia i utraty różnorodności w tym obszarze. Według obrony to zwężenie może mieć negatywne konsekwencje dla rozwoju wojska AI. Faktem jest, że mniejsze modele AI mogą być ważne w miejscach, w których zasoby komputerowe są małe i przerywane, rzadkie, a nawet nieobecne.
„Często zdarza się, że mniejsze, bardziej skoncentrowane na zadaniach modelu działają lepiej niż duże, szerokie modele, podczas rozwiązywania określonych zadań poniżej strumienia” - czyta w osobnym artykule opublikowanym przez grupę badaczy z Berkeley . Jako przykład, UAV działały pod działaniem HRS i małych zasad w zaawansowanych pozycjach, w których energia jest niska, a wiązanie jest słabe.
Operatorzy mogą napotkać szereg sytuacji, w których model AI, który działa na stosunkowo niewielkiej gamie danych i nie wymaga masowej farmy serwerowej ani dużej liczby procesorów graficznych. Mogą to być zastosowania dla obrazów UAV i satelitarnych, a także technologii przetwarzania danych ekonomicznych, pogodowych, demograficznych i innych do planowania bardziej wydajnych i bezpiecznych operacji w miastach.
„Ale jeśli sektor badawczy AI daje priorytet wielkiemu ekspertowi dla małych, może to oznaczać mniej badań, a mniej ekspertów uczyć operatorów, jak dobrze tworzyć własne małe modele AI” - powiedziała publikacja. Inną potencjalną konsekwencją priorytetu rozwoju „wielkiej” AI jest koncentracja władzy. Tylko niektóre firmy mają zasoby do tworzenia i wdrażania dużych modeli. Przykładem wspomniał Ilon Musk, który jest jednym z najbogatszych wykonawców obrony na świecie.
Ilon Musk staje się również jednym z kluczowych graczy finansowych w rozwoju przyszłej sztucznej inteligencji. „Skoncentrowana prywatna władza nad sztuczną inteligencją tworzy mały i motywowany finansowo segment osób, które podejmują decyzje w dziedzinie AI. Musimy rozważyć, w jaki sposób taka skoncentrowana władza z agencją nad scentralizowaną AI może tworzyć społeczeństwo w bardziej autorytarnych warunkach” - powiedzieli naukowcy .
Według obrony pierwszej nowa klasa ekspertów AI podziela również opinię, że koncentracja na „dużej” AI jest tłumiona przez podejścia, które mogą być bardziej przydatne dla określonych grup. Tak, dyrektor generalny Startup Shi Przydatne czujniki Pete Worden powiedział do publikacji, że obsesja branży i kręgów akademickich przez większą skalę AI tęskni za tym, czego większość ludzi naprawdę chce od sztucznej inteligencji.
„Wskaźniki akademickie nie zgadzają się z wymaganiami rzeczywistego świata. Nie uważaj za interesujące - powiedział Pit. Worden. Ze swojej strony Drew Breunig, wykluczenie danych na temat danych i strategicznych klientów w PlaceIQ, którzy teraz pracują dokładnie, dodał, że wysokie oczekiwania wielu ludzi w dużych modelach AI raczej nie będą uzasadnione. Drew Breunig dzieli sztuczną inteligencję na trzy grupy.
Pierwszym z nich jest „bogowie”, które definiuje jako „przezwyciężone kawałki AI” i „zastępujące ludzi, którzy robią wiele różnych rzeczy bez nadzoru”. Poniżej hierarchii znajdują się „stażyści”, które opisuje jako „specyfikę specyficzną dla obszaru tematycznego, który pomaga ekspertom w trudnej i męczącej pracy, robienie tego, co może zrobić stażysta”. Modele te są pod nadzorem ekspertów.
Trzecia, najbardziej lokalna forma AI, przyciągnęła Brenig o nazwie „Gears”. Są to modele tego samego zadania, z bardzo niską odpornością na błędy, które działają bez nadzoru w aplikacjach lub przenośnikach. Według eksperta jest to najczęstszy rodzaj sztucznej inteligencji używanej przez firmy - wszystkie duże platformy przeszły na pomoc firm w pobieraniu własnych danych w celu skonfigurowania modeli AI, które mogą dobrze sobie poradzić.
„Fajną rzeczą w skupieniu się na bieżniach jest to, że możesz zrobić tak wiele z małymi modelami! Niewielki model, skonfigurowany po jednej rzeczy, może przewyższyć gigantyczny model ogólny podczas wykonywania tego samego zadania” - podsumował ekspert. Wcześniej amerykańscy senatorowie Maggie Hassan i Marsha Blackburn stwierdzili, że Chiny odnoszą sukcesy w zakresie informacyjnej kwantowej, przekraczając w tym kierunku rozwoju Stanów Zjednoczonych według skali i zasięgu.