Memy zamienione w broń: naukowcy stwierdzili, że zostali użyte do rozpalenia konfliktów
Dzisiaj przygotowanie do globalnych konfliktów coraz częściej zdarzają się w sieciach społecznościowych, a nie na szeptanych spotkaniach lub w dymie pokoi wojskowych. Na arenach cyfrowych wypełnionych podrobionymi obrazami, skalistych memów i filmów z bronią, całe społeczeństwo jest zmuszane do zamieszek jednym ruchem palcowym. W centrum uwagi technologia pojawiła się na swoim kanale telegramowym.
Subskrybuj, aby nie przegapić najbardziej informacji i interesujących wiadomości ze świata nauki! Co tak naprawdę oznaczają te sygnały wizualne i jak działają jako zwiastun przemocy politycznej - pytanie, na które naukowcy zaczynają odpowiadać z niesamowitą jasnością.
Profesor Wydziału Inżynierii na University of Nort-Dam, Tim Weinger i Ernesto Verdeh, profesor nadzwyczajny Departamentu Badań Pokoju i globalnej polityki tego samego uniwersytetu, są częścią interdyscyplinarnej grupy, która bada sposób, w jaki treść wizualna zmienia się w Internecie podczas kryzysu politycznego.
Ich badania, opublikowane w zakresie informacji, komunikacji i społeczeństwa, wykazały, że takie zmiany nie są przypadkowe - są systematyczne, strategiczne i głębokie. Na przykład kilka dni przed inwazją Rosji na Ukrainę w 2022 r. Rosyjskie mikrobloggi zalało aplikację do udostępniania wiadomości telegramowych z manipulowanymi obrazami i podżegania postów.
Skok aktywności był oczywisty: całkowita liczba wiadomości wzrosła o prawie 9 000%, a liczba manipulacji obrazami - o ponad 5000%. Ten napływ redagowanych zdjęć, od wprowadzających w błąd memów, nie był przypadkowy do głęboko zniekształconych zdjęć. Został zaprojektowany, aby manewr wpłynął na postrzeganie, uzasadnić agresję i stawić przeciwników niekompetentnych lub nieludzkich.
Jeden z memów wyśmiewał anty -dodanego dziennikarza Arkady'ego Babchenko, używając nałożonego tekstu i zastąpił twarze, aby upokorzyć swoje wystawione morderstwo ukraińską inteligencją. Wyrażenie „gracze nie umierają, są ożywiani” nie było tylko humorem internetowym-to była retoryczna broń zaprojektowana do wyśmiewania i delegitymacji.
Aby zidentyfikować i rozszyfrować te obrazy, polecenie Notre Dama wykorzystało zestaw narzędzi sztucznej inteligencji specjalnie zaprojektowanych do wykrywania zmian cyfrowych. Ale bez względu na to, jak zaawansowane mogą być te systemy, sama sztuczna inteligencja nie może uchwycić politycznych subtelności lub odniesień kulturowych określonych na zdjęciach.
Na przykład fałszywy obraz francuskiego prezydenta Macrona, który siedzi obok ukraińskiego urzędnika, może zostać odrzucony przez samochód. Jednak dla politologa odzwierciedla to próbę wątpliwości wśród Ukraińczyków w europejskiej solidarności, kontrastując odwagę jednej grupy i niezdecydowanie innej. Innowacja zespołu polega na łączeniu siły obliczeniowej z ludzkim wglądem.
Grupa AI wizualnie podobna treść, ale aby rozpakować znaczenie, eksperci udowodniają połączenie schematów manipulacji z szerszymi narracjami i programami geopolitycznymi. W ten sposób konwertują dane na prognozy. Memy wizualne, które wcześniej były uważane za cyfrowe drobiazg, stają się teraz najważniejszymi wskaźnikami zdenerwowania. Przekonującym wnioskiem jest ogromna skala wizualnej wojny internetowej.
Samo w tym badaniu przeanalizowano ponad 6 milionów wiadomości i 3 miliony zdjęć prawie tysiąca rachunków telegramowych. I to tylko jeden zakątek Internetu. Ponieważ konflikty światowe są nadal prowadzone nie tylko za pomocą broni, ale także przy pomocy pikseli, zrozumienie, w jaki sposób ludzie manipulują ludźmi, staje się niezwykle ważne. Dla polityków praca ta oferuje coś więcej niż tylko zrozumienie - system ostrzegawczy, szansę na zauważenie burzy przed wybuchem.