Sfabrykowane obrazy, filmy i nagrania audio to już codzienność w internecie. Lawina dezinformacji napędzana przez AI budzi coraz większe obawy, także w kontekście politycznym. Tymczasem rok 2024 upłynie pod znakiem wyborów nie tylko w Polsce, ale i na całym świecie. Eksperci ds. cyberbezpieczeństwa przestrzegają, że technologia deepfake daje ogromne możliwości wpływania na ich wyniki.
W 2024 roku w Polsce wybierzemy nowe władze samorządowe i posłów do Parlamentu Europejskiego. Na całym świecie do urn pójdzie natomiast około jedna czwarta populacji. Z globalnej perspektywy kluczowe wybory odbędą się w Stanach Zjednoczonych, a ich rozstrzygnięcie będzie wpływało na relacje z Europą. Ważne elekcje odbędą się również m.in. w Rosji, Indiach, Austrii czy Wielkiej Brytanii. Mogą one zmienić krajobraz polityczny i kierunki geopolityki co najmniej na kilka najbliższych lat. Tymczasem cyberprzestępcy, hakerzy, przeróżne organizacje czy służby poszczególnych państw mają już dostęp do technologii pozwalających potencjalnie wpływać na nastroje wyborców na niespotykaną wcześniej skalę…
Fake news i deepfake
Termin „fake news” został spopularyzowany m.in. podczas wyścigu do Białego Domu w 2016 roku. Wówczas fałszywe wiadomości, rozpowszechniane za pośrednictwem internetu, mocno wpłynęły na przebieg kampanii wyborczej w USA. Osiem lat później stoimy w obliczu zagrożenia, które wygląda jeszcze poważniej. W erze rozwoju AI dezinformacji mogą towarzyszyć materiały foto, wideo lub audio o charakterze deepfake, których autentyczność trudno zweryfikować niejednokrotnie nawet ekspertom. Można sobie wyobrazić, jak bardzo są one w stanie wpłynąć na przebieg kampanii, a nawet wyniki wyborów. Niedawne przykłady treści o tematyce wyborczej, generowanych przez AI – w tym obrazów i filmów krążących przed wyborami prezydenckimi w Argentynie oraz zmanipulowanych nagrań audio prezydenta USA Joe Bidena – to zwiastuny tego, co może wydarzyć się wkrótce.
Nie dziwi zatem fakt, iż Światowe Forum Ekonomiczne (WEF) ogłosiło niedawno dezinformację globalnym ryzykiem numer jeden najbliższych dwóch lat, w ramach rankingu, który powstał przy współudziale niemal 1500 ekspertów: naukowców, przedstawicieli biznesu, instytucji rządowych, społeczności międzynarodowej i społeczeństwa obywatelskiego. Raport przestrzega m.in. przed treściami, które mogą „manipulować jednostkami, szkodzić gospodarkom i dezorganizować społeczeństwa na wiele sposobów w ciągu najbliższych dwóch lat” i zwraca uwagę, iż „istnieje ryzyko, że niektóre rządy będą działać zbyt wolno, stając w obliczu trudnych decyzji, związanych z zapobieganiem dezinformacji, ale ochroną wolności słowa”.
Fałszywe przekazy coraz bardziej wiarygodne
– Technologia deepfake, napędzana przez AI, jest teraz tania, dostępna, potężna i może powodować szkody na naprawdę dużą skalę. Mogą z niej korzystać cyberprzestępcy, rządy i hakerzy-aktywiści, zarówno w ramach tworzenia strategicznych kampanii dezinformacyjnych, jak i jednorazowych, punktowych działań. Narzędzia takie jak ChatGPT i swobodnie dostępne generatywne AI (GenAI), umożliwiły szerszemu gronu osób o złych intencjach tworzenie kampanii dezinformacyjnych napędzanych przez technologię deepfake. Skoro tak łatwo jest przygotować technologiczną stronę tych działań, ich autorzy mają więcej czasu i zasobów na dopracowanie swoich strategii i przekazów, które sprawiają, że fałszywe treści zostaną zauważone i rozpowszechnione – mówi Kamil Sadkowski, analityk laboratorium antywirusowego ESET.
W kontekście wyborczym materiały spreparowane za pomocą deepfake mogą m.in. służyć do podważania zaufania wyborców do konkretnego kandydata lub partii politycznej, a tym samym – przeciągnięcia wyborców na stronę ich oponentów. W niektórych sytuacjach mogą służyć także do podważania wiary w cały demokratyczny proces wyborczy, tak aby utrudnić wygranym osobom i partiom rządzenie. Takie treści bazują nie tylko na prostym przekazie i sfabrykowanych, wyglądających na autentyczne zdjęciach, materiałach video i audio, ale także na mechanizmie ich powtarzalności. Treści, z którymi odbiorcy stykają się wielokrotnie, w różnych kanałach, np. w social mediach, wydają im się bardziej wiarygodne i prawdopodobne. To mechanizm wykorzystywany od dawna również przez kampanie reklamowe. Widać więc wyraźnie, że osoby planujące dezinformację profesjonalizują coraz bardziej nie tylko techniczną, ale także perswazyjną stronę swoich działań.
Od teorii do praktyki
Eksperci ds. cyberbezpieczeństwa podkreślają, że fałszywe przekazy oparte o technologię deepfake prawdopodobnie będą miały wpływ na nastroje wyborców. Pokazuje to choćby jeden z najświeższych przykładów: w styczniu 2024 roku fałszywe nagranie audio prezydenta USA Joe Bidena zostało rozpowszechnione za pośrednictwem automatycznych rozmów telefonicznych wśród wyborców w New Hampshire. Wiadomość zachęcała ich do pozostania w domach w czasie prawyborów, by „zaoszczędzili swój głos na wybory w listopadzie”. Informacja na temat dzwoniącego także została sfabrykowana, by sprawiać wrażenie, że wiadomość wysłano z osobistego numeru Kathy Sullivan, byłej przewodniczącej stanowej Partii Demokratycznej, wspierającej Bidena.
Takie narzędzia jak sfabrykowane przekazy audio mogą być zatem wykorzystywane m.in. do zniechęcania wyborców do głosowania na konkretnych kandydatów. To poważne ryzyko, szczególnie ostre w przypadku tych wyborów, gdzie różnice między kandydatami są niewielkie i małe przesunięcia głosów mogą decydować o wyniku. W takim przypadku ukierunkowana kampania dezinformacyjna może wyrządzić ogromne szkody. Jednocześnie, jeśli działanie będzie wykorzystywać jako kanał social media czy sieć telefoniczną – jego skalę i wpływ będzie bardzo trudno ocenić.
Piłeczka po stronie firm technologicznych?
Zarówno YouTube, jak i Facebook bywały oskarżane o zbyt wolne reagowanie na niektóre przekazy deepfake. Tymczasem nowe prawo UE (Digital Services Act), wymaga od mediów społecznościowych aktywnej walki z próbami wyborczych manipulacji. Z kolei OpenAI ogłosiło, że zaimplementuje cyfrowe poświadczenia Koalicji na rzecz Pochodzenia i Autentyczności Treści (C2PA) dla obrazów generowanych przez DALL-E 3. Natomiast technologia kryptograficznego znakowania wodnego – również testowana przez Metę i Google – ma na celu utrudnienie tworzenia fałszywych obrazów. Jednak są to nadal tylko małe kroki.
– Technologiczne możliwości reagowania na zagrożenie dezinformacją wyborczą mogą być niewystarczające. Narzędzi jest mało i działają one powoli. Szczególnie groźne i trudne do zidentyfikowania mogą być przekazy rozpowszechniane w zamkniętych sieciach, takich jak np. grupy na komunikatorach. Trudno je śledzić i identyfikować oraz odpowiednio oznaczać pojawiające się w takich kanałach sfabrykowane materiały. W ten sposób bardzo łatwo przekazać nieprawdziwe informacje czy podsycić wątpliwości wyborców. Zarówno firmy technologiczne, media, jak i ich użytkownicy powinni mieć tego świadomość i przykładać szczególną wagę do weryfikowania informacji – uzupełnia Kamil Sadkowski.