FBI poinformowało w swoim komunikacie, że cyberprzestępcy wykorzystują technologię sztucznej inteligencji do udoskonalania swoich schematów oszustw. Generative AI, podobnie jak popularne GPT OpenAI, podbiło świat, ułatwiając każdemu tworzenie przyciągających wzrok treści, w tym tekstu, dźwięku, zdjęć i filmów. Cyberprzestępcy szybko wykorzystali tę technologię, aby uzyskać nielegalne zyski. Biuro FBI zauważa, że sztuczna inteligencja generatywna zmniejsza czas i wysiłek, jaki przestępcy muszą poświęcić, aby oszukać swoje ofiary.
Nowy komunikat FBI
„FBI ostrzega opinię publiczną, że przestępcy wykorzystują generatywną sztuczną inteligencję (AI) do popełniania oszustw na większą skalę, co zwiększa wiarygodność ich planów” – głosi nowe oświadczenie publiczne FBI.
„Generative AI bierze to, czego nauczyła się z przykładów wprowadzanych przez użytkownika i syntetyzuje coś zupełnie nowego na podstawie tych informacji” — twierdzi PSA. „Te narzędzia pomagają w tworzeniu treści i mogą korygować błędy ludzkie, które w przeciwnym razie mogłyby służyć jako sygnały ostrzegawcze przed oszustwem”.
Agencja zauważa, że choć treści generowane przez sztuczną inteligencję nie są koniecznie nielegalne, treści syntetyczne mogą być wykorzystywane do popełniania przestępstw, takich jak oszustwa i wymuszenia.
„Ponieważ trudno jest zidentyfikować, czy treść została wygenerowana przez sztuczną inteligencję, FBI podaje następujące przykłady, w jaki sposób przestępcy mogą wykorzystywać generatywną sztuczną inteligencję w swoich schematach oszustw, aby zwiększyć rozpoznawalność i kontrolę społeczną” – czytamy w zawiadomieniu FBI.
Oszustwa oparte na wiadomościach tekstowych
Przestępcy stosujący metody socjotechniczne, takie jak phishing, oszustwa matrymonialne i oszustwa inwestycyjne, wykorzystują sztuczną inteligencję do tworzenia:
- Obszerne fikcyjne profile w mediach społecznościowych, których celem jest nakłonienie ofiar do wysłania pieniędzy.
- Wiadomości są wysyłane w sposób mający na celu dotarcie do szerszej publiczności za pomocą wiarygodnych treści.
- Tłumaczenia językowe w celu ograniczenia błędów gramatycznych i ortograficznych.
- Treści dotyczące fałszywych witryn internetowych w celu oszustw związanych z inwestycjami w kryptowaluty i innymi schematami inwestycyjnymi.
- Chatboty oparte na sztucznej inteligencji na fałszywych stronach internetowych, które nakłaniają ofiary do klikania złośliwych linków.
Fałszywe obrazy
Obrazy generowane przez sztuczną inteligencję pomagają przestępcom tworzyć wiarygodne zdjęcia profilowe w mediach społecznościowych, dokumenty tożsamości i inne obrazy w celu wspierania oszustw. FBI wymienia kilka typowych scenariuszy:
- Fikcyjne profile w mediach społecznościowych w inżynierii społecznej, phishingu ukierunkowanym, schematach matrymonialnych, oszustwach opartych na zaufaniu i oszustwach inwestycyjnych.
- Fałszywe dokumenty tożsamości, takie jak prawo jazdy lub dokumenty uwierzytelniające (organy ścigania, rząd lub bankowość) w celu oszustwa tożsamości i podszywania się pod kogoś.
- Zdjęcia do udostępnienia ofiarom w prywatnej komunikacji, aby przekonać je, że rozmawiają z prawdziwą osobą.
- Obrazy przedstawiające gwiazdy lub osoby z mediów społecznościowych promujące podróbki produktów lub oszustwa związane z niedostarczaniem towarów.
- Obrazy przedstawiające klęski żywiołowe lub globalne konflikty w celu uzyskania darowizn na rzecz fałszywych organizacji charytatywnych.
- Obrazy do wykorzystania w schematach manipulacji rynkiem.
- Fałszywe, kompromitujące zdjęcia osoby w celu wymuszenia zapłaty w ramach schematów wymuszeń.
Klonowanie głosu
Jednym z najskuteczniejszych sposobów ataku w dzisiejszych przestępstwach wykorzystujących sztuczną inteligencję jest dźwięk generowany przez AI, który może być używany do podszywania się pod osoby publiczne w celu uzyskania płatności. Biuro wymienia kilka typowych scenariuszy, w tym:
- Krótkie klipy audio podszywające się pod członka rodziny w sytuacji awaryjnej, proszące o natychmiastową pomoc finansową lub żądające okupu.
- Generowane przez sztuczną inteligencję klipy audio podszywających się osób w celu uzyskania dostępu do kont bankowych (uwierzytelnianie głosowe).
- Filmy przedstawiające fikcyjne lub wprowadzające w błąd materiały promocyjne dotyczące oszustw inwestycyjnych.
Jak się chronić przed oszustwami generowanymi przez sztuczną inteligencję?
Zespół do spraw cyberprzestępczości Bitdefender radzi, aby korzystać z tych wskazówek w przypadku odebrania podejrzanego połączenia, wiadomości lub innej treści, która może wzbudzić podejrzenia.
- Utwórz z rodziną tajne słowo lub frazę, aby potwierdzić ich tożsamość w kryzysowej sytuacji.
- Szukaj subtelnych niedoskonałości w obrazach i filmach, takich jak zniekształcone dłonie lub stopy, nierealistyczne zęby lub oczy, niewyraźne lub nieregularne twarze, nierealistyczne dodatki, takie jak okulary lub biżuteria, niedokładne cienie, znaki wodne, opóźnienia, dopasowanie głosu i nierealistyczne ruchy.
- Słuchaj uważnie tonu głosu i doboru słów, aby odróżnić prawdziwą rozmowę telefoniczną od bliskiej osoby od klonowania głosu generowanego przez sztuczną inteligencję.
- Ogranicz udostępnianie swojego wizerunku lub głosu online, ustaw konta w mediach społecznościowych jako prywatne i ogranicz liczbę obserwujących do osób, które znasz, aby zminimalizować ryzyko oszustw związanych z wykorzystaniem oprogramowania opartego na sztucznej inteligencji do tworzenia fałszywych tożsamości na potrzeby inżynierii społecznej.
- Zweryfikuj tożsamość osoby dzwoniącej do Ciebie, rozłączając się, sprawdzając dane kontaktowe banku lub organizacji, która rzekomo do Ciebie dzwoni, i zadzwoń bezpośrednio pod podany numer telefonu.
- Nigdy nie udostępniaj poufnych informacji osobom, które poznałeś tylko online lub przez telefon.
- Nie wysyłaj pieniędzy, kart podarunkowych, kryptowalut ani innych aktywów osobom, których nie znasz lub poznałeś ich wyłącznie online, czy też przez telefon.
– Warto regularnie używać narzędzi do wykrywania oszustw, np. Bitdefender Scamio, czyli bezpłatnego chatbota zaprojektowanego specjalnie do walki z atakami socjotechnicznymi. Wystarczy wkleić link do strony, którą wysłał potencjalny oszust, lub opisać sytuację w języku angielskim. Po kilkunastu sekundach pojawi się raport z informacją, czy to oszustwo. Oprócz tego zawsze warto kierować się zasadą ograniczonego zaufania podczas kontaktów online. – mówi Krzysztof Budziński z firmy Marken Systemy Antywirusowe, polskiego dystrybutora oprogramowania Bitdefender.