Ataki phishingowe stają się coraz bardziej wyrafinowane dzięki szybkiej ewolucji i wykorzystaniu generatywnej sztucznej inteligencji (GenAI). Technologia ta staje się coraz doskonalsza. Czy widziałeś wideo, na którym David Beckham mówi w dziewięciu językach? Czy dostałeś e-mail od Taylor Swift sprzedającej naczynia kuchenne Le Creuset lub Jennifer Aniston rozdającej darmowe MacBooki? Wszystko to podróbki, które nie mają nic wspólnego z prawdziwymi celebrytami.
Sztuczna inteligencja – technologia wykorzystywana przez cyberprzestępców
AI wykorzystuje się również do oszukiwania użytkowników korporacyjnych w celu kliknięcia złośliwego łącza, pobrania uszkodzonego pliku lub przeprowadzenia niebezpiecznej transakcji. Ataki phishingowe zdarzają się od dziesięcioleci, ale ta nowa technologia przenosi sytuację na nowy poziom, przez co wykrycie tych ataków jest obecnie trudniejsze niż kiedykolwiek.
Zbyt pewny siebie czy nadmiernie zmartwiony?
Ostatnie wyniki ankiety z Raportu oceny cyberbezpieczeństwa Bitdefender 2024 ujawniły interesujące zależności w branży cyberbezpieczeństwa. Według raportu prawie trzy czwarte specjalistów ds. cyberbezpieczeństwa uważa, że są na tyle bystrzy, że potrafią wykryć ataki typu deepfake. Jednak 96% twierdzi, że GenAI stanowi poważne zagrożenie dla ich organizacji.
Prostym wyjaśnieniem jest to, że specjaliści ds. cyberbezpieczeństwa są pewni swoich umiejętności wykrywania i przeciwdziałania atakom tworzonym przez narzędzia GenAI, ale mniej pewni, czy ich współpracownicy potrafią wykryć deepfakes. Osobom z dużym doświadczeniem w cyberbezpieczeństwie łatwo jest pomyśleć, że nie da się oszukać, jednak martwią się o innych niewykwalifikowanych pracowników. Rzeczywistość jest jednak taka, że technologia GenAI stała się tak skuteczna, że nawet najbardziej doświadczeni specjaliści od cyberbezpieczeństwa prawdopodobnie nie odróżnią każdej próby deepfake od prawdziwej.
Wpływ na dzisiejsze organizacje
Osoby zagrażające wykorzystują GenAI do tworzenia niezwykle wiarygodnych e-maili, zdjęć, nagrań głosowych i filmów w oparciu o ogromną ilość bardzo szczegółowych, osobistych informacji o ludziach oraz organizacjach. Dane te mogą teraz wykraczać poza głos i wygląd, obejmując określone zachowanie, składnię, preferencje i tendencje. W połączeniu z kampaniami inżynierii społecznej, które identyfikują oprogramowanie finansowe używane przez organizację, banki, w których ma ona konta, a także wewnętrzne procesy i zasady, deepfakes mogą być niezwykle dokładne, osobiste i trudne do wykrycia.
Ale nie wszystko stracone. Zespoły ds. bezpieczeństwa mogą zwalczać zagrożenia stworzone przy użyciu technologii GenAI, stosując strategię obejmującą ludzi, procesy i technologię. Szkolenie może pomóc użytkownikom zidentyfikować ataki typu deepfake lub przynajmniej zatrzymać się przed ślepym przyjęciem ich jako prawdy. Obejmuje to budowanie kultury odpowiedzialności. Z pewnością pracownicy muszą brać odpowiedzialność za swoje działania, ale muszą mieć także uprawnienia do kwestionowania podejrzanych próśb – zwłaszcza gdy pochodzą od menedżerów lub osób znajdujących się na wysokich stanowiskach w firmie. Wymaga to zbudowania kultury w całej organizacji, która stanowi wyzwanie dla ludzi do zadawania pytań, uzyskiwania potwierdzeń oraz pociągania siebie i innych osób do odpowiedzialności.
Ponadto należy wdrożyć procesy umożliwiające kulturę odpowiedzialności. Może to obejmować wymóg uzyskania potwierdzenia od dwóch osób w celu przeprowadzenia dużych transakcji, wprowadzenie okresu oczekiwania, czy też dodanie innych zabezpieczeń, które uruchamiają dodatkowe środki bezpieczeństwa. Bezproblemowe zintegrowanie tych barier ochronnych z regularnymi procesami biznesowymi może znacznie pomóc w ochronie organizacji przed kłopotliwymi lub katastrofalnymi finansowo błędami.
Istnieje wiele narzędzi bezpieczeństwa opartych na sztucznej inteligencji, które mogą pomóc wykryć, wykorzenić i ograniczyć ryzyko związane z atakami phishingowymi generowanymi przez sztuczną inteligencję. Obejmuje to technologię skanującą miliony przychodzących wiadomości e-mail w celu przewidywania oszustw związanych z tożsamością i deepfakes. Inne narzędzia mogą przeszukiwać metadane obrazów i wideo, aby wykryć pochodzenie pliku i sprawdzić, czy został zmieniony. Te narzędzia bezpieczeństwa oparte na sztucznej inteligencji mogą oceniać ryzyko i ostrzegać analityków o wszelkich sygnałach ostrzegawczych wymagających dalszego zbadania.
Zmiana samej rzeczywistości
– Ataki phishingowe tworzone z wykorzystaniem Deepfake i generatywnej sztucznej inteligencji zmieniają koncepcję rzeczywistości dla wielu ludzi na całym świecie. Nadmierna wiara we własne możliwości wykrywania tego typu zagrożeń naraża organizacje na poważne straty. Zespoły ds. bezpieczeństwa muszą zaproponować rzeczywiste rozwiązania skupione na ludziach, procedurach i technologii w celu wykrywania i łagodzenia wpływu takich ataków na firmę – mówi Arkadiusz Kraszewski z firmy Marken Systemy Antywirusowe, polskiego dystrybutora oprogramowania Bitdefender.