Powszechny dostęp do coraz bardziej zaawansowanych modeli AI służy nie tylko użytkownikom, ale też przestępcom. Jak wskazują eksperci WithSecure, dzięki sztucznej inteligencji można prowadzić znacznie więcej cyberataków jednocześnie, a także przyspieszyć i ulepszyć proces profilowania ofiary. Jednak AI pomaga również specjalistom ds. cyberbezpieczeństwa – dzięki niej średni czas wykrycia incydentów i zniwelowania ich skutków skrócił się o ponad 100 dni.
Liczba cyberataków sterowanych przez człowieka jest ograniczona ze względu na zakres czynności możliwych do przeprowadzenia jednocześnie. Faza przygotowania ataku uwzględniająca profilowanie ofiary i obmyślenie odpowiedniej strategii również bywa czasochłonna. Popularyzacja modeli GenAI może osłabić te bariery i bardzo ułatwić życie przestępcom.
Pisanie kodu, szpiegowanie ofiary, deepfake – jak przestępcy korzystają z GenAI?
Eksperci z WithSecure wskazują, że modele GenAI są dla cyberprzestępców szczególnie przydatne do przeprowadzania cyfrowego rekonesansu, działań z zakresu inżynierii społecznej oraz generowania kodu złośliwego oprogramowania. Wykorzystanie odpowiednio wytrenowanego modelu GenAI do profilowania potencjalnej ofiary znacznie przyspiesza proces i zwiększa szansę powodzenia ataku. Sztuczna inteligencja robi to dokładniej od człowieka – może przeszukać tysiące stron pod kątem każdej, nawet najdrobniejszej wzmianki o danej firmie lub osobie. Takie informacje pomagają lepiej dopasować atak pod konkretny cel, co zwiększa szansę na jego powodzenie.
Pojawiać zaczynają się także ataki z użyciem deepfake. Przestępcy generują nagrania dźwiękowe lub wideo, w których znane osoby mówią lub robią rzeczy, które w rzeczywistości nigdy nie miały miejsca. W przestrzeni publicznej pojawiły się informacje o pierwszych przypadkach, w których oszuści wykorzystali GenAI, aby podszyć się pod kierownictwo firmy i zlecić osobom odpowiedzialnym za finanse wypłatę środków z jej rachunku.
Zaawansowane modele GenAI są zdolne także do pisania działających kodów złośliwego oprogramowania. Choć firmy takie jak OpenAI wprowadzają zabezpieczenia, które powinny uniemożliwić wykorzystanie modelu do takich celów, cyberprzestępcy posiadający specjalistyczną wiedzę mogą te zabezpieczenia obejść – m.in. generując poszczególne fragmenty kodu osobno, a następnie składając je w całość. Uzyskują w ten sposób gotowe, w pełni funkcjonalne i zdolne do wyrządzenia dużych szkód oprogramowanie.
Problem czy wsparcie? AI nie tylko dla hakerów
Jak wskazują eksperci WithSecure, choć modele GenAI są coraz bardziej zaawansowane, obecnie ich wykorzystanie przez cyberprzestępców zdaje się ograniczać przede wszystkim do wczesnych etapów ataków. Jednocześnie NCSC (brytyjski Urząd ds. Krajowego Cyberbezpieczeństwa) przewiduje, że eskalacja ataków wykorzystujących generatywną sztuczną inteligencję nastąpić może po 2025 roku. Nie zmienia to jednak faktu, że już teraz znane są historie związane z wykorzystaniem modelu ChatGPT-4 do szukania luk w zabezpieczeniach.
– Sztuczna inteligencja i duże modele językowe na niej bazujące rozwijają się w bardzo szybkim tempie, a wraz z tym rozwojem możemy spodziewać się bardziej wyrafinowanych ataków. Warto jednak pamiętać, że modele AI mogą służyć nie tylko hakerom – od lat z innowacji w dziedzinie sztucznej inteligencji korzystają też specjaliści ds. cyberbezpieczeństwa. Doświadczenia obrońców z AI zaczęły się długo zanim technologia ta trafiła do powszechnego użytku. Inteligentne algorytmy analizują incydenty, dostarczają wskazówki jak najlepiej zareagować, zbierają dane dotyczące systemów ochronnych i ataków. Obecnie największym zagrożeniem wynikającym z użycia AI przez przestępców jest szybkość z jaką mogą zostać wygenerowane elementy ataku. Musimy więc zadbać o to, aby móc reagować równie szybko – wskazuje Leszek Tasiemski, VP w firmie WithSecure.
Kluczowym elementem najnowocześniejszej oferty WithSecure jest Elements Cloud, która płynnie integruje technologie bazujące na sztucznej inteligencji, wiedzę specjalistów oraz usługi wspólnego bezpieczeństwa. Ponadto zapewnia klientom średniej wielkości modułowe funkcje obejmujące ochronę punktów końcowych i chmury, wykrywanie i reagowanie na zagrożenia oraz zarządzanie ryzykiem.