Sztuczna inteligencja z jednej strony pomaga cyberprzestępcom zwiększać zyski, zaś z drugiej podnosić skuteczność systemów bezpieczeństwa IT. W najbliższych latach algorytmy uczenia maszynowego oraz sztucznej inteligencji będą odgrywać kluczową rolę w branży cyberbezpieczeństwa.
Pod koniec czerwca Marnie Wiking, szefowa bezpieczeństwa IT w booking.com, oznajmiła, iż serwis internetowy w ciągu ostatnich 18 miesięcy odnotował ogromny wzrost cyberataków od 500 do 900 procent. Szczególnie na sile przybrały ataki phishingowe, mające na celu wyłudzenie od ofiar wrażliwych danych.
– Wprawdzie z tym oszustwem mamy do czynienia od lat, jednak wraz z pojawieniem się ChatGPT obserwujemy duże nasilenie oszukańczych e-maili. – dodaje Marnie Wiking.
Podobne spostrzeżenia mają szefowie działów informatycznych wielu innych firm z całego globu. Według raportu SlashNext z października 2023 r., liczba e-maili phishingowych począwszy od publicznego udostępnienia ChatGPT do września 2023 roku wzrosła o 1265 procent.
Tym, co zachęca przestępców do działania, jest coraz łatwiejszy dostęp do złośliwego oprogramowania, a także narzędzi sztucznej inteligencji, pozwalających stosunkowo łatwo i szybko realizować skuteczne ataki. Naukowcy z Uniwersytetu Indiany wykryli w Darknecie ponad 200 wielojęzycznych usług określanych jako „BadGPT”. Złowrogie chat boty nie mają żadnych etycznych i moralnych ograniczeń, aczkolwiek nie są bezpłatne. Stawki wahają się od 5 do 199 dolarów za miesiąc, a za zakupy płaci się kryptowalutami. Miesięczna subskrypcja za jedno z najbardziej popularnych wśród napastników narzędzie WormGPT wynosi 100 dolarów miesięcznie bądź 550 dolarów płatne z góry za rok.
Choć ceny narzędzi z wyższej półki nie są niskie, wielu napastników i tak wychodzi na plus. Ciekawe informacje na ten temat przynoszą raporty Federalnej Komisji Handlu – niezależnej agencji rządu Stanów Zjednoczonych. Otóż wynika z nich, że w ubiegłym roku Amerykanie stracili 10 miliardów z powodu cyberoszustw w porównaniu z 9 miliardami dolarów rok wcześniej. Niemniej Federalna Komisja Handlu szacuje, że tylko 5 procent ofiar zgłasza swoje straty, a rzeczywista liczba może być bliższa 200 miliardów dolarów.
Cyberprzestępcy często fałszują prawa jazdy i inne dokumenty tożsamości, próbując otworzyć nowe konta bankowe i dodając wygenerowane komputerowo twarze i grafikę, aby z sukcesem przejść procesy weryfikacji tożsamości. Wszystkie te metody są trudne do wykrycia, bowiem napastnicy dość sprawnie posługują się mechanizmami sztucznej inteligencji.
– Cyberprzestępcy coraz częściej używają sztuczną inteligencję do przeprowadzenia ataków. Wysyłane przez nich e-maile są nieporównywalnie lepsze od tych sprzed kilku lat. Trudno doszukać się w nich błędów ortograficznych, czy gramatycznych, co jeszcze do niedawna było normą. Ale to nie jedyny problem, narzędzia AI pozwalają oszustom tworzyć imitację głosu, czy dopracowane do perfekcji fałszowane zdjęcie oraz filmy. To stawia nowe wyzwania zarówno przed szefami działów, jak i dostawcami systemów bezpieczeństwa IT. – mówi Michał Łabęcki, Marketing Manager w G DATA Software.
AI po dobrej stronie mocy
Sztuczna inteligencja jest bronią obosieczną i nie służy wyłącznie do działań przestępczych. Znaczne korzyści z tej technologii czerpią również dostawcy urządzeń oraz oprogramowania do ochrony urządzeń końcowych, bądź sieci, a specjaliści ds. cyberbezpieczeństwa wiążą z tą technologią niemałe nadzieje. Jak wynika z badania przeprowadzonego przez ISC2, wśród przedstawicieli tej grupy zawodowej aż 88 procent uważa, że AI znacząco wpłynie na ich pracę w najbliższej przyszłości, zaś 35 procent już odczuło jej pozytywne skutki. Ten optymizm jest oparty na racjonalnych przesłankach.
– Dostawcy systemów bezpieczeństwa mają dość dużą przewagę nad cyberprzestępcami, jeśli chodzi o wykorzystanie sztucznej inteligencji. Napastnicy na masową skalę używają jej dopiero od dwóch lat. Natomiast producenci wdrażają w swoich rozwiązaniach mechanizmy uczenia maszynowego i sztucznej inteligencji do wykrywania anomalii w ruchu sieciowym, czy też automatycznego wykrywania nieznanych zagrożeń. Ponadto producenci dysponują znacznie większą ilością danych niż napastnicy. – tłumaczy Michał Łabęcki.
O ile bardzo trudno udowodnić, czy złośliwe programy lub wiadomości e-mail utworzono za pomocą Chat GPT, WormGPT, czy innych podobnych narzędzi, o tyle dostawcy zabezpieczeń poczty e-mail dysponują szczegółowymi statystykami pokazującymi efektywność działania mechanizmów AI. Szacuje się, że w ciągu ostatniego roku, dzięki tej technologii, udało im się powstrzymać dwukrotny wzrost ukierunkowanych, spersonalizowanych ataków na wiadomości e-mail.
Ciekawym rozwiązaniem pojawiającym się w systemach bezpieczeństwa IT są tak zwane copiloty, które na podstawie zebranych informacji dostarczają precyzyjnych wskazówek osobom analizującym incydenty. Takie rozwiązanie z jednej strony pozwala przyspieszyć wykrywanie zagrożeń, zaś z drugiej, powierzyć obsługę narzędzi pracownikom o nieco mniejszych kompetencjach w zakresie cyberbezpieczeństwa, aczkolwiek nie mogą to być laicy.
Firmy oraz instytucje wykorzystując analizy predykcyjne, automatyczne wzbogacanie i proaktywne środki obrony mogą skutecznie ograniczać zagrożenia cybernetyczne i zwiększać swoją odporność na zmieniające się wektory ataków. Co nie zmienia faktu, że nadal wiele zależy od człowieka. To błędy ludzkie najczęściej są przyczyną wycieków danych.