AI nie tylko wyręcza nas w coraz większej liczbie obowiązków, ale również staje się coraz większym zagrożeniem dla cyberbezpieczeństwa. Eksperci Check Point Research zwracają uwagę, że najbardziej podatni na złośliwe działania cyberprzestępców jesteśmy korzystając z urządzeń mobilnych. Jak wynika z badań, aż 75% pracowników korzysta obecnie ze swoich prywatnych smartfonów w miejscu pracy, a niemal 83% firm decyduje się na wdrożenie u siebie polityki BYOD. Oznacza to, że słabo kontrolowane mobilne urządzenia osobiste mogą
być głównym źródłem zagrożeń dla firm.
Ja: Czy możesz zostać wykorzystany do cyberataków?
ChatGPT: Jako model językowy sztucznej inteligencji nie mam własnej agendy ani intencji. Jednak, jak każda technologia, mogę potencjalnie zostać wykorzystany przez osoby o złych zamiarach.
Ostatecznie odpowiedzialność za wykorzystanie i potencjalne niewłaściwe użycie systemów AI spoczywa na użytkownikach. Ważne jest, aby osoby i organizacje korzystały z technologii AI w sposób etyczny i odpowiedzialny, przestrzegając prawnych i etycznych wytycznych oraz podejmując środki ostrożności, aby zapobiec wszelkim szkodom lub nadużyciom.
W tej rozmowie ChatGPT się nie myli…
Narzędzia generatywnej sztucznej inteligencji (AI), takie jak Chat GPT i Google Bard, zyskują popularność na całym świecie. Pozwalają użytkownikom zwiększyć wydajność i produktywność w codziennych zadaniach i obowiązkach.
Jednak część z ich możliwości może być niewłaściwie wykorzystanych – np. do tworzenia złośliwych programów, z których wiele pojawiło się w oficjalnych sklepach z aplikacjami. Generatywna sztuczna inteligencja została wykorzystana również do tworzenia e-maili i kampanii phishingowych, czy generowania fałszywych filmów na YouTube.
Niestety firmy zajmujące się generatywną sztuczną inteligencją nie radzą sobie z tymi problemami. W niedawnym raporcie zespół Check Point Research udowodnił, że Bard nie nakłada prawie żadnych ograniczeń na tworzenie wiadomości phishingowych i że przy małych zmianach można go wykorzystać do tworzenia keyloggerów i innego złośliwego oprogramowania, co stanowi zagrożenie dla bezpieczeństwa.
Z tych powodów niektóre firmy zdecydowały się zakazać korzystania z narzędzi sztucznej inteligencji na urządzeniach lub w sieciach korporacyjnych, natomiast część innych, które umożliwiały pracownikom dostęp do generatywnych narzędzi sztucznej inteligencji, padła ofiarą wycieku wrażliwych danych.
Dlatego dopóki nie będą dostępne odpowiednie środki chroniące wrażliwe dane przed wyciekiem i kradzieżą informacji wewnętrznych, firmy powinny zachować szczególną ostrożność w swoich politykach bezpieczeństwa.
Eksperci Check Point Research zauważają, że urządzenia mobilne nie są wyjątkiem. W rzeczywistości użytkownicy mobilni częściej pobierają złośliwe aplikacje lub padają ofiarą prób phishingu. Mniejsze ekrany urządzeń mobilnych, duża liczba aplikacji i powiadomień mogą rozpraszać użytkowników, utrudniając im unikanie otwierania złośliwych łączy lub pobierania złośliwych plików. Dla wielu z nas sieci społecznościowe są najczęściej używanymi aplikacjami na naszych smartfonach, co oznacza, że użytkownicy mobilni są również bardziej narażeni na socjotechnikę i phishing.
Ponadto zacierają się granice między osobistym i zawodowym korzystaniem z urządzeń mobilnych, co czyni je głównym punktem wejścia do organizacji, więc ochrona przed zagrożeniami AI powinna być najwyższym priorytetem.
Co należy zrobić, aby chronić swoją mobilną flotę przed zagrożeniami AI?
- Najważniejszą rzeczą do uświadomienia sobie jest to, że użytkownikom urządzeń mobilnych nie można ufać. Ataki są coraz częstsze i bardziej wyrafinowane, a teraz są zbyt zaawansowane i skomplikowane, aby mógł je wykryć człowiek. Klasycznym przykładem są strony phishingowe, które ewoluowały tak bardzo, że wyglądają tak samo jak oryginalna strona. Aby poradzić sobie z tym poziomem zaawansowania, potrzebujesz zaawansowanej technologii do ochrony urządzenia i zapobiegania przedostawaniu się zagrożeń do Twojej organizacji.
- Urządzenia mobilne to punkt wejścia do Twojej organizacji. Sztuczna inteligencja ewoluuje tak szybko, że wykrywanie i naprawianie błędów to za mało. Twoje rozwiązanie bezpieczeństwa mobilnego musi zawierać funkcje zapobiegawcze, aby powstrzymać zagrożenie na poziomie urządzenia, zanim uzyskasz dostęp do zasobów korporacyjnych.
Możliwości uczenia się generatywnej sztucznej inteligencji są przytłaczająco imponujące. Aby nadążyć, musisz używać sztucznej inteligencji do walki z sztuczną inteligencją. Upewnij się, że Twoje rozwiązanie zabezpieczające wykorzystuje sztuczną inteligencję i technologię uczenia maszynowego, aby zachować przewagę.