Powszechny dostęp do coraz bardziej zaawansowanych modeli AI służy nie tylko użytkownikom, ale też przestępcom. Jak wskazują eksperci WithSecure, dzięki sztucznej inteligencji można prowadzić znacznie więcej cyberataków jednocześnie, a także przyspieszyć i ulepszyć proces profilowania ofiary. Jednak AI pomaga również specjalistom ds. cyberbezpieczeństwa – dzięki niej średni czas wykrycia incydentów i zniwelowania ich skutków skrócił się o ponad 100 dni.
Liczba cyberataków sterowanych przez człowieka jest ograniczona ze względu na zakres czynności możliwych do przeprowadzenia jednocześnie. Faza przygotowania ataku uwzględniająca profilowanie ofiary i obmyślenie odpowiedniej strategii również bywa czasochłonna. Popularyzacja modeli GenAI może osłabić te bariery i bardzo ułatwić życie przestępcom.
Pisanie kodu, szpiegowanie ofiary, deepfake – jak przestępcy korzystają z GenAI?
Eksperci z WithSecure wskazują, że modele GenAI są dla cyberprzestępców szczególnie przydatne do przeprowadzania cyfrowego rekonesansu, działań z zakresu inżynierii społecznej oraz generowania kodu złośliwego oprogramowania. Wykorzystanie odpowiednio wytrenowanego modelu GenAI do profilowania potencjalnej ofiary znacznie przyspiesza proces i zwiększa szansę powodzenia ataku. Sztuczna inteligencja robi to dokładniej od człowieka – może przeszukać tysiące stron pod kątem każdej, nawet najdrobniejszej wzmianki o danej firmie lub osobie. Takie informacje pomagają lepiej dopasować atak pod konkretny cel, co zwiększa szansę na jego powodzenie.
Pojawiać zaczynają się także ataki z użyciem deepfake. Przestępcy generują nagrania dźwiękowe lub wideo, w których znane osoby mówią lub robią rzeczy, które w rzeczywistości nigdy nie miały miejsca. W przestrzeni publicznej pojawiły się informacje o pierwszych przypadkach, w których oszuści wykorzystali GenAI, aby podszyć się pod kierownictwo firmy i zlecić osobom odpowiedzialnym za finanse wypłatę środków z jej rachunku.
Zaawansowane modele GenAI są zdolne także do pisania działających kodów złośliwego oprogramowania. Choć firmy takie jak OpenAI wprowadzają zabezpieczenia, które powinny uniemożliwić wykorzystanie modelu do takich celów, cyberprzestępcy posiadający specjalistyczną wiedzę mogą te zabezpieczenia obejść – m.in. generując poszczególne fragmenty kodu osobno, a następnie składając je w całość. Uzyskują w ten sposób gotowe, w pełni funkcjonalne i zdolne do wyrządzenia dużych szkód oprogramowanie.
Problem czy wsparcie? AI nie tylko dla hakerów
Jak wskazują eksperci WithSecure, choć modele GenAI są coraz bardziej zaawansowane, obecnie ich wykorzystanie przez cyberprzestępców zdaje się ograniczać przede wszystkim do wczesnych etapów ataków. Jednocześnie NCSC (brytyjski Urząd ds. Krajowego Cyberbezpieczeństwa) przewiduje, że eskalacja ataków wykorzystujących generatywną sztuczną inteligencję nastąpić może po 2025 roku. Nie zmienia to jednak faktu, że już teraz znane są historie związane z wykorzystaniem modelu ChatGPT-4 do szukania luk w zabezpieczeniach.
Źródło: Raport IBM
Autor: Jacek Kawik jest web developerem i inżynierem oprogramowania, który uwielbia pisać o technologii i bezpieczeństwie. Niezależnie od tego, czy są to porady i wskazówki dotyczące systemu Windows, czy szczegółowe przewodniki dotyczące tworzenia aplikacji, Kawik wykorzystuje swoje praktyczne doświadczenie i umiejętności techniczne do tworzenia artykułów, które mogą pomóc w rozwiązaniu trudnych problemów.
Czytaj dalej: