Microsoft twierdzi, że przeciwnicy Stanów Zjednoczonych — głównie Iran i Korea Północna, a w mniejszym stopniu Rosja i Chiny — zaczynają wykorzystywać sztuczną inteligencję do przeprowadzania lub organizowania ofensywnych operacji cybernetycznych. OpenAI, partner biznesowy Microsoftu i twórca ChatGPT, potwierdził, że tak jest. Cyberprzestępcy coraz częściej sięgają po technologię AI wspomnianych firm.
W poście na blogu Microsoft stwierdził, że zastosowane techniki były „na wczesnym etapie” i nie były „szczególnie nowatorskie ani unikalne”. Ważne było jednak to, aby ujawnić je publicznie, ponieważ przeciwnicy USA wykorzystują duże modele językowe do rozszerzania swojej zdolności do naruszania sieci i prowadzenia cyberataków. OpenAI zablokowało konta, które wykorzystywały ChatGPT do tego typu operacji.
Jednocześnie firmy zajmujące się cyberbezpieczeństwem od dawna używają uczenia maszynowego w obronie, głównie do wykrywania nietypowego zachowania w sieciach. Przestępcy i ofensywni hakerzy również po nie sięgają, a wprowadzenie dużych modeli językowych takich jak ChatGPT sprawiło, że używanie AI do cyberataków stało się popularniejsze.
Korea Północna i Iran sięgały po ChatGPT
Microsoft zainwestował miliardy dolarów w OpenAI. Technologia może znacznie poprawiać produktywność, ale ma też swoje ciemne strony — wszystko zależy od tego, kto jej używa.
Niedawno pojawił się raport, według którego generatywna AI może wzmacniać działania związane ze złośliwą inżynierią społeczną. Prowadzi do bardziej zaawansowanych deepfake”ów czy klonowania głosu. To zagrożenie dla demokracji w roku, w którym ponad 50 krajów przeprowadzi wybory, potęgując dezinformację.
Oto niektóre przykłady podane przez Microsoft. W każdym przypadku stwierdzono, że wszystkie konta i zasoby generatywnej SI wymienionych grup zostały wyłączone:
— Północnokoreańska grupa cyberwywiadu znana jako Kimsuky wykorzystała modele do badania zagranicznych think tanków analizujących kraj oraz do generowania treści prawdopodobnie używanych w kampaniach hakerskich typu spearphishing.
— Irańska Gwardia Rewolucyjna wykorzystała duże modele językowe do pomocy w inżynierii społecznej, rozwiązywaniu błędów oprogramowania, a nawet w badaniu sposobów unikania wykrycia w skompromitowanej sieci. Obejmuje to generowanie e-maili phishingowych „w tym jednego udającego pochodzenie z międzynarodowej agencji rozwoju i innego próbującego zwabić prominentne feministki na stronę internetową na temat feminizmu”. AI pomaga przyspieszyć wysyłkę i zwiększyć liczbę e-maili.
— Rosyjska jednostka wywiadu wojskowego znana jako Fancy Bear wykorzystała modele do badań nad technologiami satelitarnymi i radarowymi, które mogą być związane z wojną na Ukrainie.
— Chińska grupa cyberwywiadu znana jako Aquatic Panda — która ma na celu szeroki zakres branż, wyższe uczelnie i rządy od Francji po Malezję — wchodziła w interakcje z modelami „w sposób sugerujący ograniczone badanie tego, jak LLM mogą zwiększyć ich operacje techniczne”.
— Chińska grupa Maverick Panda, która była celem amerykańskich kontraktorów obronnych wśród innych sektorów przez ponad dekadę, miała interakcje z dużymi modelami językowymi sugerujące, że oceniała ich skuteczność jako źródło informacji „na potencjalnie wrażliwe tematy, wysokiej rangi osoby, regionalną geopolitykę, wpływy USA i sprawy wewnętrzne”.
OpenAI również przestrzega
W osobnym poście opublikowanym w środę, OpenAI stwierdziło, że ich obecny model chatbota GPT-4 oferuje „tylko ograniczone, inkrementalne zdolności dla złośliwych zadań cyberbezpieczeństwa, poza tym, co jest już osiągalne za pomocą publicznie dostępnych narzędzi niezasilanych AI”.
Badacze cyberbezpieczeństwa spodziewają się, że to się zmieni.
W kwietniu ub.r. dyrektor U.S. Cybersecurity and Infrastructure Security Agency, Jen Easterly, powiedziała Kongresowi, że „są dwa epokowe zagrożenia i wyzwania. Jednym jest Chiny, a drugim sztuczna inteligencja”. Easterly stwierdziła wówczas, że USA muszą zapewnić, aby AI była tworzona z myślą o bezpieczeństwie.
Krytycy publicznego wydania ChatGPT w listopadzie 2022 roku — i kolejnych wydań przez konkurentów, w tym Google i Meta — twierdzą, że było to nierozważnie pośpieszne, biorąc pod uwagę, że bezpieczeństwo było w dużej mierze pomijane w rozwoju tych technologii.
— Oczywiście, że złoczyńcy używają dużych modeli językowych — ta decyzja została podjęta, gdy otwarto Puszczę Pandory — powiedział Amit Yoran, CEO firmy cyberbezpieczeństwa Tenable.
Autor: Kamil Gliński, dziennikarz Vault-Tech.pl
Czytaj dalej:
- ChatGPT ponownie online po „poważnej awarii”
- Fałszywe aplikacje ChatGPT zalewają sklepy z aplikacjami
- Cyberprzestępcy mogą wykorzystywać AI, aby podszywać się pod użytkowników
- Prawie 3 miliony osób dotkniętych atakiem ransomware na firmę oprogramowania medycznego
Dziękujemy, że przeczytałaś/eś nasz artykuł. Obserwuj Vault-Tech.pl w Wiadomościach Google, aby być na bieżąco.