Zdarzenie ujawniono, aby zwiększyć świadomość na temat zagrożeń bezpieczeństwa opartych na treściach deepfake. LastPass to jednocześnie firma z sektora cybersecurity, oferująca m.in. menedżery haseł.

LastPass padła ofiarą ataku nieznanych cyberprzestępców próbujących włamać się do jej systemów. Hakerzy stosują nowe taktyki z wykorzystaniem algorytmów sztucznej inteligencji, sklonowanych głosów i socjotechniki.

Nieuczciwi aktorzy zaatakowali pracownika LastPass za pomocą fałszywych wiadomości na WhatsApp, idąc tak daleko, że stworzyli audio deepfake dyrektora generalnego firmy, Karima Toubba. Ten cyfrowy sobowtór, który według LastPass prawdopodobnie został stworzony przy użyciu AI, wykazywał wymuszoną pilność, która zazwyczaj towarzyszy tradycyjnym próbom inżynierii społecznej.

Czytaj: Jak sprawdzić logi na routerze

LastPass wyjaśnił, że anonimowy pracownik otrzymał kilka telefonów, wiadomości tekstowych i co najmniej jeden materiał audio deepfake z fałszywego konta Toubby. Próby komunikacji odbywały się poza tradycyjnymi kanałami biznesowymi, a pracownik miał wystarczająco dużo rozsądku, by zignorować prośby i zgłosić incydent wewnętrznemu zespołowi ds. bezpieczeństwa.

LastPass na celowniku hakerów

Zespół ds. bezpieczeństwa poradził sobie z próbą włamania i nie miał ona rzeczywistego wpływu na firmę. LastPass publicznie podzielił się informacją o incydencie, aby zwiększyć świadomość nowych taktyk inżynierii społecznej wykorzystujących treści deepfake.

Sprawdź: Najlepszy serwer DNS

To, co wcześniej było dostępne tylko dla cyberprzestępców na poziomie państwowym z największymi budżetami, jest teraz coraz bardziej dostępne dla “zwykłych” cyberprzestępców. Kampanie oszustw wykorzystujące podszywanie się pod role kierownicze nie są już takie rzadkie.

Jakość audio deepfake uległa poprawie, a technologia oparta na AI potrzebna do ich tworzenia staje się łatwo dostępna dzięki licznym aplikacjom i stron internetowych, z których nawet początkujący mogą korzystać. Istnieją też np. aplikacje do rozbierania kobiet ze zdjęć — to kolejne nietypowe zagrożenie.

Sprawdź: Inżynieria wsteczna

LastPass wskazał na kilka głośnych incydentów odkrytych niedawno, gdzie firmy padły ofiarą przekonujących fałszywek generowanych przez AI, które skłoniły je do przekazania pieniędzy oszustom.

Co zrobić z takimi fake’ami?

Zgłoszenia o wysoce zaawansowanych audio lub wideo deepfake są rzadkie, ale sytuacja może się pogorszyć, ponieważ AI ewoluuje i doskonali się w szybkim tempie. Ostatnie incydenty fałszywych treści, dotyczące Białego Domu, zmusiły FCC do interwencji.

Tymczasem firmy technologiczne zgodziły się proaktywnie zwalczać treści generowane przez AI, aby uniknąć znaczących zakłóceń w amerykańskich wyborach prezydenckich w 2024 r.

Autor: Kamil Gliński, dziennikarz Vault-Tech.pl

Kamil Gliński wykazuje się głęboką wiedzą i doświadczeniem w dziedzinie cyberbezpieczeństwa, co jest kluczowe dla ochrony danych i systemów w dynamicznie zmieniającym się środowisku cyfrowym. Jego umiejętność identyfikowania potencjalnych zagrożeń i stosowania najnowszych technologii ochrony sprawiają, że jest cenionym ekspertem. Ponadto jego zaangażowanie w ciągłe doskonalenie umiejętności i aktualizowanie wiedzy o nowych zagrożeniach oraz rozwiązaniach w cyberbezpieczeństwie podkreśla profesjonalizm w zapewnianiu wysokiego poziomu bezpieczeństwa. Współpracuje z Vault-Tech.pl od samego początku istnienia serwisu.

Czytaj też: