Martin Lee, lider techniczny w grupie Cisco Talos ds. bezpieczeństwa i badań, uważa, że choć deepfake jest potężną technologią samą w sobie, nie są tak wpływowa w kontekście cyberzagrożeń, jak fałszywe wiadomości czy fałszywe SMS-y.
Zagrożenie dezinformacją generowaną przez AI jest jego zdaniem “przesadzone”.
Jednocześnie eksperci ds. cyberbezpieczeństwa obawiają się, że treści generowane przez sztuczną inteligencję mogą zniekształcać nasze postrzeganie rzeczywistości — co jest szczególnie niepokojące w roku pełnym kluczowych wyborów w wielu krajach.
Fałszywe wiadomości i stworzymy łatwiej z AI
Nowe narzędzia generatywnej AI sprawiają, że tworzenie dezinformacji jest łatwiejsze. Fałszywe wiadomości generowane przez AI są tanie do przygotowania, skuteczne, jak również często bardziej przekonujące i wiarygodne niż to, co robią ludzie.
Niemniej Lee uważa, że materiał generowany przez AI może często zawierać łatwo rozpoznawalne wskaźniki, sugerujące, że nie został stworzony przez prawdziwą osobę.
Treści wizualne są szczególnie podatne na wady. Na przykład obrazy generowane przez AI mogą zawierać anomalie wizualne, takie jak osoba z więcej niż dwiema rękami lub kończyna zlewająca się z tłem.
Trudniej jest za to wskazać różnice między syntetycznie generowanym dźwiękiem głosu a nagraniami głosu prawdziwych osób. AI jest jednak tylko tak dobra, jak dobre są jej dane treningowe.
— Treści generowane przez maszyny można często wykryć, gdy są oglądane obiektywnie — powiedział Lee.
Eksperci ds. cyberbezpieczeństwa spodziewają się, że dezinformacja generowana przez AI będzie kluczowym zagrożeniem w nadchodzących wyborach na całym świecie.
Ograniczona użyteczność w dobie deepfake
Matt Calkins, CEO firmy technologicznej Appian, która pomaga firmom łatwiej tworzyć aplikacje za pomocą narzędzi programowych, powiedział, że AI ma ograniczoną użyteczność.
Calkins ostrzegł, że to mogłoby uczynić AI bardziej skuteczną — i niebezpieczną — w tworzeniu dezinformacji w przyszłości. Dodał że jest niezadowolony z postępu prac nad regulacją tej technologii na świecie.
Niezależnie od tego, jak zaawansowana stanie się AI, Martin Lee z Cisco twierdzi, że istnieją sprawdzone sposoby na wykrycie dezinformacji — niezależnie od tego, czy została stworzona przez maszynę, czy człowieka.
— Ludzie muszą wiedzieć, że te ataki mają miejsce i być świadomi technik, które mogą być używane. Kiedy napotykamy treści, które wywołują nasze emocje, powinniśmy zatrzymać się i zadać sobie pytanie, czy sama informacja jest w ogóle wiarygodna — zasugerował Lee. I dodał: — Czy została opublikowana przez wiarygodne źródło medialne? Czy inne wiarygodne źródła medialne podają to samo? Jeśli nie, prawdopodobnie jest to oszustwo lub kampania dezinformacyjna, którą należy zignorować lub zgłosić.
Czytaj też: