Według firmy zabezpieczającej Menlo Security nawet 55% danych, jakie trafiają do generatywnej AI, zawiera dane umożliwiające identyfikację konkretnej osoby. Z najnowszego raportu wynika, że sztuczna inteligencja nieszczególnie chroni tożsamość.
Menlo Security, firma zabezpieczająca, opublikowała raport dotyczący wpływu generatywnej sztucznej inteligencji na bezpieczeństwo. Przeanalizowała sposoby, w jakie pracownicy używają generatywnej AI i związane z tym ryzyko.
W ciągu ostatnich 30 dni aż 55% zdarzeń związanych z ochroną przed utratą danych dotyczyło prób wprowadzenia przez użytkowników danych umożliwiających identyfikację osoby do stron z generatywną AI. Za danymi umożliwiającymi identyfikację osoby na drugim miejscu znalazły się poufne dokumentacje, które stanowiły 40% prób.
Menlo Security ostrzega przed AI. Trzeba używać odpowiedzialnie
Raport ujawnił ryzyka bezpieczeństwa związane z przekształcającym się krajobrazem generatywnej AI.
Wklejanie danych wejściowych zmniejszyło się o 6%, ale próby te nadal często występują. Co więcej, próby przesyłania plików wzrosły o 80%. Te sposoby używania generatywnej AI stanowią ryzyko cyberbezpieczeństwa ze względu na prostotę i szybkość, z jaką można wprowadzać informacje, w tym listy klientów czy dane umożliwiające identyfikację konkretnej osoby.
Wiele organizacji jest świadomych tych ryzyk i pracuje nad zabezpieczeniem się przed wyciekiem danych. W ciągu ostatnich sześciu miesięcy polityki bezpieczeństwa dotyczące generatywnej AI wzrosły o 26% wśród organizacji. Wiele z tych polityk bezpieczeństwa jest ustalanych aplikacja po aplikacji, a nie poprzez stosowanie polityk we wszystkich aplikacjach generatywnej AI. Gdy polityki są wprowadzane aplikacja po aplikacji, organizacje ryzykują pojawieniem się luk w swoich systemach.
Kluczowe wnioski z raportu sugerują potrzebę środków bezpieczeństwa na poziomie każdej organizacji. Firmy powinny dokładnie analizować, jakie pliki czy dokumenty trafiają do modeli AI. I czy modele te mogą z nich korzystać do własnych celów. Zdecydowanie warto mieć też procedury związane z tym, jakich plików nie należy przesyłać do AI pod żadnym względem (np. danych klientów).
Pełna wersja raportu Menlo Security znajduje się pod tym adresem.
Czytaj też: