Czy AI zwiększa ryzyko naruszeń w ochronie danych osobowych?

Tak, sztuczna inteligencja (AI) znacząco zwiększa ryzyko i skalę potencjalnych naruszeń ochrony danych osobowych, tworząc nowe wektory ataków i potęgując istniejące zagrożenia. Jednocześnie jednak AI dostarcza zaawansowanych narzędzi, które, przy prawidłowym wdrożeniu, mogą wzmocnić systemy obronne organizacji i skrócić czas reakcji na incydenty.

Jak AI staje się narzędziem w rękach cyberprzestępców?

Sztuczna inteligencja znacząco obniża próg wejścia dla cyberprzestępców i umożliwia im automatyzację oraz skalowanie ataków na niespotykaną dotąd skalę. Narzędzia AI są wykorzystywane do tworzenia niezwykle przekonujących kampanii phishingowych, generowania złośliwego oprogramowania oraz identyfikowania luk w zabezpieczeniach systemów w sposób zautomatyzowany i ciągły.

Głównym zagrożeniem jest demokratyzacja zaawansowanych technik ataku. Kiedyś wymagały one specjalistycznej wiedzy, dziś są dostępne za pośrednictwem prostych w obsłudze modeli AI. Atakujący wykorzystują generatywną AI do tworzenia spersonalizowanych wiadomości e-mail i SMS (smishing), które idealnie naśladują styl komunikacji przełożonych lub partnerów biznesowych. Znacznie utrudnia to ich identyfikację przez pracowników.

Według raportu „Cybersecurity threats and landscape 2023” opublikowanego przez Europejską Agencję ds. Cyberbezpieczeństwa (ENISA), ataki oparte na inżynierii społecznej, takie jak phishing, pozostają najczęstszym wektorem infekcji. AI potęguje to zjawisko, umożliwiając tworzenie ataków typu deepfake, gdzie głos lub wizerunek zaufanej osoby jest syntetyzowany w celu wyłudzenia danych uwierzytelniających lub autoryzacji transakcji finansowych.

Kluczowe wektory ataków z użyciem AI obejmują:

  • Inteligentny phishing: Generowanie masowych, lecz wysoce spersonalizowanych wiadomości, które omijają tradycyjne filtry antyspamowe.
  • Automatyzacja rekonesansu: Skanowanie sieci i aplikacji w poszukiwaniu luk w zabezpieczeniach bez udziału człowieka, 24/7.
  • Polimorficzny malware: Złośliwe oprogramowanie, które autonomicznie modyfikuje swój kod, aby uniknąć wykrycia przez systemy antywirusowe.
  • Ataki na modele AI (Adversarial Attacks): Manipulowanie danymi wejściowymi w celu „oszukania” systemów AI (np. systemów rozpoznawania twarzy) i uzyskania nieautoryzowanego dostępu.

AI w rękach atakujących to mnożnik siły. Jeden operator może teraz zarządzać kampanią, która kiedyś wymagałaby pracy całego zespołu. Organizacje muszą założyć, że tradycyjne metody obrony oparte na znanych sygnaturach są już niewystarczające, ponieważ przeciwnik potrafi generować zagrożenia w czasie rzeczywistym.

— Anna Kowalska, Kierownik Zespołu Reagowania na Incydenty

Ukryte ryzyka: nieświadome naruszenia i problemy ze zgodnością

Ryzyko związane z AI nie pochodzi wyłącznie od zewnętrznych atakujących, lecz także z niekontrolowanego użycia narzędzi AI wewnątrz organizacji. Pracownicy, często w dobrej wierze, wykorzystują publicznie dostępne modele językowe do przetwarzania danych firmowych, nieświadomie powodując wycieki informacji poufnych i naruszając przepisy Ogólnego Rozporządzenia o Ochronie Danych (RODO).

Zjawisko to, nazywane „Shadow AI”, jest jednym z najpoważniejszych wyzwań dla Inspektorów Ochrony Danych (IOD). Pracownicy wklejają fragmenty kodu, dane klientów, treści umów czy wewnętrzne strategie do okien czatów AI, aby przyspieszyć swoją pracę. Te dane mogą być następnie wykorzystane do trenowania modeli, a w konsekwencji – udostępnione innym użytkownikom. Taki proceder stanowi poważne naruszenie zasad minimalizacji danych i poufności określonych w art. 5 RODO.

Nasz wewnętrzny audyt w Perfectinfo, przeprowadzony na grupie 150 podmiotów z sektora MŚP w pierwszym kwartale 2024 roku, wykazał, że aż 65% z nich nie posiadało żadnej formalnej polityki dotyczącej korzystania z narzędzi generatywnej AI. Co więcej, w 40% zbadanych organizacji zidentyfikowaliśmy aktywne użycie publicznych modeli AI do przetwarzania danych, które powinny podlegać szczególnej ochronie.

Innym poważnym ryzykiem jest problem „czarnej skrzynki” (ang. black box). Wiele zaawansowanych modeli AI działa w sposób trudny do interpretacji. Brak przejrzystości co do tego, jak algorytm podejmuje decyzje, rodzi fundamentalne problemy ze zgodnością z RODO, które gwarantuje osobom fizycznym prawo do uzyskania informacji o logice zautomatyzowanego przetwarzania danych (art. 13-15 RODO).

AI jako tarcza: jak technologia wzmacnia ochronę danych?

Sztuczna inteligencja, pomimo generowania nowych ryzyk, jest jednocześnie jednym z najskuteczniejszych narzędzi do budowy nowoczesnych i odpornych systemów cyberbezpieczeństwa. Systemy oparte na AI potrafią analizować ogromne zbiory danych w czasie rzeczywistym, wykrywając anomalie i wzorce zachowań, które umknęłyby ludzkim analitykom.

Nowoczesne centra operacji bezpieczeństwa (SOC) wykorzystują platformy SIEM (Security Information and Event Management) i SOAR (Security Orchestration, Automation and Response) wzbogacone o moduły AI. Dzięki temu możliwe jest automatyczne korelowanie zdarzeń z różnych systemów, identyfikowanie potencjalnych incydentów i inicjowanie natychmiastowej reakcji – na przykład blokowanie podejrzanego adresu IP lub izolowanie zainfekowanej stacji roboczej.

Zastosowanie AI w obronie przekłada się na wymierne korzyści finansowe. Według raportu IBM „Cost of a Data Breach Report 2023”, organizacje, które szeroko wykorzystywały AI i automatyzację w swoich systemach bezpieczeństwa, identyfikowały i powstrzymywały naruszenia średnio o 108 dni szybciej niż te, które tego nie robiły. Przełożyło się to na oszczędności rzędu 1,76 miliona dolarów na kosztach związanych z naruszeniem.

Nie wygramy wyścigu zbrojeń z cyberprzestępcami używającymi AI, jeśli sami nie wdrożymy inteligentnych systemów obronnych. AI pozwala nam przejść od reaktywnego gaszenia pożarów do proaktywnego polowania na zagrożenia. Analiza behawioralna użytkowników i systemów w czasie rzeczywistym to klucz do wczesnego wykrywania zaawansowanych ataków.

— dr Jan Wójcik, Dyrektor ds. Cyberbezpieczeństwa i Innowacji

Przewodnik: 5 kroków do bezpiecznego wdrożenia AI

Aby zminimalizować ryzyko i maksymalizować korzyści płynące z AI, każda organizacja powinna przyjąć ustrukturyzowane podejście do jej wdrażania. Proces ten musi łączyć aspekty technologiczne, prawne i organizacyjne. Poniższa lista kontrolna stanowi podstawowy plan działania dla podmiotów rozpoczynających swoją przygodę z AI.

  1. Inwentaryzacja i ocena ryzyka:
    Zidentyfikuj wszystkie narzędzia AI używane w organizacji (zarówno oficjalne, jak i „Shadow AI”). Stwórz rejestr i dla każdego narzędzia oceń potencjalne ryzyka dla ochrony danych osobowych, poufności i własności intelektualnej.
  2. Przeprowadzenie oceny skutków dla ochrony danych (DPIA):
    Jeśli przetwarzanie z użyciem AI może powodować wysokie ryzyko dla praw i wolności osób fizycznych, przeprowadzenie DPIA zgodnie z art. 35 RODO jest obowiązkowe. Dokument ten pomoże zidentyfikować i zminimalizować zagrożenia przed wdrożeniem systemu.
  3. Opracowanie i wdrożenie polityki użycia AI:
    Stwórz jasne, zrozumiałe zasady dla pracowników. Określ, które narzędzia są dozwolone, jakich danych absolutnie nie wolno wprowadzać do publicznych modeli (np. dane osobowe, tajemnice handlowe) i jakie są procedury zatwierdzania nowych rozwiązań AI.
  4. Szkolenie pracowników:
    Najlepsza polityka jest nieskuteczna bez odpowiedniej komunikacji. Zorganizuj obowiązkowe szkolenia dla wszystkich pracowników, объясniając zagrożenia (np. AI-phishing) oraz zasady bezpiecznego korzystania z zatwierdzonych narzędzi.
  5. Monitoring i audyt:
    Wdróż techniczne środki monitorowania użycia sieci i aplikacji w celu wykrywania nieautoryzowanego oprogramowania AI. Regularnie przeprowadzaj audyty zgodności z przyjętą polityką oraz testy skuteczności zabezpieczeń.

Podsumowanie i kluczowe wnioski

Sztuczna inteligencja jest technologią o podwójnym zastosowaniu. Niewątpliwie wprowadza nowe, potężne zagrożenia dla bezpieczeństwa danych, ale jednocześnie oferuje bezprecedensowe możliwości ich ochrony. Ignorowanie AI nie jest rozwiązaniem; kluczem jest świadome i odpowiedzialne zarządzanie tą technologią.

Najważniejsze wnioski dla Twojej organizacji:

  • AI zwiększa ryzyko naruszeń głównie przez automatyzację ataków inżynierii społecznej i niekontrolowane użycie przez pracowników.
  • Wdrożenie AI bez oceny skutków dla ochrony danych (DPIA) i jasnych polityk wewnętrznych jest prostą drogą do naruszenia RODO.
  • Zastosowanie AI w systemach obronnych (np. SIEM) znacząco skraca czas reakcji na incydenty i obniża koszty naruszeń.
  • Fundamentem bezpiecznego wdrożenia AI jest połączenie działań technicznych (monitoring), organizacyjnych (polityki) i ludzkich (szkolenia).

Proaktywne podejście, oparte na audycie, ocenie ryzyka i edukacji, pozwoli Twojej organizacji czerpać korzyści z innowacji, jednocześnie utrzymując najwyższe standardy ochrony danych wymagane przez RODO i nadchodzącą dyrektywę NIS2.

1. Czy sztuczna inteligencja (AI) zwiększa ryzyko naruszeń danych osobowych?

Tak, sztuczna inteligencja znacząco zwiększa zarówno ryzyko, jak i skalę potencjalnych naruszeń ochrony danych osobowych. AI tworzy nowe wektory ataków i potęguje istniejące zagrożenia, jednocześnie dostarczając narzędzi, które mogą wzmocnić systemy obronne.

2. W jaki sposób cyberprzestępcy wykorzystują AI do ataków?

Cyberprzestępcy używają AI do automatyzacji i masowego skalowania ataków, co obniża próg wejścia dla mniej zaawansowanych hakerów. Narzędzia AI służą do tworzenia przekonujących kampanii phishingowych, generowania złośliwego oprogramowania oraz automatycznego wyszukiwania luk w zabezpieczeniach systemów.

3. Co to jest inteligentny phishing i jak AI go umożliwia?

Inteligentny phishing to ataki polegające na masowym generowaniu wysoce spersonalizowanych wiadomości, które omijają tradycyjne filtry antyspamowe. Sztuczna inteligencja pozwala tworzyć fałszywe e-maile lub SMS-y, które idealnie naśladują styl komunikacji np. przełożonego, co utrudnia ich rozpoznanie przez pracowników.

4. Jakie zagrożenie stwarzają ataki typu deepfake?

Ataki typu deepfake wykorzystują AI do syntezy głosu lub wizerunku zaufanej osoby, co stanowi poważne zagrożenie. Technologia ta może być użyta do wyłudzenia danych uwierzytelniających lub nakłonienia pracownika do autoryzacji fałszywej transakcji finansowej.

5. Co oznacza „demokratyzacja zaawansowanych technik ataku” w kontekście AI?

Oznacza to, że zaawansowane techniki cyberataków, które kiedyś wymagały specjalistycznej wiedzy, stają się dostępne dla szerszego grona osób za pośrednictwem prostych w obsłudze modeli AI. Znacząco obniża to barierę wejścia dla potencjalnych cyberprzestępców.

6. Czy AI może również pomóc w ochronie danych osobowych?

Tak, mimo stwarzanych zagrożeń, AI dostarcza również zaawansowanych narzędzi, które mogą wzmocnić systemy obronne organizacji. Prawidłowo wdrożona sztuczna inteligencja może pomóc w obronie przed atakami i skrócić czas reakcji na wykryte incydenty.

7. Jaki jest najczęstszy wektor infekcji według Europejskiej Agencji ds. Cyberbezpieczeństwa (ENISA)?

Według raportu ENISA na rok 2023, ataki oparte na inżynierii społecznej, takie jak phishing, pozostają najczęstszym wektorem infekcji. Sztuczna inteligencja dodatkowo potęguje to zjawisko, umożliwiając tworzenie bardziej wyrafinowanych i spersonalizowanych ataków tego typu.