Na początku 2023 roku włoski Urząd Ochrony Danych Osobowych Garante zwrócił się do operatora chatbota AI Replika (firma OpenAI) z oficjalną prośbą o zaprzestanie przetwarzania danych osobowych obywateli ze skutkiem natychmiastowym. Oprogramowanie AI docelowo miało być „przyjacielem” do interakcji społecznych, jednak zdaniem organu ochrony bot przetwarzał dane osobowe dzieci bez ich wiedzy. Fakt ten wywołał lawinę zdarzeń, w wyniku których wraz z końcem 2023 roku Włosi utracili dostęp do aplikacji ChatGPT. Sprawa ta doskonale obrazuje, jak wiele trudności w kwestii ochrony danych osobowych niesie za sobą rozwój nowych technologii. Czy mimo to sztuczna technologia ma szansę stać się sprzymierzeńcem w ochronie naszych danych osobowych?

Czy sztuczna inteligencja kradnie nasze dane?

Sztuczna inteligencja to dzisiejsza rzeczywistość – trudno temu zaprzeczyć. W końcu nikt nie wyobraża sobie życia bez wyszukiwarki Google (jak podkreśla Nick Bostrom jest to największy współczesny system AI), która na dobre stała się źródłem naszej wiedzy. Za każdą wygodą kryje się jednak pytanie o cenę, jaką przychodzi nam za nią zapłacić, a w przypadku sztucznej inteligencji zwykle są nią… nasze dane.

Czy to oznacza, że AI kradnie nasze dane? Większość osób powie, że nie do końca – jest to przecież narzędzie działające na bazie algorytmów opracowanych przez człowieka. Problem jednak tkwi w sposobie, w jaki te algorytmy są projektowane, a także w praktykach firm, które je wdrażają. Wystarczy przytoczyć historię amerykańskiej firmy Equifax, która zajmuje się doradztwem kredytowym i analizą. W 2017 roku doszło do wycieku wrażliwych danych tej firmy, co dotknęło ponad 143 miliony obywateli i wywołało medialną burzę na całym świecie.

Jeśli chodzi z kolei o osoby prywatne, to tu ogromnym zagrożeniem może być automatyzacja pracy człowieka przez mechanizmy AI, jak np. zjawisko phishingu (wyłudzanie poufnych danych od użytkowników w Internecie). Jeszcze do niedawna kluczową rolę odgrywał tu człowiek, jednak dziś AI staje się do tego stopnia wiarygodne, że człowiek staje się zbędny. Co więcej, sztuczna inteligencja z powodzeniem zastępuje nie jednego, a miliony ludzi w tym samym czasie, prowadząc setki rozmów na czacie czy też mailowo. I to wszystko w taki sposób, byśmy myśleli, że rozmawia z nami człowiek.

Sztuczna inteligencja całkowicie podporządkowana pod RODO

Aby uniknąć sytuacji, o których wspomnieliśmy przed chwilą, już w październiku 2018 roku w Brukseli przeprowadzono konferencję Rzeczników Ochrony Danych Osobowych, którzy wspólnie opracowali nowe zasady dotyczące RODO i AI. Dotyczą one takich kwestii jak:

  • rzetelność – systemy AI powinny przetwarzać dane osobowe w sposób uczciwy i zgodny z prawem, zapewniając, że dane nie są wykorzystywane w sposób mogący zaszkodzić osobom, których dotyczą; 
  • rozliczalność – organizacje korzystające z AI muszą być w stanie wykazać, że przestrzegają przepisów RODO, co obejmuje dokumentowanie procesów przetwarzania danych oraz podejmowanie działań na rzecz ich ochrony;
  • przejrzystość – użytkownicy powinni być informowani o tym, w jaki sposób ich dane są przetwarzane przez systemy AI, w tym m.in. o celach przetwarzania, kategoriach danych oraz ewentualnych odbiorcach tych informacji;
  • uwzględnianie ochrony danych na etapie projektowania – ochrona danych osobowych powinna być integralną częścią procesu tworzenia i wdrażania systemów AI, co oznacza implementację odpowiednich środków bezpieczeństwa już na etapie projektowania technologii;
  • brak dyskryminacji – systemy AI muszą być projektowane w sposób zapobiegający dyskryminacji, zapewniając równe traktowanie wszystkich osób, niezależnie od ich cech osobistych;
  • zgoda na przetwarzanie danych – przetwarzanie danych osobowych przez AI powinno opierać się na wyraźnej i świadomej zgodzie użytkowników, którzy mają prawo do jej wycofania w dowolnym momencie;
  • profilowanie danych – jeśli systemy AI dokonują profilowania, czyli automatycznej oceny pewnych aspektów osobowych, użytkownicy powinni być o tym informowani oraz mieć możliwość wyrażenia sprzeciwu wobec takiego przetwarzania.

Przyjęcie powyższych zasad ma zapewnić, że rozwój i wykorzystanie AI odbywa się z poszanowaniem podstawowych praw oraz wolności osób, których dane są przetwarzane.Przypadek Włoch oraz firmy Equifax dobitnie pokazuje ryzyka związane z niekontrolowanym rozwojem sztucznej inteligencji (AI). Pamiętajmy jednak, że świat technologii nieustannie dąży do tego, by wzmacniać jej potencjał w kontekście ochrony naszej prywatności. Coraz częściej widzimy bowiem, że AI jest wykorzystywana do automatycznego wykrywania naruszeń danych, szyfrowania informacji w czasie rzeczywistym czy monitorowania dostępu do wrażliwych zasobów. Czy w tę stronę będzie dalej zmierzać rozwój tej technologii? Wszystko wskazuje na to, że tak, choć wiele zależy tu od stopnia przestrzegania regulacji prawnych, które wymuszają odpowiedzialne i transparentne wykorzystanie sztucznej inteligencji.