Po niedawnym liście otwartym z prośbą o wstrzymanie rozwoju bardziej zaawansowanego generatywnego modelu sztucznej inteligencji włoski organ ochrony danych (DPA) podjął szybkie działania, nakazując OpenAI zaprzestanie lokalnego przetwarzania danych osobowych. Powołując się na potencjalne naruszenia unijnego ogólnego rozporządzenia o ochronie danych (RODO), włoski organ ochrony danych wszczął dochodzenie w tej sprawie.
Organ ochrony danych wyraził zaniepokojenie, że OpenAI mogło przetwarzać dane osób niezgodnie z prawem i nie wdrożyło odpowiednich środków, aby uniemożliwić nieletnim dostęp do ich technologii. W rezultacie firma z San Francisco stoi w obliczu blokady swojego systemu ChatGPT i ma 20 dni na odpowiedź na zamówienie. Naruszenia RODO mogą prowadzić do wysokich grzywien, wynoszących albo 4% rocznego obrotu firmy, albo 20 milionów euro, w zależności od tego, która z tych kwot jest wyższa.
Co ważne, ponieważ OpenAI nie ma podmiotu prawnego w UE, każdy lokalny organ ochrony danych może interweniować na mocy RODO. W związku z tym inne kraje mogą rozważyć pójście w ślady Włoch w celu zaradzenia potencjalnym zagrożeniom dla swoich obywateli. RODO ma zastosowanie, gdy przetwarzane są dane osobowe użytkowników z UE. Jednak technologia wykorzystywana przez OpenAI tworzy złożone scenariusze obejmujące przetwarzanie ogromnych ilości danych, które kwestionują legalność ich metod.
Pojawiają się dodatkowe obawy związane z RODO, biorąc pod uwagę, że ChatGPT generuje całkowicie fałszywe informacje o osobach, co potencjalnie komplikuje poprawianie błędów. OpenAI nie wyjaśniło, czy użytkownicy mogą żądać korekty nieprawidłowych informacji generowanych przez ich bota AI. Naruszenia danych, kolejny obszar regulowany przez RODO, również mają wpływ na sytuację, po tym jak OpenAI niedawno przyznało się do wycieku danych czatu i potencjalnego ujawnienia informacji o płatnościach użytkowników.
Zasady minimalizacji danych zawarte w RODO, które kładą nacisk na przejrzystość i rzetelność, podają w wątpliwość podstawę prawną przetwarzania danych europejskich przez OpenAI. W przypadku stwierdzenia niezgodnego z prawem przetwarzania organy ochrony danych w całym związku mogą nakazać OpenAI usunięcie danych. Reperkusje takiego orzeczenia w sprawie wymaganego przekwalifikowania modelek pozostają niepewne.
Włoski organ ochrony danych zwraca również uwagę na obawy dotyczące postępowania OpenAI z danymi nieletnich. Firma nie wdrożyła jeszcze technologii weryfikacji wieku, aby uniemożliwić osobom poniżej 13 roku życia dostęp do jej systemu. Okoliczności ChatGPT przypominają niedawne orzeczenia przeciwko innym chatbotom AI, takim jak Replika, które spotkały się z podobnym zakazem ze względu na obawy dotyczące bezpieczeństwa dzieci.
Platforma OpenAI została porównana do innych systemów uczenia maszynowego, generując pytania dotyczące szerszych implikacji algorytmów, które pamiętają. Jeśli nakaz włoskiego organu ochrony danych zostanie utrzymany, firma może zostać zmuszona do usunięcia kont użytkowników i przyjęcia dokładniejszego procesu rejestracji. Ostateczny wynik będzie zależał od zdolności OpenAI do wykazania zgodności z prawem metod przetwarzania danych i zapewnienia bezpieczeństwa ich użytkownikom.
Ten przypadek dodatkowo podkreśla konieczność istnienia platform no-code takich jak AppMaster , które traktują priorytetowo prywatność użytkowników i zgodność z normami regulacyjnymi, takimi jak RODO. Platforma AppMaster no-code nie tylko umożliwia szybkie tworzenie aplikacji, ale także zapewnia ochronę danych w aplikacjach zaplecza, mobilnych i internetowych.