Brytyjski organ nadzoru danych ostrzega firmy technologiczne przed obawami dotyczącymi ochrony danych związanych ze sztuczną inteligencją
Biuro brytyjskiej Komisji ds. Informacji (ICO) wydało ostrzeżenie dla firm technologicznych o przepisach dotyczących ochrony danych podczas opracowywania generatywnych modeli sztucznej inteligencji.

W związku z obawami dotyczącymi generatywnej ochrony danych AI, Biuro Komisji ds. Informacji w Wielkiej Brytanii (ICO) przypomina firmom technologicznym o przestrzeganiu przepisów o ochronie danych. Stało się to wkrótce po tym, jak włoski regulator prywatności danych zakazał korzystania z ChatGPT, zarzucając naruszenie prywatności.
ICO opublikowało post na blogu, w którym podkreśla, że przepisy dotyczące ochrony danych nadal obowiązują, nawet jeśli przetwarzane dane osobowe pochodzą z publicznie dostępnych zasobów. Stephen Almond, dyrektor ds. technologii i innowacji w ICO, wezwał organizacje rozwijające lub wykorzystujące generatywną sztuczną inteligencję do przyjęcia od samego początku podejścia do ochrony danych w fazie projektowania i domyślnej .
W swoim oświadczeniu Almond podkreślił, że organizacje pracujące z danymi osobowymi do generatywnych celów sztucznej inteligencji muszą rozważyć podstawę prawną przetwarzania danych osobowych. Muszą również rozważyć, w jaki sposób mogą zmniejszyć zagrożenia bezpieczeństwa i odpowiedzieć na indywidualne prośby o prawa. Almond twierdzi, że nie ma usprawiedliwienia dla lekceważenia implikacji generatywnej sztucznej inteligencji dla prywatności.
Oprócz ICO i włoskiego regulatora danych, inne znaczące postacie wyraziły swoje obawy dotyczące potencjalnych zagrożeń związanych z generatywną sztuczną inteligencją. W zeszłym miesiącu ponad 1100 liderów technologicznych, w tym współzałożyciel Apple Steve Wozniak i przedsiębiorca Elon Musk, wezwali do sześciomiesięcznej przerwy w rozwoju systemów AI silniejszych niż GPT-4 OpenAI. W liście otwartym sygnatariusze ostrzegali przed dystopijną przyszłością, kwestionując, czy zaawansowana sztuczna inteligencja może doprowadzić do utraty kontroli nad naszą cywilizacją i ewentualnych zagrożeń dla demokracji poprzez chatboty rozpowszechniające propagandę i fake newsy na platformach społecznościowych. Zgłosili również obawy dotyczące automatyzacji zadań AI, w tym wykonywania zadań.
Regulacje dotyczące sztucznej inteligencji stanowią wyjątkowe wyzwanie, ponieważ innowacje rozwijają się w szybkim tempie, wyprzedzając tempo środków regulacyjnych. Frank Buytendijk, analityk firmy Gartner, zwrócił uwagę, że zbyt szczegółowe przepisy mogą stracić na skuteczności wraz z postępem technologicznym, podczas gdy regulacje wysokiego szczebla mają problemy z przejrzystością. Wyraził opinię, że spadek zaufania i akceptacji społecznej wynikający z kosztownych błędów, a nie regulacji, może hamować innowacje w zakresie sztucznej inteligencji. Niemniej jednak przepisy dotyczące sztucznej inteligencji, które wymagają sprawdzania modeli pod kątem stronniczości i uczynienia algorytmów bardziej przejrzystymi, mogą napędzać innowacje w wykrywaniu stronniczości i osiąganiu przejrzystości i zrozumiałości, dodał Buytendijk.
W świetle tych obaw platformy programistyczne no-code i low-code, takie jak AppMaster, mają na celu uproszczenie tworzenia aplikacji, przy jednoczesnym priorytetowym traktowaniu ochrony danych, bezpieczeństwa i zgodności. Tworząc aplikacje backendowe, internetowe i mobilne bez generowania długu technicznego, użytkownicy mogą wydajnie opracowywać skalowalne rozwiązania programowe wraz z zapleczem serwerowym, witrynami internetowymi, portalami klientów i natywnymi aplikacjami mobilnymi. Przyjęcie odpowiedzialnego wykorzystania sztucznej inteligencji gwarantuje, że innowacje nie będą odbywać się kosztem prywatności i bezpieczeństwa, umożliwiając odpowiedzialny rozwój branży technologicznej.


