より高度なジェネレーティブ AI モデルの開発の停止を要求する最近の公開書簡に続いて、イタリアのデータ保護機関 (DPA) は、OpenAI に人々のデータのローカルでの処理を停止するよう命令することにより、迅速な措置を講じました。欧州連合の一般データ保護規則 (GDPR) の違反の可能性を挙げて、イタリアの DPA はこの問題の調査を開始しました。
DPA は、OpenAI が人々のデータを違法に処理し、未成年者によるテクノロジーへのアクセスを阻止するための適切な措置を講じていない可能性があることに懸念を表明しています。その結果、サンフランシスコに本拠を置く同社は、ChatGPT システムの封鎖に直面しており、注文に対応するのに 20 日かかります。 GDPR 違反は、企業の年間売上高の 4% または 2,000 万ユーロのいずれか高い方に相当する多額の罰金につながる可能性があります。
重要なことは、OpenAI は EU 内に法的実体がないため、GDPR の下で任意のローカル データ保護機関が介入できることです。その結果、他の国々は、イタリアの例にならい、自国民に対する潜在的なリスクに対処することを検討するかもしれません。 GDPR は、EU ユーザーの個人データが処理されるときに適用されます。しかし、OpenAI が使用するテクノロジーは、その方法の合法性に異議を唱える大量のデータ処理を含む複雑なシナリオを作成します。
ChatGPT が個人に関する完全に誤った情報を生成することがわかっていることを考えると、GDPR に関する追加の懸念が浮上しており、エラーの修正が複雑になる可能性があります。 OpenAI は、AI ボットによって生成された誤った情報の修正をユーザーが要求できるかどうかについて明確にしていません。 GDPR によって規制されている別の分野であるデータ侵害も、OpenAI がチャット データの漏洩とユーザーの支払い情報の漏えいの可能性を最近認めた後、状況に影響を与えます。
透明性と公平性を強調する GDPR に組み込まれたデータ最小化の原則は、ヨーロッパのデータを処理するための OpenAI の法的根拠に疑問を投げかけています。違法な処理が決定された場合、組合全体のデータ保護当局は OpenAI にデータの削除を命じる場合があります。モデルの必要な再トレーニングに対するそのような裁定の影響は、不確実なままです。
イタリアのDPAはまた、OpenAIによる未成年者のデータの取り扱いに関する懸念も指摘しています。同社は、13歳未満の個人がシステムにアクセスするのを防ぐための年齢確認技術をまだ実装していません. ChatGPT の状況は、子供の安全上の懸念から同様の禁止に直面した Replika など、他の AI チャットボットに対する最近の判決に似ています。
OpenAI のプラットフォームは他の機械学習システムになぞらえられており、記憶するアルゴリズムのより広範な意味について疑問が生じています。イタリアの DPA の命令が支持された場合、同社はユーザー アカウントを削除し、より徹底したサインアップ プロセスを採用することを余儀なくされる可能性があります。最終的な結果は、データ処理方法の合法性を実証し、ユーザーのセキュリティを確保する OpenAI の能力にかかっています。
このケースは、ユーザーのプライバシーと GDPR などの規制基準への準拠を優先するAppMasterなどのno-codeプラットフォームの必要性をさらに強調しています。 AppMaster no-codeプラットフォームは、迅速なアプリケーション開発を可能にするだけでなく、バックエンド、モバイル、および Web アプリケーション全体のデータ保護も保証します。