بعد خطاب مفتوح مؤخرًا يطالب بوقف تطوير نموذج الذكاء الاصطناعي الأكثر تقدمًا ، اتخذت هيئة حماية البيانات الإيطالية (DPA) إجراءات سريعة من خلال إصدار أوامر لـ OpenAI بالتوقف عن معالجة بيانات الأشخاص محليًا. نقلاً عن الانتهاكات المحتملة للائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR) ، بدأت إدارة الشؤون السياسية الإيطالية تحقيقًا في هذه المسألة.
أعربت DPA عن قلقها من أن OpenAI ربما عالج بيانات الأشخاص بشكل غير قانوني وفشلت في تنفيذ التدابير المناسبة لمنع القاصرين من الوصول إلى التكنولوجيا الخاصة بهم. نتيجة لذلك ، تواجه الشركة التي تتخذ من سان فرانسيسكو مقراً لها حظراً على نظام ChatGPT ولديها 20 يومًا للرد على الطلب. قد تؤدي انتهاكات القانون العام لحماية البيانات (GDPR) إلى فرض غرامات باهظة تصل إلى 4٪ من حجم المبيعات السنوي للشركة أو 20 مليون يورو ، أيهما أعلى.
الأهم من ذلك ، نظرًا لأن OpenAI تفتقر إلى كيان قانوني داخل الاتحاد الأوروبي ، يمكن لأي سلطة محلية لحماية البيانات التدخل بموجب اللائحة العامة لحماية البيانات (GDPR). وبالتالي ، قد تفكر دول أخرى في اتباع خطى إيطاليا لمعالجة المخاطر المحتملة على مواطنيها. ينطبق القانون العام لحماية البيانات (GDPR) عند معالجة البيانات الشخصية لمستخدمي الاتحاد الأوروبي. ومع ذلك ، فإن التكنولوجيا التي تستخدمها OpenAI تخلق سيناريوهات معقدة تتضمن كميات هائلة من معالجة البيانات التي تتحدى شرعية أساليبها.
تظهر مخاوف إضافية بشأن القانون العام لحماية البيانات (GDPR) ، نظرًا لأنه تم العثور على ChatGPT لتوليد معلومات خاطئة تمامًا عن الأفراد ، مما قد يؤدي إلى تعقيد تصحيح الأخطاء. لم تقدم OpenAI توضيحًا حول ما إذا كان يمكن للمستخدمين طلب تصحيحات للمعلومات غير الصحيحة التي ينتجها روبوت الذكاء الاصطناعي الخاص بهم. كما أن خرق البيانات ، وهو مجال آخر ينظمه القانون العام لحماية البيانات (GDPR) ، عامل أيضًا في الموقف ، بعد أن اعترفت شركة OpenAI مؤخرًا بتسريب بيانات الدردشة وربما كشف معلومات الدفع الخاصة بالمستخدمين.
مبادئ تقليل البيانات المضمنة في اللائحة العامة لحماية البيانات ، والتي تؤكد على الشفافية والإنصاف ، تشكك في الأساس القانوني لـ OpenAI لمعالجة البيانات الأوروبية. إذا تم تحديد المعالجة غير القانونية ، يجوز لسلطات حماية البيانات عبر الاتحاد أن تأمر OpenAI بحذف البيانات. لا تزال تداعيات مثل هذا الحكم على إعادة التدريب المطلوبة للنماذج غير مؤكدة.
يشير DPA الإيطالي أيضًا إلى مخاوف بشأن معالجة OpenAI لبيانات القاصرين. لم تطبق الشركة بعد تقنية التحقق من العمر لمنع الأفراد الذين تقل أعمارهم عن 13 عامًا من الوصول إلى نظامها. تشبه ظروف ChatGPT الأحكام الصادرة مؤخرًا ضد روبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي ، مثل Replika ، والتي واجهت حظراً مماثلاً بسبب مخاوف تتعلق بسلامة الأطفال.
تم تشبيه منصة OpenAI بأنظمة التعلم الآلي الأخرى ، مما أدى إلى طرح أسئلة حول الآثار الأوسع للخوارزميات التي تتذكرها. إذا تم تأييد طلب DPA الإيطالي ، فقد تضطر الشركة إلى حذف حسابات المستخدمين واعتماد عملية تسجيل أكثر شمولاً. ستتوقف النتيجة النهائية على قدرة OpenAI على إثبات قانونية أساليب معالجة البيانات الخاصة بها وضمان أمن مستخدميها.
تؤكد هذه الحالة أيضًا على ضرورة وجود منصات no-code مثل AppMaster ، والتي تعطي الأولوية لخصوصية المستخدم والامتثال للمعايير التنظيمية مثل القانون العام لحماية البيانات (GDPR). لا يتيح نظام AppMaster no-code يحتوي على رمز التطوير السريع للتطبيقات فحسب ، بل يضمن أيضًا حماية البيانات عبر التطبيقات الخلفية والجوال وتطبيقات الويب.