27 مارس 2023·1 دقيقة قراءة

منظم البيانات في المملكة المتحدة يحذر الشركات التقنية من المخاوف التوليدية لحماية بيانات الذكاء الاصطناعي </ h2>

أصدر مكتب لجنة المعلومات بالمملكة المتحدة (ICO) تحذيرًا لشركات التكنولوجيا بشأن قوانين حماية البيانات عند تطوير نماذج الذكاء الاصطناعي التوليدية. </ h2>

منظم البيانات في المملكة المتحدة يحذر الشركات التقنية من المخاوف التوليدية لحماية بيانات الذكاء الاصطناعي </ h2>

وسط مخاوف بشأن الحماية التوليدية لبيانات الذكاء الاصطناعي ، يصدر مكتب لجنة المعلومات بالمملكة المتحدة (ICO) تذكيرًا لشركات التكنولوجيا لدعم قوانين حماية البيانات. يأتي ذلك بعد فترة وجيزة من حظر منظم خصوصية البيانات في إيطاليا استخدام ChatGPT ، بدعوى انتهاك الخصوصية.

أصدر ICO منشور مدونة يؤكد للمؤسسات أن لوائح حماية البيانات لا تزال سارية ، حتى إذا كانت المعلومات الشخصية التي تتم معالجتها مصدرها الموارد المتاحة للجمهور. حث ستيفن ألموند ، مدير التكنولوجيا والابتكار في ICO ، المنظمات التي تطور أو تستخدم الذكاء الاصطناعي التوليدي على تبني حماية البيانات حسب التصميم والنهج الافتراضي منذ البداية.

شدد ألموند في بيانه على أن المنظمات التي تعمل مع البيانات الشخصية لأغراض إنشاء الذكاء الاصطناعي يجب أن تفكر في أساسها القانوني لمعالجة البيانات الشخصية. يجب عليهم أيضًا التفكير في كيفية تقليل المخاطر الأمنية ومعالجة طلبات الحقوق الفردية. يصر ألموند على أنه لا يوجد مبرر لإهمال آثار الخصوصية للذكاء الاصطناعي التوليدي.

إلى جانب ICO والمنظم الإيطالي للبيانات ، أعربت شخصيات بارزة أخرى عن مخاوفها بشأن المخاطر المحتملة للذكاء الاصطناعي التوليدي. في الشهر الماضي ، دعا أكثر من 1100 من قادة التكنولوجيا ، بما في ذلك المؤسس المشارك لشركة Apple ستيف وزنياك ورجل الأعمال إيلون ماسك ، إلى توقف لمدة ستة أشهر في تطوير أنظمة ذكاء اصطناعي أكثر فاعلية من GPT-4 الخاص بـ OpenAI. في خطاب مفتوح ، حذر الموقعون من مستقبل بائس ، تساءلوا عما إذا كان الذكاء الاصطناعي المتقدم يمكن أن يؤدي إلى فقدان السيطرة على حضارتنا والتهديدات المحتملة للديمقراطية من خلال برامج الدردشة التي تنشر الدعاية والأخبار المزيفة على منصات وسائل التواصل الاجتماعي. كما أثاروا مخاوف بشأن وظائف أتمتة الذكاء الاصطناعي ، بما في ذلك الوظائف التي تفي بالغرض.

يمثل تنظيم الذكاء الاصطناعي تحديًا فريدًا حيث يتحرك الابتكار بوتيرة سريعة ، متجاوزًا سرعة الإجراءات التنظيمية. أشار فرانك بويتينديك ، المحلل في شركة جارتنر ، إلى أن اللوائح المحددة بشكل مفرط يمكن أن تفقد فعاليتها بمجرد تقدم التكنولوجيا ، بينما تكافح اللوائح عالية المستوى مع الوضوح. ورأى أن تآكل الثقة والقبول الاجتماعي الناتج عن أخطاء مكلفة ، بدلاً من التنظيم ، يمكن أن يمنع ابتكار الذكاء الاصطناعي. ومع ذلك ، أضاف Buytendijk أن تنظيم الذكاء الاصطناعي الذي يتطلب فحص النماذج للتأكد من وجود تحيز وأن تكون الخوارزميات أكثر شفافية يمكن أن يدفع الابتكار لاكتشاف التحيز وتحقيق الشفافية وإمكانية الشرح.

في ضوء هذه المخاوف ، تهدف منصات التطوير no-codelow-code ، مثل AppMaster ، إلى تبسيط تطوير التطبيقات مع إعطاء الأولوية لحماية البيانات والأمان والامتثال. من خلال إنشاء الواجهة الخلفية والويب وتطبيقات الهاتف المحمول دون توليد دين تقني ، يمكن للمستخدمين تطوير حلول برمجية قابلة للتطوير بكفاءة كاملة مع خلفية الخادم ومواقع الويب وبوابات العملاء وتطبيقات الهاتف المحمول الأصلية. يضمن تبني الاستخدام المسؤول للذكاء الاصطناعي أن الابتكار لا يأتي على حساب الخصوصية والأمان ، مما يسمح لصناعة التكنولوجيا بالازدهار بمسؤولية.

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started