20 مارس 2023·2 دقيقة قراءة

زيادة تنظيم منظمة العفو الدولية: ما تحتاج الشركات إلى معرفته وكيفية الإعداد </ h2>

مع إنهاء الاتحاد الأوروبي لقانون الذكاء الاصطناعي وتطور المشهد التنظيمي العالمي للذكاء الاصطناعي ، يجب على الشركات الاستعداد للوائح منظمة العفو الدولية الأكثر صرامة التي تؤثر على عملياتها. </ h2>

زيادة تنظيم منظمة العفو الدولية: ما تحتاج الشركات إلى معرفته وكيفية الإعداد </ h2>

يستعد مشهد الذكاء الاصطناعي (AI) والتعلم الآلي (ML) لتحول كبير ، حيث تظهر الأطر التنظيمية لتقديم إرشادات واضحة حول تطوير تقنيات الذكاء الاصطناعي وتنفيذها. بينما يضع الاتحاد الأوروبي اللمسات الأخيرة على قانون الذكاء الاصطناعي الخاص به ويستمر الذكاء الاصطناعي التوليدي في التطور السريع ، يجب على الشركات في جميع أنحاء العالم الاستعداد للوائح منظمة العفو الدولية الأكثر صرامة التي ستؤثر على عملياتها ومنتجاتها وخدماتها.

لفهم الشكل الذي قد يبدو عليه تنظيم الذكاء الاصطناعي للشركات في المستقبل القريب بشكل أفضل ، يمكننا دراسة السمات الرئيسية لقانون الاتحاد الأوروبي للذكاء الاصطناعي ، والتأثيرات المحتملة للتوسع العالمي للوائح الذكاء الاصطناعي ، والاستراتيجيات التي يجب أن تتبناها المنظمات للاستعداد لها. تغير الزمن.

قانون الاتحاد الأوروبي للذكاء الاصطناعي وانعكاساته العالمية

من المقرر إجراء تصويت برلماني بحلول نهاية مارس 2023 ، من المتوقع أن يضع قانون الاتحاد الأوروبي للذكاء الاصطناعي معيارًا عالميًا لتنظيم الذكاء الاصطناعي ، تمامًا كما فعلت اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي في عام 2018. إذا تم الالتزام بالجدول الزمني ، يمكن اعتماد قانون الذكاء الاصطناعي بحلول نهاية العام.

على الرغم من كونه لائحة أوروبية ، فمن المرجح أن يمتد تأثير قانون الذكاء الاصطناعي إلى ما هو أبعد من الاتحاد الأوروبي. سيؤدي ما يسمى بـ "تأثير بروكسل" إلى إجبار المنظمات العاملة على نطاق دولي على الامتثال للتشريع ، بينما ستجد الشركات الأمريكية وغيرها من الشركات المستقلة أن من مصلحتها الالتزام بشروطه. تشير التحركات الأخيرة ، مثل اقتراح قانون الذكاء الاصطناعي والبيانات الكندي وتنظيم التوظيف الآلي لمدينة نيويورك ، إلى هذا الاتجاه نحو اعتماد لوائح الذكاء الاصطناعي خارج أراضي الاتحاد الأوروبي.

فئات مخاطر نظام الذكاء الاصطناعي بموجب قانون الذكاء الاصطناعي

يقترح قانون الذكاء الاصطناعي ثلاث فئات للمخاطر لأنظمة الذكاء الاصطناعي ، كل منها مصحوبة بمجموعة من الإرشادات والنتائج الخاصة بها:

  1. مخاطر غير مقبولة: سيتم حظر أنظمة الذكاء الاصطناعي في هذه الفئة. وهي تشمل أنظمة تلاعب يمكن أن تسبب ضررًا ، وأنظمة تحديد الهوية البيومترية في الوقت الفعلي المستخدمة في الأماكن العامة لإنفاذ القانون ، وجميع أشكال التسجيل الاجتماعي.
  2. مخاطر عالية: تغطي هذه الفئة أنظمة الذكاء الاصطناعي مثل نماذج فحص المتقدمين للوظائف ، والتي ستخضع لمتطلبات قانونية محددة.
  3. مخاطر محدودة ومحدودة: تندرج العديد من تطبيقات الذكاء الاصطناعي المستخدمة حاليًا من قبل الشركات (بما في ذلك روبوتات الدردشة وأدوات إدارة المخزون المدعومة بالذكاء الاصطناعي) ضمن هذه الفئة وستظل إلى حد كبير غير منظمة. ومع ذلك ، ستتطلب التطبيقات المحدودة المخاطر التي تواجه العملاء الإفصاح عن استخدام الذكاء الاصطناعي.

لائحة منظمة العفو الدولية: ما يمكن توقعه

نظرًا لأن قانون الذكاء الاصطناعي لا يزال قيد المسودة وتأثيراته العالمية غير محددة ، فإن الطبيعة الدقيقة لتنظيم الذكاء الاصطناعي للمنظمات لا تزال غير مؤكدة. ومع ذلك ، من المحتمل أن يعتمد تأثيرها على الصناعة ونوع النموذج الذي يتم تطويره وفئة المخاطر التي تنتمي إليها.

قد تستلزم اللوائح التدقيق من قبل طرف ثالث يقوم باختبار الإجهاد لنماذج الذكاء الاصطناعي مقابل السكان المستهدفين المستهدفين. ستقيم هذه الاختبارات عوامل مثل أداء النموذج ، هوامش الخطأ ، والكشف عن طبيعة النموذج واستخدامه.

بالنسبة للمؤسسات التي لديها أنظمة ذكاء اصطناعي عالية المخاطر ، قدم قانون الذكاء الاصطناعي بالفعل قائمة بالمتطلبات ، بما في ذلك أنظمة إدارة المخاطر ، وإدارة البيانات وإدارتها ، والتوثيق الفني ، وحفظ السجلات ، والشفافية ، والرقابة البشرية ، والدقة ، والمتانة ، والأمن السيبراني ، وتقييم المطابقة. والتسجيل لدى حكومات الدول الأعضاء في الاتحاد الأوروبي وأنظمة مراقبة ما بعد السوق. بالإضافة إلى ذلك ، من المتوقع أن يصبح اختبار موثوقية صناعة الذكاء الاصطناعي (على غرار الفحوصات الإلكترونية للسيارات) أكثر انتشارًا.

التحضير للوائح منظمة العفو الدولية

من المرجح أن ينجح قادة الذكاء الاصطناعي الذين يعطون الأولوية للثقة وتخفيف المخاطر عند تطوير نماذج تعلم الآلة في مواجهة لوائح الذكاء الاصطناعي الجديدة. لضمان الاستعداد لأنظمة الذكاء الاصطناعي الأكثر صرامة ، يجب على المؤسسات مراعاة الخطوات التالية:

  1. بحث وتثقيف الفرق حول اللوائح المحتملة وتأثيراتها على شركتك الآن وفي المستقبل.
  2. تدقيق النماذج الحالية والمخطط لها لتحديد فئات المخاطر واللوائح ذات الصلة التي ستؤثر عليها بشكل أكبر.
  3. تطوير واعتماد إطار عمل لتصميم حلول ذكاء اصطناعي مسؤولة.
  4. فكر في استراتيجية تخفيف مخاطر الذكاء الاصطناعي لكل من النماذج الحالية والمستقبلية ، مع مراعاة الإجراءات غير المتوقعة.
  5. إنشاء استراتيجية حوكمة وتقارير للذكاء الاصطناعي ، مما يضمن إجراء عمليات تحقق متعددة قبل بدء تشغيل النموذج.

مع قانون الذكاء الاصطناعي واللوائح القادمة التي تشير إلى حقبة جديدة لتصميم الذكاء الاصطناعي ، لم يعد الذكاء الاصطناعي الأخلاقي والعادل مجرد "ممتع" بل "يجب أن يكون". من خلال التحضير الاستباقي لهذه التغييرات ، يمكن للمؤسسات احتضان عالم تنظيم الذكاء الاصطناعي والاستفادة من الإمكانات الكاملة لهذه التكنولوجيا سريعة التطور. علاوة على ذلك ، يمكن للشركات استخدام منصات قوية no-code مثل AppMaster لتسريع تطورات الذكاء الاصطناعي مع ضمان الامتثال للوائح الناشئة.

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started
زيادة تنظيم منظمة العفو الدولية: ما تحتاج الشركات إلى معرفته وكيفية الإعداد </ h2> | AppMaster