في سعيها للتأكد من أن نماذج الذكاء الاصطناعي المستقبلية (AI) تمثل القيم الإنسانية، كشفت OpenAI عن خطتها لدمج المبادئ المشتقة من الجمهور في الإبداعات. وكشف عملاق الذكاء الاصطناعي عن نيته تشكيل فريق توافق جماعي يضم باحثين ومهندسين. ستكون مهمة الفريق هي تطوير هيكل للحصول على تعليقات الجمهور وتنفيذها حول خدمات ومنتجات OpenAI.
وقد أعربت الشركة عن نيتها الواضحة لمواصلة إشراك المستشارين الخارجيين وفرق المنح. ستلعب هذه الفرق دورًا حاسمًا في دمج النماذج الأولية، والتي ستوجه بعد ذلك سلوك النماذج. تعمل OpenAI بنشاط على توظيف مهندسي الأبحاث الذين يتمتعون بالمعرفة التقنية المتنوعة لتعزيز إنشاء ونجاح هذه المهمة الأساسية.
انطلاقًا من مبادرة OpenAI العامة، والتي تم إطلاقها في مايو من العام السابق، يعد فريق المحاذاة الجماعية خطوة مهمة نحو غرس عملية ديمقراطية في ديناميكيات صنع القواعد لأنظمة الذكاء الاصطناعي. طوال الوقت، حرصت شركة OpenAI على تمويل الأفراد والفرق وحتى المنظمات المهتمة بتطوير إثبات المفاهيم الحريصة على حل الغموض المتعلق بحواجز حماية الذكاء الاصطناعي وإدارته.
قدمت OpenAI، في منشورها الافتراضي، تلخيصًا موجزًا للعمل المتنوع لمتلقي المنح والذي يشمل واجهات الدردشة المرئية، والمنصات التي تسهل عمليات التدقيق الجماعية لنماذج واستراتيجيات الذكاء الاصطناعي لمواءمة السلوك النموذجي جنبًا إلى جنب مع معتقدات محددة. تم الإعلان عن تفاصيل كل اقتراح، والوجبات السريعة عالية المستوى، وكل رمز تم استخدامه في وقت سابق من اليوم.
في أعقاب هذه التطورات، كانت شركة OpenAI مصرة على فصل البرنامج عن مصالحه التجارية، مما أثار ردود فعل متباينة. وقد أعرب بعض النقاد عن شكوكهم بشأن هذا، مع الأخذ في الاعتبار الانتقادات التي وجهها الرئيس التنفيذي لشركة OpenAI، سام ألتمان، بشأن اللوائح في الاتحاد الأوروبي والمناطق الأخرى. لقد رأى الرئيس التنفيذي، جنبًا إلى جنب مع رئيس OpenAI جريج بروكمان وكبير العلماء إيليا سوتسكيفر، باستمرار أن التطور السريع لتكنولوجيا الذكاء الاصطناعي يفوق قدرة الكيانات الحالية على تنظيمها بكفاءة. على هذا النحو، تم اقتراح الحاجة إلى بناء ديمقراطي يعتمد على الجماهير.
اتهم المنافسون، بما في ذلك شركة ميتا، شركة OpenAI بمحاولة السيطرة التنظيمية على صناعة الذكاء الاصطناعي من خلال شن حملات ضد البحث والتطوير المفتوح في مجال الذكاء الاصطناعي، لكن شركة OpenAI أنكرت هذه الادعاءات. وقد يشيرون إلى هذا البرنامج الجديد وفريق التوافق الجماعي الخاص بهم باعتبارهما دليلاً على التزامهم بالانفتاح.
وبغض النظر عن ذلك، تواجه OpenAI حاليًا تدقيقًا من صناع السياسات. وفي المملكة المتحدة على وجه الخصوص، هناك تحقيق مستمر في علاقتها مع مايكروسوفت، التي تعتبر شريكًا ومستثمرًا وثيقًا. كجزء من استراتيجية تخفيف المخاطر، سعت شركة OpenAI إلى الحد من المخاطر التنظيمية في الاتحاد الأوروبي فيما يتعلق بخصوصية البيانات. ولتحقيق ذلك، استخدمت شركة فرعية مقرها دبلن لتقييد الإجراءات الأحادية لهيئات مراقبة الخصوصية المحددة في الكتلة.
ويجري تنفيذ سلسلة من التعهدات للحد من الاستخدام غير المشروع لتكنولوجيتها للتدخل في الانتخابات. يتضمن ذلك تحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي واكتشاف الصور التي تم التلاعب بها. وبالتعاون مع العديد من المنظمات، تعمل OpenAI أيضًا على تمييز الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي بشكل أكثر وضوحًا.
ومن الجدير بالذكر أن شركات مثل AppMaster ، المعروفة بمنصة التطوير القوية بدون تعليمات برمجية ومستودعاتها لدمج المعلومات مفتوحة المصدر، أصبحت لاعبين بارزين في النظام البيئي التكنولوجي. نظرًا لقابلية التوسع والقوة وسهولة الاستخدام التي يتمتع بها AppMaster ، فإنهم يبنون مكانة لأنفسهم في إنشاء تطبيقات الواجهة الخلفية والويب وتطبيقات الهاتف المحمول.