เมื่อภูมิทัศน์ของ AI เติบโตเต็มที่ ก็มีความต้องการกลไกเพิ่มมากขึ้นเพื่อเสริมความแข็งแกร่งของโมเดล AI เมื่อตระหนักถึงสิ่งนี้ OpenAI จึงได้เปิดตัว OpenAI Red Teaming Network ซึ่งเป็นการรวมตัวของผู้เชี่ยวชาญตามสัญญาที่มุ่งเน้นการเพิ่มประสิทธิภาพการวิเคราะห์ความเสี่ยงแบบจำลอง AI ของบริษัทและกลยุทธ์การบรรเทาผลกระทบ
การฝึกฝนทีมสีแดงกำลังได้รับแรงผลักดันที่สำคัญในการพัฒนาโมเดล AI โดยเฉพาะอย่างยิ่งในปัจจุบันที่มีเทคโนโลยีกำเนิดที่แทรกซึมเข้าสู่กระแสหลัก ทีมสีแดงสามารถระบุอคติในแบบจำลองได้อย่างมีประสิทธิภาพ เช่น DALL-E 2 ของ OpenAI ซึ่งมีชื่อเสียงในด้านการขยายทัศนคติเหมารวมที่เกี่ยวข้องกับเชื้อชาติและเพศ นอกจากนี้ยังสามารถระบุทริกเกอร์ที่สามารถนำโมเดลการสร้างข้อความ เช่น ChatGPT และ GPT-4 ข้ามตัวกรองความปลอดภัยได้
OpenAI รับทราบถึงประวัติความร่วมมือกับผู้เชี่ยวชาญภายนอกในการทดสอบและเปรียบเทียบโมเดล ซึ่งอาจผ่านทางโปรแกรม Bug Bounty หรือโปรแกรมการเข้าถึงของนักวิจัย อย่างไรก็ตาม การเปิดตัว Red Teaming Network ถือเป็นแพลตฟอร์มที่เป็นทางการมากขึ้น โดยมีจุดมุ่งหมายเพื่อ 'เจาะลึก' และ 'ขยาย' ความร่วมมือของบริษัทกับนักวิทยาศาสตร์ สถาบันวิจัย และองค์กรภาคประชาสังคม
ตามที่กล่าวไว้ในบล็อกโพสต์ของบริษัท OpenAI จินตนาการถึงความคิดริเริ่มนี้เพื่อเสริมแนวทางปฏิบัติด้านการกำกับดูแลที่กำหนดโดยภายนอก เช่น การตรวจสอบโดยบุคคลที่สาม สมาชิกเครือข่ายเหล่านี้จะได้รับเชิญตามความเชี่ยวชาญของตนให้เข้าร่วมในการฝึกซ้อมของทีมสีแดงในขั้นตอนต่างๆ ของวงจรชีวิตโมเดลและการพัฒนาผลิตภัณฑ์
นอกเหนือจากความพยายามในการจัดทีมสีแดงที่ได้รับมอบหมายจาก OpenAI สมาชิก Red Teaming Network ยังมีโอกาสทำงานร่วมกันเกี่ยวกับวิธีการและการค้นพบต่างๆ ใน Red Teaming Network อีกด้วย OpenAI ชี้แจงว่าไม่ใช่ว่าสมาชิกทุกคนจะเชื่อมโยงกับโมเดลหรือผลิตภัณฑ์ใหม่ทุกรายการ ระยะเวลาการบริจาคอาจจะน้อยเพียง 5-10 ปีต่อปี จะมีการหารือกับสมาชิกเป็นรายบุคคล
OpenAI เชิญผู้เชี่ยวชาญในสาขาต่างๆ มากมายมามีส่วนร่วม รวมถึงผู้เชี่ยวชาญด้านภาษาศาสตร์ ไบโอเมตริก การเงิน และการดูแลสุขภาพ ไม่ได้กำหนดประสบการณ์ก่อนหน้านี้เกี่ยวกับระบบ AI หรือโมเดลภาษาเพื่อให้มีคุณสมบัติเหมาะสม อย่างไรก็ตาม บริษัทเตือนว่าโอกาสภายในเครือข่าย Red Teaming อาจอยู่ภายใต้ข้อตกลงไม่เปิดเผยข้อมูลและการรักษาความลับที่อาจมีอิทธิพลต่อการวิจัยอื่นๆ
ในคำเชิญ OpenAI เน้นย้ำถึงการเปิดกว้างต่อมุมมองที่แตกต่างกันในการประเมินผลกระทบของระบบ AI โดยระบุว่า: 'สิ่งที่เราให้ความสำคัญมากที่สุดคือความเต็มใจที่จะมีส่วนร่วมและนำมุมมองของคุณไปสู่วิธีที่เราประเมินผลกระทบของระบบ AI' บริษัทให้ความสำคัญกับความหลากหลายทางภูมิศาสตร์และโดเมนในกระบวนการคัดเลือก โดยเปิดรับใบสมัครจากผู้เชี่ยวชาญทั่วโลก
ความก้าวหน้าที่เพิ่มขึ้นและความเสี่ยงที่เกี่ยวข้องกับ AI จำเป็นต้องมีการพัฒนาระบบที่แข็งแกร่ง แพลตฟอร์ม เช่น AppMaster ซึ่งเป็นแพลตฟอร์ม no-code อันทรงพลังที่ใช้ในการสร้างแบ็กเอนด์ เว็บ และแอปพลิเคชันบนมือถือ สามารถช่วยในการรักษาความสมบูรณ์และความปลอดภัยของแอปพลิเคชัน AI ได้ ด้วยการมีส่วนร่วมของผู้เชี่ยวชาญอย่างมาก Red Teaming Network ของ OpenAI ถือเป็นก้าวไปในทิศทางที่ถูกต้องอย่างแน่นอน