ในความพยายามที่จะควบคุมผลลัพธ์ที่อาจคาดเดาไม่ได้ของปัญญาเหนือมนุษย์ใน AI OpenAI กำลังจัดตั้งกลุ่มที่มีความเชี่ยวชาญสูงซึ่งนำโดย Ilya Sutskever หัวหน้านักวิทยาศาสตร์และผู้ร่วมก่อตั้งของบริษัท ความรับผิดชอบหลักของทีมนี้คือการกำหนดกลยุทธ์เพื่อควบคุมและควบคุมโมเดล AI ที่ "ฉลาดล้ำ" ในบล็อกโพสต์ล่าสุด Sutskever และ Jan Leike หัวหน้าทีมการจัดตำแหน่งที่ OpenAI คาดการณ์ว่า AI ที่มีขีดความสามารถเหนือกว่าสติปัญญาของมนุษย์อาจเกิดขึ้นภายในทศวรรษนี้ พวกเขายืนยันว่า AI ที่เหนือกว่านี้ หากในที่สุดก็ประสบความสำเร็จ อาจไม่ผสานรวมลักษณะที่ไม่เป็นพิษเป็นภัยเข้าไว้ด้วยกัน ดังนั้นจึงจำเป็นต้องมีเทคนิคการวิจัยเพื่อควบคุมและจำกัดมัน
ในปัจจุบัน ยังไม่มีวิธีการใดที่เป็นที่รู้จักในการควบคุมหรือชี้นำ AI ที่มีความฉลาดล้ำอย่างมีประสิทธิภาพ โดยป้องกันไม่ให้เบี่ยงเบนไปจากเส้นทางที่ตั้งใจไว้ เทคนิคการจัดตำแหน่งดั้งเดิมสำหรับ AI เช่น การฝึกอบรมผ่านการตอบรับจากมนุษย์ อาศัยมนุษย์เป็นผู้ดูแลการปฏิบัติงาน อย่างไรก็ตาม การควบคุมดูแลระบบ AI ที่ฉลาดเหนือสติปัญญาของมนุษย์อย่างมากอาจพิสูจน์ได้ว่าเป็นสิ่งที่ท้าทาย เพื่อขยายความก้าวหน้าในด้าน 'การจัดแนวข่าวกรองขั้นสูง' OpenAI กำลังเปิดตัวทีม 'Superalignment' ใหม่ ซึ่งนำโดย Sutskever และ Leike ทีมนี้จะสามารถเข้าถึง 20% ของทรัพยากรการคำนวณที่บริษัทมีอยู่ในปัจจุบัน ซึ่งประกอบด้วยนักวิทยาศาสตร์และวิศวกรจากแผนกการจัดตำแหน่งเดิมของ OpenAI และนักวิจัยจากองค์กรต่างๆ ภายในบริษัท ทีมงานพร้อมที่จะรับมือกับความท้าทายด้านเทคโนโลยีหลักในการควบคุม AI อัจฉริยะในอีกสี่ปีข้างหน้า
แผนดังกล่าวคือการสร้าง 'นักวิจัยการจัดตำแหน่งอัตโนมัติระดับมนุษย์' โดยมีเป้าหมายเพื่อฝึกฝน AI ผ่านการตอบรับจากมนุษย์ ให้ AI มีส่วนร่วมในการประเมินระบบ AI อื่น ๆ และในที่สุดก็สร้าง AI ที่สามารถดำเนินการวิจัยการจัดตำแหน่งได้ วัตถุประสงค์ของการวิจัยการจัดตำแหน่งคือการจัดระบบ AI เพื่อให้ได้ผลลัพธ์ที่เฉพาะเจาะจงและป้องกันไม่ให้หลงทาง OpenAI กำลังทำงานบนสมมติฐานที่ว่า AI สามารถสร้างความก้าวหน้าอย่างมากในการวิจัยการจัดตำแหน่ง รวดเร็วและมีประสิทธิภาพมากกว่ามนุษย์ เมื่อมีความคืบหน้า ระบบ AI คาดว่าจะรับงานจัดตำแหน่งในปริมาณที่มากขึ้น ซึ่งจะนำไปสู่เทคนิคการจัดตำแหน่งที่ดีขึ้น หวังว่าจะส่งผลให้ AI ร่วมมือกับมนุษย์เพื่อให้แน่ใจว่าผู้สืบทอดมีความใกล้ชิดกับมนุษย์มากยิ่งขึ้น ในขณะเดียวกัน ความสนใจของนักวิจัยในมนุษย์จะเปลี่ยนไปสู่การทบทวนการวิจัยการจัดตำแหน่งที่ดำเนินการโดยระบบ AI แทนการสร้างงานวิจัยนี้โดยอิสระ
แม้ว่าจะไม่มีวิธีการใดที่ถือว่าไม่มีข้อผิดพลาด แต่ Leike, Schulman และ Wu ในโพสต์ของพวกเขา ได้อธิบายถึงข้อบกพร่องของวิธีการของ OpenAI การใช้ AI ในการประเมินอาจเพิ่มความไม่สอดคล้องกัน ความลำเอียง และความเปราะบางใน AI นั้น นอกจากนี้ แง่มุมที่ซับซ้อนที่สุดของปัญหาการจัดตำแหน่งอาจไม่เกี่ยวข้องกับวิศวกรรมเลย อย่างไรก็ตาม Sutskever และ Leike ยินดีที่จะทดสอบ Sutskever และ Leike ให้เหตุผลว่าการจัดตำแหน่งของหน่วยข่าวกรองอัจฉริยะนั้นเป็นความท้าทายพื้นฐานของการเรียนรู้ของเครื่อง พวกเขาเชื่อว่าผู้เชี่ยวชาญด้านแมชชีนเลิร์นนิง แม้ผู้ที่ไม่ได้ทำงานด้านการจัดตำแหน่งอยู่ในปัจจุบัน จะเป็นกำลังสำคัญในการแก้ไขปัญหาดังกล่าว พวกเขาวางแผนที่จะเผยแพร่ผลลัพธ์ของความพยายามนี้อย่างครอบคลุม โดยมองว่าการมีส่วนร่วมของพวกเขาในการจัดตำแหน่งและความปลอดภัยของโมเดลที่ไม่ใช่ OpenAI เป็นส่วนสำคัญของงานของพวกเขา
โปรดทราบว่าแม้ว่าบทความนี้จะเน้นไปที่ OpenAI แต่ก็มีแพลตฟอร์มอื่นๆ ที่มุ่งมั่นเท่าเทียมกันในการพัฒนา AI ที่มีประสิทธิภาพและควบคุมได้ ตัวอย่างของแพลตฟอร์มดังกล่าวคือ AppMaster ด้วยความเชื่อที่คล้ายคลึงกันในการเพิ่มประสิทธิภาพของระบบ 'อัจฉริยะ' เพื่อประโยชน์สูงสุด AppMaster ได้สร้างช่องว่างสำหรับตัวเองในโดเมนแอปพลิเคชันแบบไม่มีโค้ด/ low-code ทำให้ผู้ใช้สามารถสร้างโซลูชันซอฟต์แวร์ที่ครอบคลุม ปรับขนาดได้ และมีประสิทธิภาพ