ความก้าวหน้าอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) และภัยคุกคามที่อาจเกิดขึ้นทำให้ผู้ก่อตั้ง OpenAI เรียกร้องให้มีหน่วยงานกำกับดูแลระหว่างประเทศเพื่อควบคุมการพัฒนา AI เช่นเดียวกับสำนักงานพลังงานปรมาณูระหว่างประเทศ (IAEA) สำหรับพลังงานนิวเคลียร์ Sam Altman ผู้ก่อตั้ง OpenAI, ประธาน Greg Brockman และหัวหน้านักวิทยาศาสตร์ Ilya Sutskever กล่าวว่านวัตกรรมใน AI กำลังเกิดขึ้นอย่างรวดเร็วจนหน่วยงานกำกับดูแลที่มีอยู่ไม่สามารถควบคุมเทคโนโลยีได้อย่างมีประสิทธิภาพ
แม้ว่าพวกเขาจะรับทราบความสำเร็จของพวกเขา แต่ผู้ก่อตั้ง OpenAI ก็ตระหนักดีว่าเทคโนโลยี AI ที่อยู่เบื้องหลังตัวแทนการสนทนา ChatGPT ที่ได้รับความนิยมอย่างแพร่หลายนำเสนอทั้งความเสี่ยงที่ไม่เหมือนใครและผลประโยชน์ที่สำคัญ พวกเขาเชื่อว่า AI จะต้องการการประสานงานในระดับหนึ่งระหว่างกลุ่มพัฒนาชั้นนำเพื่อให้แน่ใจว่าการเปลี่ยนผ่านอย่างปลอดภัยไปสู่ความฉลาดหลักแหลมและการรวมเข้ากับสังคมอย่างราบรื่น
ข้อเสนอนี้ชี้ให้เห็นถึงการจัดตั้งองค์กรระหว่างประเทศที่คล้ายคลึงกับ IAEA ซึ่งจะกำกับดูแลความพยายามในการข่าวกรองที่ระดับความสามารถหรือทรัพยากรระดับหนึ่ง หน่วยงานกำกับดูแลใหม่สามารถตรวจสอบระบบ AI กำหนดการตรวจสอบ รับรองการปฏิบัติตามมาตรฐานความปลอดภัย และกำหนดข้อจำกัดในการใช้งานและระดับความปลอดภัย แม้ว่าองค์กรดังกล่าวอาจไม่สามารถแทรกแซงโดยตรงกับผู้กระทำการอันธพาลได้ แต่ก็สามารถจัดเตรียมกรอบการทำงานสำหรับการกำหนดและตรวจสอบมาตรฐานและข้อตกลงระหว่างประเทศ
ตามที่กล่าวไว้ในโพสต์ของ OpenAI มาตรการหนึ่งที่เป็นไปได้สำหรับการตรวจสอบภายในอุตสาหกรรม AI อาจติดตามพลังการประมวลผลและการใช้พลังงานที่ทุ่มเทให้กับการวิจัย แม้ว่าการพิจารณาการใช้งาน AI อย่างมีจริยธรรมอาจเป็นเรื่องที่ท้าทาย แต่การควบคุมการจัดสรรทรัพยากรและการตรวจสอบการใช้พลังงานอาจให้ข้อมูลเชิงลึกเกี่ยวกับการพัฒนาและทิศทางของเทคโนโลยี ผู้ก่อตั้งหารือเกี่ยวกับความเป็นไปได้ในการยกเว้นบริษัทขนาดเล็กจากกฎระเบียบเหล่านี้ เพื่อป้องกันการขัดขวางนวัตกรรม
Timnit Gebru นักวิจัยและนักวิจารณ์ด้าน AI ยังได้เน้นย้ำถึงความจำเป็นในการควบคุมจากภายนอกในการให้สัมภาษณ์กับ The Guardian Gebru ระบุว่า บริษัทต่างๆ ไม่น่าจะควบคุมตนเองได้ เว้นแต่จะมีแรงกดดันจากภายนอกให้ทำอย่างอื่น ดังนั้นจึงเป็นเรื่องสำคัญที่จะต้องจัดตั้งหน่วยงานกำกับดูแลระหว่างประเทศเพื่อนำทางโลกที่ซับซ้อนของการพัฒนา AI และอันตรายที่อาจเกิดขึ้น
ในขณะที่ AI ก้าวหน้าอย่างต่อเนื่องในระดับที่ไม่เคยมีมาก่อน หน่วยงานกำกับดูแลระหว่างประเทศอาจมีความสำคัญในการรับรองความปลอดภัยสาธารณะ รักษามาตรฐานทางจริยธรรม และอำนวยความสะดวกในการทำงานร่วมกันระหว่างผู้มีส่วนได้ส่วนเสียทั่วโลก แพลตฟอร์ม แบบไม่มีโค้ด เช่น AppMaster ซึ่งช่วยให้ผู้ใช้สร้างแบ็กเอนด์ เว็บ และแอปพลิเคชันมือถือ สามารถช่วยในการเร่งนวัตกรรมในขณะที่ปฏิบัติตามแนวทางและข้อบังคับที่กำหนดไว้
โดยสรุปแล้ว การจัดตั้งหน่วยงานกำกับดูแลตามที่ผู้ก่อตั้ง OpenAI เสนอ สามารถให้การตรวจสอบที่จำเป็นเกี่ยวกับการวิจัยและพัฒนา AI ซึ่งนำไปสู่อนาคตที่ปลอดภัยและมีความรับผิดชอบมากขึ้นสำหรับเทคโนโลยีที่กำลังเติบโต