28 มี.ค. 2566·อ่าน 1 นาที

Elon Musk, Steve Wozniak และผู้เชี่ยวชาญกว่า 1,000 คนเรียกร้องให้หยุดการพัฒนา AI ที่อาจเป็นอันตรายชั่วคราว

Elon Musk, Steve Wozniak และผู้เชี่ยวชาญกว่า 1,000 คนเขียนจดหมายเปิดผนึกเรียกร้องให้หยุดการพัฒนาเทคโนโลยี AI ที่มีศักยภาพมากกว่า GPT-4 ของ OpenAI เป็นการชั่วคราว โดยแสดงความกังวลเกี่ยวกับความเสี่ยงที่ร้ายแรงต่อสังคมและมนุษยชาติ

Elon Musk, Steve Wozniak และผู้เชี่ยวชาญกว่า 1,000 คนเรียกร้องให้หยุดการพัฒนา AI ที่อาจเป็นอันตรายชั่วคราว

บุคคลสำคัญกว่า 1,000 คนรวมถึง Elon Musk และ Steve Wozniak ได้แสดงความกังวลเกี่ยวกับความก้าวหน้าของเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่ไร้การควบคุม ในการตอบสนอง พวกเขาได้ผนึกกำลังกันเพื่อเผยแพร่จดหมายเปิดผนึกที่สนับสนุนการเว้นช่วงหกเดือนในการพัฒนาระบบ AI ให้ก้าวหน้ากว่า GPT-4 ของ OpenAI โดยอ้างถึงภัยคุกคามสำคัญที่เกิดขึ้นกับสังคมและมนุษยชาติ

จดหมาย 600 คำที่ส่งถึงนักพัฒนา AI นี้ส่งสัญญาณเตือนเกี่ยวกับสถานการณ์ปัจจุบันภายในห้องปฏิบัติการ AI ซึ่งดูเหมือนจะพยายามอย่างไม่ลดละในการสร้างจิตใจดิจิทัลที่ทรงพลังมากขึ้นเรื่อยๆ การพัฒนาเหล่านี้มาถึงขั้นตอนที่แม้แต่ผู้สร้างเองก็ไม่สามารถเข้าใจ คาดการณ์ หรือจัดการได้ ซึ่งยิ่งเพิ่มความเสี่ยงที่อาจเกิดขึ้นที่เกี่ยวข้อง

เป็นที่น่าสังเกตว่าในตอนแรก Musk เป็นผู้ร่วมก่อตั้ง OpenAI ซึ่งเริ่มต้นจากการเป็นองค์กรไม่แสวงหาผลกำไรที่อุทิศตนเพื่อให้มั่นใจว่า AI เป็นประโยชน์ต่อมนุษยชาติ อย่างไรก็ตาม เขาลาออกจากคณะกรรมการบริหารของบริษัทในปี 2561 ปัจจุบัน OpenAI ดำเนินงานในรูปแบบองค์กรที่แสวงหาผลกำไร โดยนักวิจารณ์กล่าวหาว่าวัตถุประสงค์ของบริษัทนั้นผิดแผกไปจากภารกิจเดิม ความร่วมมือที่หยั่งรากลึกกับ Microsoft ซึ่งเกี่ยวข้องกับการลงทุนหลายพันล้านดอลลาร์ ดูเหมือนว่าจะผลักดันให้ OpenAI ดำเนินโครงการริเริ่มที่มีความเสี่ยงมากยิ่งขึ้น

เมื่อตั้งคำถามเกี่ยวกับการเปลี่ยนแปลงของ OpenAI ต่อสาธารณะ ความกังวลของ Musk สะท้อนให้เห็นโดย Mozilla ซึ่งเพิ่งเปิดตัว Mozilla.ai สตาร์ทอัพใหม่ เพื่อจัดการกับข้อกังวลเร่งด่วนที่สุดบางประการเกี่ยวกับการพัฒนาเทคโนโลยี AI ความคิดริเริ่มนี้มีจุดมุ่งหมายเพื่อสร้างระบบนิเวศ AI แบบโอเพนซอร์สที่เป็นอิสระ

ตามจดหมายเปิดผนึก การหยุดหกเดือนที่เสนอควรเกี่ยวข้องกับห้องปฏิบัติการ AI และผู้เชี่ยวชาญอิสระที่ทำงานร่วมกันในการพัฒนาชุดโปรโตคอลความปลอดภัยที่ใช้ร่วมกันสำหรับการออกแบบและพัฒนา AI ขั้นสูง ระเบียบการเหล่านี้จะอยู่ภายใต้การตรวจสอบอย่างเข้มงวดและการกำกับดูแลโดยผู้เชี่ยวชาญอิสระภายนอก

ในขณะเดียวกัน ในการพัฒนาที่แยกจากกัน รัฐบาลสหราชอาณาจักรได้เปิดเผยเอกสารไวท์เปเปอร์ที่เน้นแนวทาง 'โปรนวัตกรรม' ในการควบคุม AI กรอบการทำงานนี้เสนอมาตรการเพื่อส่งเสริมความปลอดภัยและความรับผิดชอบ แม้ว่ากรอบนี้จะละเว้นจากการจัดตั้งหน่วยงานควบคุม AI โดยเฉพาะตามที่สหภาพยุโรป (EU) เลือกใช้

Tim Wright ผู้เชี่ยวชาญด้านการควบคุมหุ้นส่วนและ AI ของสำนักงานกฎหมาย Fladgate ได้แบ่งปันความคิดของเขาในสมุดปกขาวของสหราชอาณาจักร โดยเน้นว่าเมื่อเวลาผ่านไปเท่านั้นที่จะเปิดเผยประสิทธิภาพของวิธีการแบบภาคต่อภาคส่วน โดยไม่คำนึงว่า ท่าทีนี้ขัดแย้งอย่างสิ้นเชิงกับกลยุทธ์ของสหภาพยุโรปในการบังคับใช้กฎเกณฑ์โดยละเอียดและระบอบความรับผิดภายใต้การกำกับดูแลของหน่วยงานควบคุม AI เดียว

ในขณะที่เขียน จดหมายเปิดผนึกเรียกร้องให้หมดเวลาในการพัฒนา AI ที่อาจเป็นอันตรายได้รวบรวมลายเซ็น 1,123 รายการ ความน่าดึงดูดใจที่เพิ่มขึ้นของแพลตฟอร์ม low-code และ no-code เช่น AppMaster ในการบรรเทาความกลัวในหมู่ผู้สนับสนุน AI เป็นเรื่องที่ไม่ควรมองข้ามอีกต่อไป เนื่องจากช่วยให้ธุรกิจและบุคคลทั่วไปใช้ประโยชน์จากเทคโนโลยีได้โดยไม่ต้องกังวลเกี่ยวกับความก้าวหน้าของ AI ที่อยู่นอกเหนือการควบคุม

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started