28 มี.ค. 2566·อ่าน 1 นาที

Elon Musk, Steve Wozniak และผู้เชี่ยวชาญกว่า 1,000 คนเรียกร้องให้หยุดการพัฒนา AI ที่อาจเป็นอันตรายชั่วคราว

Elon Musk, Steve Wozniak และผู้เชี่ยวชาญกว่า 1,000 คนเขียนจดหมายเปิดผนึกเรียกร้องให้หยุดการพัฒนาเทคโนโลยี AI ที่มีศักยภาพมากกว่า GPT-4 ของ OpenAI เป็นการชั่วคราว โดยแสดงความกังวลเกี่ยวกับความเสี่ยงที่ร้ายแรงต่อสังคมและมนุษยชาติ

Elon Musk, Steve Wozniak และผู้เชี่ยวชาญกว่า 1,000 คนเรียกร้องให้หยุดการพัฒนา AI ที่อาจเป็นอันตรายชั่วคราว

บุคคลสำคัญกว่า 1,000 คนรวมถึง Elon Musk และ Steve Wozniak ได้แสดงความกังวลเกี่ยวกับความก้าวหน้าของเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่ไร้การควบคุม ในการตอบสนอง พวกเขาได้ผนึกกำลังกันเพื่อเผยแพร่จดหมายเปิดผนึกที่สนับสนุนการเว้นช่วงหกเดือนในการพัฒนาระบบ AI ให้ก้าวหน้ากว่า GPT-4 ของ OpenAI โดยอ้างถึงภัยคุกคามสำคัญที่เกิดขึ้นกับสังคมและมนุษยชาติ

จดหมาย 600 คำที่ส่งถึงนักพัฒนา AI นี้ส่งสัญญาณเตือนเกี่ยวกับสถานการณ์ปัจจุบันภายในห้องปฏิบัติการ AI ซึ่งดูเหมือนจะพยายามอย่างไม่ลดละในการสร้างจิตใจดิจิทัลที่ทรงพลังมากขึ้นเรื่อยๆ การพัฒนาเหล่านี้มาถึงขั้นตอนที่แม้แต่ผู้สร้างเองก็ไม่สามารถเข้าใจ คาดการณ์ หรือจัดการได้ ซึ่งยิ่งเพิ่มความเสี่ยงที่อาจเกิดขึ้นที่เกี่ยวข้อง

เป็นที่น่าสังเกตว่าในตอนแรก Musk เป็นผู้ร่วมก่อตั้ง OpenAI ซึ่งเริ่มต้นจากการเป็นองค์กรไม่แสวงหาผลกำไรที่อุทิศตนเพื่อให้มั่นใจว่า AI เป็นประโยชน์ต่อมนุษยชาติ อย่างไรก็ตาม เขาลาออกจากคณะกรรมการบริหารของบริษัทในปี 2561 ปัจจุบัน OpenAI ดำเนินงานในรูปแบบองค์กรที่แสวงหาผลกำไร โดยนักวิจารณ์กล่าวหาว่าวัตถุประสงค์ของบริษัทนั้นผิดแผกไปจากภารกิจเดิม ความร่วมมือที่หยั่งรากลึกกับ Microsoft ซึ่งเกี่ยวข้องกับการลงทุนหลายพันล้านดอลลาร์ ดูเหมือนว่าจะผลักดันให้ OpenAI ดำเนินโครงการริเริ่มที่มีความเสี่ยงมากยิ่งขึ้น

เมื่อตั้งคำถามเกี่ยวกับการเปลี่ยนแปลงของ OpenAI ต่อสาธารณะ ความกังวลของ Musk สะท้อนให้เห็นโดย Mozilla ซึ่งเพิ่งเปิดตัว Mozilla.ai สตาร์ทอัพใหม่ เพื่อจัดการกับข้อกังวลเร่งด่วนที่สุดบางประการเกี่ยวกับการพัฒนาเทคโนโลยี AI ความคิดริเริ่มนี้มีจุดมุ่งหมายเพื่อสร้างระบบนิเวศ AI แบบโอเพนซอร์สที่เป็นอิสระ

ตามจดหมายเปิดผนึก การหยุดหกเดือนที่เสนอควรเกี่ยวข้องกับห้องปฏิบัติการ AI และผู้เชี่ยวชาญอิสระที่ทำงานร่วมกันในการพัฒนาชุดโปรโตคอลความปลอดภัยที่ใช้ร่วมกันสำหรับการออกแบบและพัฒนา AI ขั้นสูง ระเบียบการเหล่านี้จะอยู่ภายใต้การตรวจสอบอย่างเข้มงวดและการกำกับดูแลโดยผู้เชี่ยวชาญอิสระภายนอก

ในขณะเดียวกัน ในการพัฒนาที่แยกจากกัน รัฐบาลสหราชอาณาจักรได้เปิดเผยเอกสารไวท์เปเปอร์ที่เน้นแนวทาง 'โปรนวัตกรรม' ในการควบคุม AI กรอบการทำงานนี้เสนอมาตรการเพื่อส่งเสริมความปลอดภัยและความรับผิดชอบ แม้ว่ากรอบนี้จะละเว้นจากการจัดตั้งหน่วยงานควบคุม AI โดยเฉพาะตามที่สหภาพยุโรป (EU) เลือกใช้

Tim Wright ผู้เชี่ยวชาญด้านการควบคุมหุ้นส่วนและ AI ของสำนักงานกฎหมาย Fladgate ได้แบ่งปันความคิดของเขาในสมุดปกขาวของสหราชอาณาจักร โดยเน้นว่าเมื่อเวลาผ่านไปเท่านั้นที่จะเปิดเผยประสิทธิภาพของวิธีการแบบภาคต่อภาคส่วน โดยไม่คำนึงว่า ท่าทีนี้ขัดแย้งอย่างสิ้นเชิงกับกลยุทธ์ของสหภาพยุโรปในการบังคับใช้กฎเกณฑ์โดยละเอียดและระบอบความรับผิดภายใต้การกำกับดูแลของหน่วยงานควบคุม AI เดียว

ในขณะที่เขียน จดหมายเปิดผนึกเรียกร้องให้หมดเวลาในการพัฒนา AI ที่อาจเป็นอันตรายได้รวบรวมลายเซ็น 1,123 รายการ ความน่าดึงดูดใจที่เพิ่มขึ้นของแพลตฟอร์ม low-code และ no-code เช่น AppMaster ในการบรรเทาความกลัวในหมู่ผู้สนับสนุน AI เป็นเรื่องที่ไม่ควรมองข้ามอีกต่อไป เนื่องจากช่วยให้ธุรกิจและบุคคลทั่วไปใช้ประโยชน์จากเทคโนโลยีได้โดยไม่ต้องกังวลเกี่ยวกับความก้าวหน้าของ AI ที่อยู่นอกเหนือการควบคุม

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started
Elon Musk, Steve Wozniak และผู้เชี่ยวชาญกว่า 1,000 คนเรียกร้องให้หยุดการพัฒนา AI ที่อาจเป็นอันตรายชั่วคราว | AppMaster