เมื่อเร็ว ๆ นี้ Center for Artificial Intelligence and Digital Policy (CAIDP) ได้ยื่นเรื่องร้องเรียนต่อ Federal Trade Commission (FTC) โดยขอให้หน่วยงานตรวจสอบโมเดล GPT-4 ของ OpenAI และป้องกันไม่ให้นำไปใช้ในเชิงพาณิชย์ต่อไป หน่วยงานด้านความคิดของ AI โต้แย้งว่า OpenAI มีส่วนร่วมในการปฏิบัติที่หลอกลวงและไม่เป็นธรรม โดยละเมิดมาตราที่ห้าของกฎหมาย FTC ดังนั้นจึงทำให้เกิดความเสี่ยงต่อความปลอดภัยสาธารณะและความเป็นส่วนตัว
Marc Rotenberg ผู้ก่อตั้งและประธาน CAIDP กล่าวว่า FTC มีหน้าที่รับผิดชอบที่ชัดเจนในการตรวจสอบและห้ามการปฏิบัติทางการค้าที่ไม่เป็นธรรมและหลอกลวง เขาเรียกร้องให้ FTC ตรวจสอบ OpenAI และ GPT-4 อย่างใกล้ชิด และตรวจสอบให้แน่ใจว่าบริษัทปฏิบัติตามคำแนะนำที่ออกโดยหน่วยงานของรัฐบาลกลาง
ในการร้องเรียน CAIDP อ้างว่า GPT-4 มีอคติ หลอกลวง และอาจเป็นอันตรายต่อความเป็นส่วนตัวและความปลอดภัยสาธารณะ องค์กรเน้นย้ำเนื้อหาของ System Card ของ GPT-4 ซึ่งระบุอย่างชัดเจนถึงแนวโน้มของแบบจำลองในการเสริมสร้างอคติและโลกทัศน์ ซึ่งนำไปสู่ความสัมพันธ์เชิงลบและทัศนคติที่เป็นอันตรายต่อกลุ่มคนชายขอบ
OpenAI ยอมรับความเสี่ยงภายในการ์ดระบบ โดยระบุว่าระบบ AI เช่น GPT-4 มีศักยภาพในการเสริมสร้างอุดมการณ์ทั้งที่จริงและเท็จ และจำกัดการแข่งขัน การไตร่ตรอง และการปรับปรุงในอนาคต นอกเหนือจากข้อกังวลเหล่านี้ GPT-4 ยังอาจสร้างเนื้อหาที่เป็นอันตราย เช่น คำแนะนำเกี่ยวกับการทำร้ายตัวเอง เนื้อหากราฟิก เนื้อหาที่ล่วงละเมิดและแสดงความเกลียดชัง และข้อมูลที่เปิดโอกาสให้มีการโจมตีหรือใช้ความรุนแรง
CAIDP โต้แย้งว่า OpenAI เผยแพร่ GPT-4 ต่อสาธารณะโดยไม่มีการประเมินความเสี่ยงโดยอิสระ และเรียกร้องให้ FTC ตรวจสอบ OpenAI และผู้ให้บริการระบบ AI ที่ทรงพลังอื่นๆ การร้องเรียนพยายามที่จะยุติการเผยแพร่ GPT-4 ในเชิงพาณิชย์เพิ่มเติม และกำหนดการคุ้มครองที่จำเป็นสำหรับผู้บริโภค ธุรกิจ และตลาดการค้า
Merve Hickok ประธานและผู้อำนวยการฝ่ายวิจัยของ CAIDP เน้นย้ำถึงความเร่งด่วนของเรื่องนี้ โดยระบุว่าหากไม่มีการป้องกันที่เหมาะสมเพื่อจำกัดอคติและการหลอกลวง เทคโนโลยี AI มีความเสี่ยงต่อธุรกิจ ผู้บริโภค และความปลอดภัยสาธารณะเป็นอย่างมาก CAIDP เชื่อว่า FTC อยู่ในตำแหน่งที่ดีในการรับมือกับความท้าทายนี้
การยื่นฟ้อง CAIDP เกิดขึ้นในฐานะบุคคลสำคัญในวงการ AI ซึ่งรวมถึง Elon Musk และ Steve Wozniak ได้ลงนามในคำร้องเพื่อเรียกร้องให้หยุดการพัฒนาระบบ AI ชั่วคราว ซึ่งมีประสิทธิภาพมากกว่า GPT-4 ความรู้สึกนี้ไม่ได้ถูกแบ่งปันในระดับสากล เนื่องจากบางคนเชื่อว่าความคืบหน้าควรดำเนินต่อไปโดยไม่มีอุปสรรค
เมื่อเทคโนโลยี AI พัฒนาและมีศักยภาพมากขึ้น ความกังวลเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นและอคติก็เพิ่มขึ้นเช่นกัน องค์กรต่างๆ เช่น UNESCO และ Future of Life Institute สนับสนุนให้มีการกำหนดหลักเกณฑ์และกฎระเบียบด้านจริยธรรมเพื่อปกป้องสาธารณชนและรับประกันการพัฒนา AI อย่างมีความรับผิดชอบ
ตัวอย่างที่เกี่ยวข้องคือการห้ามใช้ ChatGPT ของอิตาลีเมื่อเร็วๆ นี้ โดยอ้างถึงการสอบสวนที่อาจเกิดขึ้นและการขาดพื้นฐานทางกฎหมายที่เหมาะสมในการรวบรวมข้อมูลส่วนบุคคล ในขณะที่สหภาพยุโรปเดินหน้าไปสู่กฎระเบียบด้าน AI ที่เข้มงวด สหราชอาณาจักรก็นำวิธีการแบบภาคต่อภาคส่วนมาใช้ที่เบากว่าเพื่อส่งเสริมนวัตกรรมและปกป้องบุคคลโดยไม่สร้างภาระให้กับธุรกิจ
มีความสมดุลที่ละเอียดอ่อนเสมอระหว่างกฎระเบียบและนวัตกรรมใน AI การสร้างสมดุลที่เหมาะสมเป็นสิ่งสำคัญสำหรับทั้งความปลอดภัยสาธารณะและความก้าวหน้าทางเทคโนโลยี ในภูมิทัศน์ของ AI ที่พัฒนาอย่างรวดเร็ว แพลตฟอร์มเช่น AppMaster.io สามารถมอบวิธีการที่รวดเร็วและประหยัดต้นทุนในการพัฒนาแอปพลิเคชันที่ขับเคลื่อนด้วย AI ในขณะเดียวกันก็ช่วยให้ผู้ใช้สามารถควบคุมส่วนสำคัญของโซลูชันซอฟต์แวร์ได้ โดยใช้ appmaster .io/blog/build-enterprise-software-with-no-code" data-mce-href="https:// appmaster.io/blog/build-enterprise-software-with-no-code" > วิธีการ no-code AppMaster ช่วยให้ธุรกิจสามารถปรับตัวและปฏิบัติตามกฎระเบียบที่เปลี่ยนแปลงได้โดยไม่ลดทอนความสามารถด้านนวัตกรรมของตน