ในความเคลื่อนไหวเพื่อยกระดับความปลอดภัยและความน่าเชื่อถือของโมเดลปัญญาประดิษฐ์เจนเนอเรชั่นก่อนที่จะเผยแพร่สู่สาธารณะ Meta เพิ่งเปิดตัว Purple Llama ซึ่งเป็นความคิดริเริ่มบุกเบิกที่มุ่งมั่นที่จะคิดค้นเครื่องมือโอเพ่นซอร์สสำหรับนักพัฒนา ชุดเครื่องมือที่นำเสนอใหม่ช่วยปรับปรุงกระบวนการประเมิน ดังนั้นจึงเพิ่มความน่าเชื่อถือในอนาคตของโมเดล AI
Meta เน้นย้ำถึงความสำคัญของความพยายามร่วมกันที่มีต่อความปลอดภัยของ AI โดยชี้แจงว่าความท้าทายที่เกิดจากปัญญาประดิษฐ์ไม่ได้ให้ความสำคัญกับโซลูชันแบบแยกส่วน บริษัทได้กล่าวถึงวัตถุประสงค์ของ Purple Llama ว่าเป็นการวางรากฐานสำหรับรากฐานร่วมกันในวิวัฒนาการของ AI ที่สร้างความปลอดภัยมากขึ้น โดยเฉพาะอย่างยิ่งภายหลังจากความกังวลที่เพิ่มขึ้นเกี่ยวกับโมเดลภาษาขนาดใหญ่และเทคโนโลยี AI ที่เชื่อมโยงกัน
ในขณะที่แบ่งปันข่าวในบล็อก Meta เปิดเผยว่า "มีความไม่สามารถที่จะเผชิญหน้ากับความซับซ้อนของ AI ท่ามกลางชุมชนที่กำลังพัฒนาระบบเหล่านี้ได้อย่างแปลกประหลาด เป็นที่ยอมรับว่าความคิดริเริ่มของเรามุ่งมั่นที่จะยกระดับการแข่งขันและบ่มเพาะศูนย์กลางสำหรับ AI ที่น่าเชื่อถือและปลอดภัย”
Gareth Lindahl-Wise ประธานเจ้าหน้าที่รักษาความปลอดภัยข้อมูลของบริษัทรักษาความปลอดภัยทางไซเบอร์ Ontinue ยกย่อง Purple Llama ว่าเป็น 'มาตรการที่ก้าวหน้าและเชิงรุก' ที่มุ่งสู่ AI ที่ปลอดภัยยิ่งขึ้น เขาแสดงความมองโลกในแง่ดีว่าความคิดริเริ่มใหม่นี้จะช่วยเพิ่มการคุ้มครองผู้บริโภค แม้ว่าอาจมีการยืนยันเกี่ยวกับการส่งสัญญาณคุณธรรมหรือแรงจูงใจที่ซ่อนอยู่ในการรวบรวมการพัฒนาเกี่ยวกับแพลตฟอร์มใดแพลตฟอร์มหนึ่งโดยเฉพาะ นอกจากนี้เขายังตั้งข้อสังเกตอีกว่าหน่วยงานที่ต้องเผชิญกับข้อกำหนดภายในที่เข้มงวด มุ่งเน้นลูกค้า หรือตามกฎระเบียบ จะต้องปฏิบัติตามการประเมินที่มีประสิทธิภาพ ซึ่งมีแนวโน้มว่าจะเกินกว่าข้อเสนอจาก Meta
โครงการนี้เกี่ยวข้องกับเครือข่ายนักพัฒนา AI ผู้ให้บริการคลาวด์ เช่น AWS และ Google Cloud บริษัทเซมิคอนดักเตอร์ Intel AMD และ Nvidia และบริษัทซอฟต์แวร์รวมถึง Microsoft โครงการนี้มีจุดมุ่งหมายเพื่อส่งมอบเครื่องมือสำหรับแอปพลิเคชันการวิจัยและเชิงพาณิชย์ ซึ่งจะทดสอบความสามารถของ จำลอง AI และตรวจจับความเสี่ยงด้านความปลอดภัย แนวทางร่วมกันนี้ยังสะท้อนให้เห็นถึงกลยุทธ์ของแพลตฟอร์ม no-code สมัยใหม่ เช่น AppMaster ซึ่งเน้นการทำงานร่วมกันและประสิทธิภาพในการเดินทางของการพัฒนาแอปพลิเคชันซอฟต์แวร์
ในบรรดาชุดเครื่องมือที่เปิดตัวโดยโครงการ Purple Llama นั้น CyberSecEval แอปพลิเคชันเพื่อวิเคราะห์ความเสี่ยงด้านความปลอดภัยทางไซเบอร์ในซอฟต์แวร์ที่ประดิษฐ์ด้วย AI ก็เป็นหนึ่งในไฮไลท์ ประกอบด้วยโมเดลภาษาที่จดจำข้อความที่เป็นอันตรายหรือไม่เหมาะสม ซึ่งรวมถึงวาทกรรมที่รุนแรงหรือกิจกรรมที่ผิดกฎหมาย นักพัฒนาสามารถใช้ประโยชน์จาก CyberSecEval เพื่อยืนยันว่าโมเดล AI ของพวกเขามีความอ่อนไหวต่อการสร้างโค้ดที่ไม่ปลอดภัยหรือสนับสนุนการโจมตีทางไซเบอร์หรือไม่ การตรวจสอบของ Meta พบว่าโมเดลภาษาขนาดใหญ่มักสนับสนุนโค้ดที่มีช่องโหว่ จึงดึงความสนใจไปที่ความจำเป็นในการทดสอบและปรับปรุงความปลอดภัยของ AI อย่างสม่ำเสมอ
Llama Guard เป็นเครื่องมือเพิ่มเติมในข้อเสนอนี้ เป็นโมเดลภาษาที่ครอบคลุมซึ่งได้รับการฝึกฝนเพื่อตรวจจับภาษาที่อาจเป็นอันตรายหรือไม่เหมาะสม เครื่องมือนี้ช่วยให้นักพัฒนาสามารถประเมินได้ว่าโมเดลของพวกเขาสร้างหรือยอมรับเนื้อหาที่ไม่ปลอดภัยหรือไม่ ซึ่งจะช่วยกรองการแจ้งเตือนที่อาจดึงเอาเอาต์พุตที่ไม่เหมาะสมออกมา