20 มี.ค. 2566·อ่าน 1 นาที

กฎระเบียบด้าน AI ที่เพิ่มขึ้น: สิ่งที่ธุรกิจจำเป็นต้องรู้และวิธีเตรียมตัว

ในขณะที่สหภาพยุโรปได้สรุปกฎหมาย AI และภาพรวมการกำกับดูแลด้าน AI ทั่วโลกก็เปลี่ยนแปลงไป ธุรกิจต่างๆ จึงต้องเตรียมพร้อมสำหรับกฎระเบียบด้าน AI ที่เข้มงวดมากขึ้นซึ่งส่งผลต่อการดำเนินงานของตน

กฎระเบียบด้าน AI ที่เพิ่มขึ้น: สิ่งที่ธุรกิจจำเป็นต้องรู้และวิธีเตรียมตัว

ภูมิทัศน์ของปัญญาประดิษฐ์ (AI) และแมชชีนเลิร์นนิง (ML) นั้นพร้อมสำหรับการเปลี่ยนแปลงครั้งสำคัญ เนื่องจากกรอบการกำกับดูแลได้จัดทำแนวทางที่ชัดเจนเกี่ยวกับการพัฒนาและการใช้เทคโนโลยี AI ในขณะที่สหภาพยุโรป (EU) ได้สรุปร่างพระราชบัญญัติ AI และ AI กำเนิดยังคงพัฒนาอย่างรวดเร็ว ธุรกิจต่างๆ ทั่วโลกควรเตรียมพร้อมสำหรับกฎระเบียบด้าน AI ที่เข้มงวดมากขึ้น ซึ่งจะส่งผลกระทบต่อการดำเนินงาน ผลิตภัณฑ์ และบริการของตน

เพื่อให้เข้าใจได้ดีขึ้นว่ากฎระเบียบด้าน AI อาจมีลักษณะอย่างไรสำหรับบริษัทต่างๆ ในอนาคตอันใกล้ เราสามารถตรวจสอบคุณลักษณะสำคัญของกฎหมายด้าน AI ของสหภาพยุโรป ผลกระทบที่เป็นไปได้ของการขยายตัวของกฎระเบียบด้าน AI ทั่วโลก และกลยุทธ์ที่องค์กรต่างๆ ควรนำมาใช้เพื่อเตรียมพร้อมสำหรับสิ่งเหล่านี้ เวลาที่เปลี่ยนแปลง

พระราชบัญญัติ AI ของสหภาพยุโรปและผลกระทบทั่วโลก

ตามกำหนดการสำหรับการลงคะแนนเสียงของรัฐสภาภายในสิ้นเดือนมีนาคม 2023 คาดว่ากฎหมาย AI ของสหภาพยุโรปจะสร้างมาตรฐานระดับโลกสำหรับกฎระเบียบด้าน AI เหมือนกับกฎหมายคุ้มครองข้อมูลทั่วไป (GDPR) ของสหภาพยุโรปในปี 2018 หากปฏิบัติตามไทม์ไลน์ พ.ร.บ.เอไอจะประกาศใช้ภายในสิ้นปีนี้

แม้ว่าจะเป็นข้อบังคับของยุโรป แต่ผลกระทบของพระราชบัญญัติ AI มีแนวโน้มที่จะขยายไปไกลกว่าสหภาพยุโรป ที่เรียกว่า 'Brussels effect' จะบังคับให้องค์กรที่ดำเนินงานในระดับสากลปฏิบัติตามกฎหมาย ในขณะที่สหรัฐอเมริกาและบริษัทอิสระอื่น ๆ จะพบว่าเป็นประโยชน์สูงสุดในการปฏิบัติตามข้อกำหนด ความเคลื่อนไหวล่าสุด เช่น ข้อเสนอกฎหมายปัญญาประดิษฐ์และข้อมูลของแคนาดา และกฎระเบียบการจ้างงานอัตโนมัติของนครนิวยอร์ก ส่งสัญญาณเพิ่มเติมถึงแนวโน้มนี้ไปสู่การนำกฎระเบียบด้าน AI ไปใช้นอกเหนืออาณาเขตของสหภาพยุโรป

หมวดหมู่ความเสี่ยงของระบบ AI ภายใต้พระราชบัญญัติ AI

พระราชบัญญัติ AI เสนอความเสี่ยงสามประเภทสำหรับระบบ AI โดยแต่ละประเภทจะมีแนวทางปฏิบัติและผลที่ตามมาดังนี้

  1. ความเสี่ยงที่ยอมรับไม่ได้: ระบบ AI ในหมวดหมู่นี้จะถูกแบน ซึ่งรวมถึงระบบบงการที่อาจก่อให้เกิดอันตราย ระบบการระบุตัวตนด้วยไบโอเมตริกแบบเรียลไทม์ที่ใช้ในพื้นที่สาธารณะเพื่อการบังคับใช้กฎหมาย และการให้คะแนนทางสังคมทุกรูปแบบ
  2. ความเสี่ยงสูง: หมวดหมู่นี้ครอบคลุมระบบ AI เช่น โมเดลการสแกนผู้สมัครงาน ซึ่งจะอยู่ภายใต้ข้อกำหนดทางกฎหมายเฉพาะ
  3. ความเสี่ยงที่จำกัดและน้อยที่สุด: แอปพลิเคชัน AI จำนวนมากที่ใช้โดยธุรกิจในปัจจุบัน (รวมถึงแชทบอทและเครื่องมือการจัดการสินค้าคงคลังที่ขับเคลื่อนด้วย AI) จัดอยู่ในหมวดหมู่นี้และส่วนใหญ่จะไม่ได้รับการควบคุม อย่างไรก็ตาม แอปพลิเคชันที่มีความเสี่ยงจำกัดสำหรับการติดต่อกับลูกค้าจะต้องมีการเปิดเผยว่ามีการใช้ AI

ระเบียบ AI: สิ่งที่คาดหวัง

เนื่องจากกฎหมาย AI ยังอยู่ระหว่างการร่างและผลกระทบทั่วโลกยังไม่มีการระบุ ลักษณะที่แท้จริงของกฎระเบียบ AI สำหรับองค์กรยังคงไม่แน่นอน อย่างไรก็ตาม ผลกระทบน่าจะขึ้นอยู่กับอุตสาหกรรม ประเภทของแบบจำลองที่กำลังพัฒนา และประเภทความเสี่ยงที่เกี่ยวข้อง

กฎระเบียบอาจนำมาซึ่งการตรวจสอบข้อเท็จจริงจากบุคคลที่สามที่เน้นการทดสอบแบบจำลอง AI กับประชากรเป้าหมายที่ต้องการ การทดสอบเหล่านี้จะประเมินปัจจัยต่างๆ เช่น ประสิทธิภาพของโมเดล ระยะขอบของข้อผิดพลาด และการเปิดเผยลักษณะและการใช้งานของโมเดล

สำหรับองค์กรที่มีระบบ AI ที่มีความเสี่ยงสูง พ.ร.บ. AI ได้จัดทำรายการข้อกำหนดไว้แล้ว ซึ่งรวมถึงระบบการจัดการความเสี่ยง การกำกับดูแลและการจัดการข้อมูล เอกสารทางเทคนิค การเก็บบันทึกข้อมูล ความโปร่งใส การกำกับดูแลของมนุษย์ ความแม่นยำ ความทนทาน ความปลอดภัยทางไซเบอร์ การประเมินความสอดคล้อง การลงทะเบียนกับรัฐบาลของประเทศสมาชิกสหภาพยุโรป และระบบตรวจสอบหลังการวางตลาด นอกจากนี้ การทดสอบความน่าเชื่อถือของอุตสาหกรรม AI (คล้ายกับ e-checks สำหรับรถยนต์) คาดว่าจะแพร่หลายมากขึ้น

การเตรียมการสำหรับกฎระเบียบ AI

ผู้นำด้าน AI ที่ให้ความสำคัญกับความไว้วางใจและการลดความเสี่ยงเมื่อพัฒนาโมเดล ML มีแนวโน้มที่จะประสบความสำเร็จมากกว่าเมื่อเผชิญกับกฎระเบียบใหม่ของ AI เพื่อให้แน่ใจว่ามีความพร้อมสำหรับกฎระเบียบด้าน AI ที่เข้มงวดขึ้น องค์กรควรพิจารณาขั้นตอนต่อไปนี้:

  1. วิจัยและให้ความรู้แก่ทีมเกี่ยวกับกฎระเบียบที่อาจเกิดขึ้นและผลกระทบต่อบริษัทของคุณทั้งในปัจจุบันและอนาคต
  2. ตรวจสอบแบบจำลองที่มีอยู่และที่วางแผนไว้เพื่อกำหนดประเภทความเสี่ยงและกฎระเบียบที่เกี่ยวข้องซึ่งจะส่งผลกระทบต่อพวกเขามากที่สุด
  3. พัฒนาและนำเฟรมเวิร์กมาใช้ในการออกแบบโซลูชัน AI ที่มีความรับผิดชอบ
  4. คิดผ่านกลยุทธ์การลดความเสี่ยงของ AI สำหรับทั้งโมเดลที่มีอยู่และในอนาคต โดยคำนึงถึงการกระทำที่ไม่คาดคิด
  5. สร้างกลยุทธ์การกำกับดูแลและการรายงานของ AI เพื่อให้มั่นใจว่ามีการตรวจสอบหลายครั้งก่อนที่โมเดลจะเผยแพร่จริง

ด้วยพระราชบัญญัติ AI และกฎระเบียบที่กำลังจะมาถึงซึ่งเป็นสัญญาณของยุคใหม่สำหรับการออกแบบ AI AI ที่มีจริยธรรมและยุติธรรมจึงไม่ใช่แค่ 'สิ่งที่ดีที่มี' แต่เป็น 'สิ่งที่ต้องมี' อีกต่อไป ด้วยการเตรียมตัวเชิงรุกสำหรับการเปลี่ยนแปลงเหล่านี้ องค์กรต่างๆ สามารถเปิดรับโลกแห่งกฎระเบียบของ AI และใช้ประโยชน์จากศักยภาพของเทคโนโลยีที่พัฒนาอย่างรวดเร็วนี้ได้อย่างเต็มที่ ยิ่งไปกว่านั้น ธุรกิจต่างๆ สามารถใช้แพลตฟอร์ม no-code อันทรงพลัง เช่น AppMaster เพื่อเร่งการพัฒนา AI ของพวกเขา ในขณะเดียวกันก็มั่นใจว่าสอดคล้องกับกฎระเบียบที่เกิดขึ้นใหม่

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started