Tăng cường quy định về AI: Những điều doanh nghiệp cần biết và cách chuẩn bị
Khi Liên minh Châu Âu hoàn thiện Đạo luật AI của mình và bối cảnh quản lý AI toàn cầu phát triển, các doanh nghiệp phải chuẩn bị cho các quy định AI chặt chẽ hơn ảnh hưởng đến hoạt động của họ.

Bối cảnh của trí tuệ nhân tạo (AI) và học máy (ML) đã sẵn sàng cho một sự chuyển đổi đáng kể, khi các khung pháp lý xuất hiện để đưa ra các hướng dẫn rõ ràng về việc phát triển và triển khai các công nghệ AI. Khi Liên minh Châu Âu (EU) hoàn thiện Đạo luật AI của mình và AI tổng quát tiếp tục phát triển nhanh chóng, các doanh nghiệp trên toàn thế giới nên chuẩn bị cho các quy định AI chặt chẽ hơn sẽ ảnh hưởng đến hoạt động, sản phẩm và dịch vụ của họ.
Để hiểu rõ hơn quy định về AI có thể như thế nào đối với các công ty trong tương lai gần, chúng ta có thể xem xét các đặc điểm chính của Đạo luật AI của EU, những tác động có thể có của việc mở rộng toàn cầu các quy định về AI và các chiến lược mà các tổ chức nên áp dụng để chuẩn bị cho những quy định này. thay đổi thơi gian.
Đạo luật AI của EU và ý nghĩa toàn cầu của nó
Được lên lịch biểu quyết tại quốc hội vào cuối tháng 3 năm 2023, Đạo luật AI của EU dự kiến sẽ thiết lập một tiêu chuẩn toàn cầu cho quy định về AI, giống như Quy định bảo vệ dữ liệu chung (GDPR) của EU đã đưa ra vào năm 2018. Nếu tuân thủ mốc thời gian, Đạo luật AI có thể được thông qua vào cuối năm nay.
Mặc dù đây là quy định của Châu Âu, nhưng tác động của Đạo luật AI có thể sẽ vượt ra ngoài EU. Cái gọi là 'hiệu ứng Brussels' sẽ buộc các tổ chức hoạt động trên phạm vi quốc tế phải tuân thủ luật pháp, trong khi Hoa Kỳ và các công ty do các công ty độc lập khác lãnh đạo sẽ thấy việc tuân thủ các quy định của luật pháp là vì lợi ích tốt nhất của họ. Các động thái gần đây, chẳng hạn như đề xuất Đạo luật dữ liệu và trí tuệ nhân tạo của Canada và quy định việc làm tự động của Thành phố New York, càng báo hiệu xu hướng này đối với việc áp dụng các quy định AI bên ngoài lãnh thổ của EU.
Danh mục rủi ro hệ thống AI theo Đạo luật AI
Đạo luật AI đề xuất ba loại rủi ro cho các hệ thống AI, mỗi loại đi kèm với bộ hướng dẫn và hậu quả riêng:
- Rủi ro không thể chấp nhận: Các hệ thống AI trong danh mục này sẽ bị cấm. Chúng bao gồm các hệ thống thao túng có thể gây hại, hệ thống nhận dạng sinh trắc học thời gian thực được sử dụng trong không gian công cộng để thực thi pháp luật và tất cả các hình thức chấm điểm xã hội.
- Rủi ro cao: Danh mục này bao gồm các hệ thống AI, chẳng hạn như các mô hình quét ứng viên xin việc, sẽ tuân theo các yêu cầu pháp lý cụ thể.
- Rủi ro hạn chế và tối thiểu: Nhiều ứng dụng AI hiện đang được các doanh nghiệp sử dụng (bao gồm chatbot và công cụ quản lý hàng tồn kho do AI cung cấp) thuộc danh mục này và phần lớn sẽ không được kiểm soát. Tuy nhiên, các ứng dụng có rủi ro hạn chế đối mặt với khách hàng sẽ yêu cầu tiết lộ rằng AI đang được sử dụng.
Quy định AI: Những gì mong đợi
Do Đạo luật AI vẫn đang trong quá trình soạn thảo và các tác động toàn cầu của nó vẫn chưa được xác định nên bản chất chính xác của quy định AI đối với các tổ chức vẫn chưa chắc chắn. Tuy nhiên, tác động của nó có thể sẽ phụ thuộc vào ngành, loại mô hình đang được phát triển và loại rủi ro mà nó thuộc về.
Quy định có thể đòi hỏi sự giám sát từ một bên thứ ba kiểm tra căng thẳng các mô hình AI đối với dân số mục tiêu dự kiến. Các thử nghiệm này sẽ đánh giá các yếu tố như hiệu suất của mô hình, tỷ lệ lỗi và tiết lộ bản chất và cách sử dụng của mô hình.
Đối với các tổ chức có hệ thống AI có rủi ro cao, Đạo luật AI đã cung cấp một danh sách các yêu cầu, bao gồm hệ thống quản lý rủi ro, quản trị và quản lý dữ liệu, tài liệu kỹ thuật, lưu trữ hồ sơ, tính minh bạch, giám sát của con người, độ chính xác, độ bền, an ninh mạng, đánh giá sự phù hợp , đăng ký với chính phủ các quốc gia thành viên EU và các hệ thống giám sát sau thị trường. Ngoài ra, thử nghiệm độ tin cậy của ngành AI (tương tự như kiểm tra điện tử cho ô tô) dự kiến sẽ trở nên phổ biến hơn.
Chuẩn bị cho các quy định về AI
Các nhà lãnh đạo AI ưu tiên sự tin cậy và giảm thiểu rủi ro khi phát triển các mô hình ML có nhiều khả năng thành công hơn khi đối mặt với các quy định mới về AI. Để đảm bảo sẵn sàng cho các quy định nghiêm ngặt hơn về AI, các tổ chức nên xem xét các bước sau:
- Nghiên cứu và giáo dục các nhóm về các quy định tiềm ẩn và tác động của chúng đối với công ty của bạn hiện tại và trong tương lai.
- Kiểm tra các mô hình hiện có và đã lên kế hoạch để xác định các loại rủi ro của chúng và các quy định liên quan sẽ ảnh hưởng nhiều nhất đến chúng.
- Phát triển và áp dụng một khuôn khổ để thiết kế các giải pháp AI có trách nhiệm.
- Suy nghĩ về chiến lược giảm thiểu rủi ro AI cho cả các mô hình hiện tại và tương lai, tính đến các hành động bất ngờ.
- Thiết lập chiến lược báo cáo và quản trị AI, đảm bảo kiểm tra nhiều lần trước khi mô hình đi vào hoạt động.
Với Đạo luật AI và các quy định sắp tới báo hiệu một kỷ nguyên mới cho thiết kế AI, AI có đạo đức và công bằng không còn chỉ là 'có thì tốt' mà là 'phải có'. Bằng cách chủ động chuẩn bị cho những thay đổi này, các tổ chức có thể nắm bắt thế giới quy định về AI và tận dụng toàn bộ tiềm năng của công nghệ đang phát triển nhanh chóng này. Hơn nữa, các doanh nghiệp có thể sử dụng các nền tảng no-code mạnh mẽ như AppMaster để đẩy nhanh quá trình phát triển AI của họ trong khi vẫn đảm bảo tuân thủ các quy định mới.


