Khi bối cảnh AI trưởng thành, nhu cầu về các cơ chế củng cố tính mạnh mẽ của các mô hình AI ngày càng tăng. Nhận thức được điều này, OpenAI gần đây đã triển khai OpenAI Red Teaming Network, một nhóm gồm các chuyên gia được ký hợp đồng nhằm mục đích nâng cao các chiến lược giảm thiểu và phân tích rủi ro mô hình AI của công ty.
Việc thực hành đội đỏ đang đạt được động lực đáng kể trong việc phát triển mô hình AI, đặc biệt là hiện nay với các công nghệ tổng hợp đang dần trở nên phổ biến. Nhóm đỏ có thể xác định một cách hiệu quả các thành kiến trong các mô hình, chẳng hạn như DALL-E 2 của OpenAI, nổi tiếng với việc khuếch đại các định kiến gắn liền với chủng tộc và giới tính. Ngoài ra, nó có thể xác định chính xác các trình kích hoạt có thể khiến các mô hình tạo văn bản, như ChatGPT và GPT-4, vượt qua các bộ lọc an toàn.
OpenAI thừa nhận lịch sử hợp tác với các chuyên gia bên ngoài để thử nghiệm và đánh giá các mô hình của mình. Điều này có thể thông qua chương trình tiền thưởng lỗi hoặc chương trình truy cập của nhà nghiên cứu. Tuy nhiên, sự ra đời của Red Teaming Network cung cấp một nền tảng chính thức hơn, nhằm mục đích 'làm sâu sắc' và 'mở rộng' sự hợp tác của công ty với các nhà khoa học, tổ chức nghiên cứu và tổ chức xã hội dân sự.
Như đã nêu trong một bài đăng trên blog của công ty, OpenAI hình dung sáng kiến này sẽ bổ sung cho các phương pháp quản trị được chỉ định bên ngoài, như kiểm toán của bên thứ ba. Các thành viên mạng lưới này sẽ được mời dựa trên chuyên môn của họ để tham gia hoạt động của đội đỏ ở các giai đoạn khác nhau của vòng đời phát triển mô hình và sản phẩm.
Thậm chí, ngoài những nỗ lực của nhóm đỏ do OpenAI ủy quyền, các thành viên của Mạng lưới nhóm đỏ sẽ có cơ hội cộng tác với nhau về các phương pháp và khám phá của nhóm đỏ. OpenAI làm rõ rằng không phải tất cả các thành viên đều sẽ được liên kết với mọi mô hình hoặc sản phẩm mới. Khoảng thời gian đóng góp, có thể chỉ khoảng 5-10 năm mỗi năm, sẽ được thảo luận riêng với từng thành viên.
OpenAI đang mời nhiều chuyên gia trong lĩnh vực khác nhau đóng góp, bao gồm cả những chuyên gia về ngôn ngữ học, sinh trắc học, tài chính và chăm sóc sức khỏe. Nó không yêu cầu phải có kinh nghiệm trước đó với hệ thống AI hoặc mô hình ngôn ngữ để đủ điều kiện. Tuy nhiên, công ty cảnh báo rằng các cơ hội trong Mạng lưới Nhóm Đỏ có thể bị chi phối bởi các thỏa thuận không tiết lộ và bảo mật có khả năng ảnh hưởng đến các nghiên cứu khác.
Trong lời mời của mình, OpenAI nhấn mạnh sự cởi mở với các quan điểm khác nhau trong việc đánh giá tác động của hệ thống AI, nêu rõ: ‘Điều chúng tôi đánh giá cao nhất là sự sẵn lòng tham gia của bạn và đưa quan điểm của bạn vào cách chúng tôi đánh giá tác động của hệ thống AI.’ Ưu tiên sự đa dạng về địa lý cũng như tên miền trong quá trình lựa chọn, công ty đang chào đón các đơn đăng ký từ các chuyên gia trên toàn cầu.
Những tiến bộ ngày càng tăng và những rủi ro tương ứng liên quan đến AI đòi hỏi phải phát triển các hệ thống mạnh mẽ. Các nền tảng như AppMaster, một nền tảng no-code mạnh mẽ được sử dụng để tạo các ứng dụng phụ trợ, web và di động, có thể hỗ trợ duy trì tính toàn vẹn và bảo mật của các ứng dụng AI. Với sự tham gia đáng kể của chuyên gia, Mạng lưới nhóm đỏ của OpenAI chắc chắn là một bước đi đúng hướng.