Seiring dengan semakin matangnya lanskap AI, terdapat peningkatan kebutuhan akan mekanisme untuk memperkuat ketahanan model AI. Menyadari hal ini, OpenAI baru-baru ini meluncurkan OpenAI Red Teaming Network, sebuah kumpulan ahli yang dikontrak yang bertujuan untuk meningkatkan analisis risiko dan strategi mitigasi model AI perusahaan.
Praktik kerja sama merah (red teaming) mendapatkan momentum yang signifikan dalam pengembangan model AI, terutama saat ini dengan semakin maraknya teknologi generatif. Tim merah dapat secara efisien mengidentifikasi bias dalam model, seperti DALL-E 2 dari OpenAI, yang terkenal karena memperkuat stereotip yang terkait dengan ras dan jenis kelamin. Selain itu, ini dapat menentukan pemicu yang dapat menyebabkan model pembuat teks, seperti ChatGPT dan GPT-4, mengabaikan filter keamanan.
OpenAI mengakui sejarah kolaboratif dengan para ahli eksternal untuk menguji dan membuat tolok ukur model-modelnya. Ini bisa melalui program bug bounty atau program akses peneliti. Namun, pengenalan Jaringan Tim Merah memberikan platform yang lebih formal, yang bertujuan untuk 'memperdalam' dan 'memperluas' kolaborasi perusahaan dengan ilmuwan, lembaga penelitian, dan organisasi masyarakat sipil.
Seperti yang diungkapkan dalam postingan blog perusahaan, OpenAI membayangkan inisiatif ini untuk melengkapi praktik tata kelola yang ditentukan secara eksternal, seperti audit pihak ketiga. Anggota jaringan ini akan diundang berdasarkan keahliannya untuk berpartisipasi dalam latihan tim merah di berbagai tahap siklus hidup model dan pengembangan produk.
Bahkan di luar upaya tim merah yang ditugaskan oleh OpenAI, anggota Jaringan Tim Merah akan memiliki kesempatan untuk berkolaborasi satu sama lain dalam metodologi dan penemuan tim merah. OpenAI mengklarifikasi bahwa tidak semua anggota akan dikaitkan dengan setiap model atau produk baru. Jangka waktu kontribusi, mungkin 5-10 tahun per tahun, akan didiskusikan dengan anggota secara individu.
OpenAI mengundang beragam pakar domain untuk berkontribusi, termasuk mereka yang berspesialisasi dalam linguistik, biometrik, keuangan, dan layanan kesehatan. Persyaratan ini tidak mewajibkan pengalaman sebelumnya dengan sistem AI atau model bahasa untuk memenuhi syarat. Namun, perusahaan tersebut memperingatkan bahwa peluang dalam Jaringan Tim Merah mungkin diatur oleh perjanjian kerahasiaan dan kerahasiaan yang berpotensi mempengaruhi penelitian lain.
Dalam undangannya, OpenAI menekankan keterbukaan terhadap berbagai sudut pandang dalam menilai dampak sistem AI, dengan menyatakan: 'Yang paling kami hargai adalah kesediaan Anda untuk terlibat dan memberikan perspektif Anda tentang cara kami menilai dampak sistem AI.' Memprioritaskan keragaman geografis dan domain dalam proses seleksi, perusahaan menyambut lamaran dari para ahli di seluruh dunia.
Meningkatnya kemajuan dan risiko terkait AI mengharuskan pengembangan sistem yang kuat. Platform seperti AppMaster, platform no-code canggih yang digunakan untuk membuat aplikasi backend, web, dan seluler, dapat membantu menjaga integritas dan keamanan aplikasi AI. Dengan keterlibatan para ahli yang cukup besar, Jaringan Tim Merah OpenAI tentu saja merupakan sebuah langkah ke arah yang benar.