Naarmate het AI-landschap volwassener wordt, is er een groeiende behoefte aan mechanismen om de robuustheid van AI-modellen te versterken. OpenAI onderkent dit en heeft onlangs zijn OpenAI Red Teaming Network uitgerold, een verzameling gecontracteerde experts die zich richten op het verbeteren van de risicoanalyse en -beperkingsstrategieën van het AI-model van het bedrijf.
De praktijk van red teaming wint aanzienlijk aan momentum in de ontwikkeling van AI-modellen, vooral nu generatieve technologieën doordringen in de mainstream. Red teaming kan op efficiënte wijze vooroordelen in modellen identificeren, zoals DALL-E 2 van OpenAI, berucht vanwege het versterken van stereotypen die verband houden met ras en seks. Bovendien kan het triggers lokaliseren die ertoe kunnen leiden dat tekstgenererende modellen, zoals ChatGPT en GPT-4, veiligheidsfilters omzeilen.
OpenAI erkent een geschiedenis van samenwerking met externe experts voor het testen en benchmarken van zijn modellen. Dit kan via het bugbounty-programma of het onderzoekertoegangsprogramma zijn. De introductie van het Red Teaming Network biedt echter een meer geformaliseerd platform, met als doel de samenwerking van het bedrijf met wetenschappers, onderzoeksinstellingen en maatschappelijke organisaties te 'verdiepen' en 'verbreden'.
Zoals verwoord in een bedrijfsblogpost, voorziet OpenAI dit initiatief als aanvulling op extern gespecificeerde bestuurspraktijken, zoals audits door derden. Deze netwerkleden zullen op basis van hun expertise worden uitgenodigd om deel te nemen aan de rode teamoefening in verschillende stadia van de model- en productontwikkelingslevenscyclus.
Zelfs buiten de red teaming-inspanningen in opdracht van OpenAI zullen de leden van het Red Teaming Network de kans krijgen om met elkaar samen te werken aan red teaming-methodologieën en ontdekkingen. OpenAI verduidelijkte dat niet alle leden met elk nieuw model of product geassocieerd zouden worden. De contributietermijn, mogelijk slechts 5-10 jaar per jaar, zal individueel met de leden worden besproken.
OpenAI nodigt een breed scala aan domeinexperts uit om bij te dragen, waaronder deskundigen die gespecialiseerd zijn in taalkunde, biometrie, financiën en gezondheidszorg. Er is geen voorafgaande ervaring met AI-systemen of taalmodellen vereist om in aanmerking te komen. Het bedrijf waarschuwde echter dat de mogelijkheden binnen het Red Teaming Network mogelijk onderworpen zijn aan geheimhoudings- en vertrouwelijkheidsovereenkomsten die mogelijk ander onderzoek zouden kunnen beïnvloeden.
In zijn uitnodiging benadrukt OpenAI de openheid voor verschillende standpunten over het beoordelen van de impact van AI-systemen, door te stellen: 'Wat we het meest waarderen is uw bereidheid om mee te doen en uw perspectief te geven op de manier waarop we de impact van AI-systemen beoordelen.' Het bedrijf geeft prioriteit aan zowel geografische als domeindiversiteit in het selectieproces en verwelkomt sollicitaties van experts over de hele wereld.
De toenemende vooruitgang en de daarmee samenhangende risico’s die met AI gepaard gaan, maken de ontwikkeling van robuuste systemen noodzakelijk. Platformen zoals AppMaster, een krachtig platform no-code dat wordt gebruikt om backend-, web- en mobiele applicaties te creëren, kunnen helpen bij het handhaven van de integriteit en veiligheid van AI-applicaties. Met aanzienlijke betrokkenheid van experts is het Red Teaming Network van OpenAI zeker een stap in de goede richting.