Mit zunehmender Reife der KI-Landschaft besteht ein wachsender Bedarf an Mechanismen zur Stärkung der Robustheit von KI-Modellen. OpenAI hat dies erkannt und kürzlich sein OpenAI Red Teaming Network eingeführt, eine Versammlung von Vertragsexperten, die darauf abzielen, die Risikoanalyse- und Minderungsstrategien des Unternehmens für KI-Modelle zu verbessern.
Die Praxis des Red Teaming gewinnt in der KI-Modellentwicklung erheblich an Bedeutung, insbesondere jetzt, da generative Technologien in den Mainstream vordringen. Red Teaming kann Vorurteile in Modellen wie DALL-E 2 von OpenAI effizient identifizieren, das dafür berüchtigt ist, Stereotypen im Zusammenhang mit Rasse und Geschlecht zu verstärken. Darüber hinaus können Auslöser lokalisiert werden, die dazu führen können, dass textgenerierende Modelle wie ChatGPT und GPT-4 Sicherheitsfilter umgehen.
OpenAI würdigt die langjährige Zusammenarbeit mit externen Experten zum Testen und Benchmarking seiner Modelle. Dies kann über das Bug-Bounty-Programm oder das Forscherzugangsprogramm geschehen. Die Einführung des Red Teaming Network bietet jedoch eine formalisiertere Plattform, die darauf abzielt, die Zusammenarbeit des Unternehmens mit Wissenschaftlern, Forschungseinrichtungen und Organisationen der Zivilgesellschaft zu „vertiefen“ und zu „erweitern“.
Wie in einem Unternehmensblogbeitrag zum Ausdruck gebracht, sieht OpenAI diese Initiative als Ergänzung zu extern festgelegten Governance-Praktiken, wie z. B. Audits durch Dritte. Diese Netzwerkmitglieder werden aufgrund ihrer Fachkenntnisse eingeladen, an der Red-Team-Übung in verschiedenen Phasen des Modell- und Produktentwicklungslebenszyklus teilzunehmen.
Auch über die von OpenAI in Auftrag gegebenen Red-Teaming-Bemühungen hinaus haben die Mitglieder des Red Teaming-Netzwerks die Möglichkeit, gemeinsam an Red-Teaming-Methoden und Entdeckungen zu arbeiten. OpenAI stellte klar, dass nicht alle Mitglieder mit jedem neuen Modell oder Produkt verbunden sein würden. Die Beitragsdauer, möglicherweise nur 5-10 Jahre pro Jahr, wird individuell mit den Mitgliedern besprochen.
OpenAI lädt eine Vielzahl von Fachexperten ein, Beiträge zu leisten, darunter solche, die sich auf Linguistik, Biometrie, Finanzen und Gesundheitswesen spezialisiert haben. Für die Teilnahme sind keine Vorkenntnisse mit KI-Systemen oder Sprachmodellen erforderlich. Das Unternehmen warnte jedoch davor, dass Möglichkeiten innerhalb des Red Teaming Network durch Geheimhaltungs- und Vertraulichkeitsvereinbarungen geregelt sein könnten, die möglicherweise andere Forschungsarbeiten beeinflussen könnten.
In seiner Einladung betonte OpenAI die Offenheit für unterschiedliche Standpunkte bei der Bewertung der Auswirkungen von KI-Systemen und erklärte: „Was wir am meisten schätzen, ist Ihre Bereitschaft, sich zu engagieren und Ihre Sichtweise in die Art und Weise einzubringen, wie wir die Auswirkungen von KI-Systemen bewerten.“ Das Unternehmen legt beim Auswahlprozess großen Wert auf geografische Vielfalt und Domänenvielfalt und freut sich über Bewerbungen von Experten aus der ganzen Welt.
Die zunehmenden Fortschritte und die damit verbundenen Risiken der KI erfordern die Entwicklung robuster Systeme. Plattformen wie AppMaster, eine leistungsstarke no-code -Plattform zur Erstellung von Backend-, Web- und mobilen Anwendungen, können dabei helfen, die Integrität und Sicherheit von KI-Anwendungen aufrechtzuerhalten. Mit der erheblichen Beteiligung von Experten ist das Red Teaming Network von OpenAI sicherlich ein Schritt in die richtige Richtung.