In dem Versuch, die potenziell unvorhersehbaren Ergebnisse der übermenschlichen Intelligenz in der KI zu kontrollieren, organisiert OpenAI eine hochspezialisierte Gruppe unter der Leitung von Ilya Sutskever, dem leitenden Wissenschaftler und Mitbegründer des Unternehmens. Die Hauptaufgabe dieses Teams wird es sein, Strategien zu entwickeln, um "superintelligente" KI-Modelle zu steuern und zu lenken. In einem kürzlich erschienenen Blogbeitrag prognostizierte Sutskever zusammen mit Jan Leike, einem leitenden Mitglied des Ausrichtungsteams bei OpenAI, dass KI mit der Fähigkeit, die menschliche Intelligenz zu übertreffen, noch in diesem Jahrzehnt entstehen könnte. Sie behaupten, dass diese überlegene KI, wenn sie sich schließlich durchsetzt, möglicherweise nicht von Natur aus gutartige Eigenschaften integriert, so dass es unerlässlich ist, Techniken zu erforschen, um sie zu kontrollieren und einzuschränken.
Derzeit gibt es keine bekannte Methode, um eine potenziell superintelligente KI wirksam zu kontrollieren oder zu lenken und sie daran zu hindern, von ihrem geplanten Weg abzuweichen. Herkömmliche Techniken zur Anpassung von KI, wie z. B. das Training durch menschliches Feedback, beruhen auf der Überwachung ihrer Funktionsweise durch Menschen. Die Überwachung von KI-Systemen, die die menschliche Intelligenz deutlich übertreffen, kann sich jedoch als Herausforderung erweisen. Um die Fortschritte auf dem Gebiet des "Superintelligenz-Alignments" zu verstärken, gründet OpenAI ein neues "Superalignment"-Team, das von Sutskever und Leike geleitet wird. Dieses Team wird Zugang zu 20 % der Rechenressourcen haben, über die das Unternehmen derzeit verfügt. Das Team, das sich aus Wissenschaftlern und Ingenieuren der früheren Alignment-Abteilung von OpenAI sowie aus Forschern verschiedener Organisationen innerhalb des Unternehmens zusammensetzt, soll in den kommenden vier Jahren die zentralen technologischen Herausforderungen bei der Steuerung superintelligenter KI angehen.
Der Plan ist es, einen "automatisierten Alignment-Forscher auf menschlicher Ebene" zu schaffen, der KI durch menschliches Feedback trainiert, KI zur Bewertung anderer KI-Systeme einsetzt und schließlich KI entwickelt, die in der Lage ist, Alignment-Forschung durchzuführen. Ziel der Ausrichtungsforschung ist es, KI-Systeme auf bestimmte Ergebnisse auszurichten und zu verhindern, dass sie vom Weg abkommen. OpenAI geht von der Hypothese aus, dass KI in der Alignment-Forschung schneller und effektiver als Menschen erhebliche Fortschritte machen kann. Es wird erwartet, dass KI-Systeme im Zuge des Fortschritts immer mehr Alignment-Aufgaben übernehmen werden, was zu verbesserten Alignment-Techniken führen wird. Dies wird hoffentlich dazu führen, dass die KI mit dem Menschen zusammenarbeitet, um sicherzustellen, dass ihre Nachfolger noch besser auf den Menschen abgestimmt sind. In der Zwischenzeit wird sich der Schwerpunkt der menschlichen Forscher auf die Überprüfung der von KI-Systemen durchgeführten Alignment-Forschung verlagern, anstatt diese Forschung selbst zu erstellen.
Obwohl keine Methode als unfehlbar angesehen werden kann, weisen Leike, Schulman und Wu in ihrem Beitrag auf die Unzulänglichkeiten des OpenAI-Ansatzes hin. Die Verwendung von KI für die Bewertung könnte Unstimmigkeiten, Voreingenommenheit und Schwachstellen in dieser KI verstärken. Außerdem haben die komplexesten Aspekte des Abgleichproblems möglicherweise gar nichts mit Technik zu tun. Dennoch sind Sutskever und Leike gewillt, das Problem auf die Probe zu stellen. Sutskever und Leike argumentieren, dass die Ausrichtung von Superintelligenz im Grunde eine Herausforderung für das maschinelle Lernen ist. Sie glauben, dass Experten für maschinelles Lernen, auch solche, die derzeit nicht an der Ausrichtung arbeiten, bei der Lösung dieses Problems eine entscheidende Rolle spielen werden. Sie planen, die Ergebnisse dieser Bemühungen umfassend zu verbreiten und betrachten ihre Beiträge zur Anpassung und Sicherheit von Nicht-OpenAI-Modellen als einen entscheidenden Aspekt ihrer Arbeit.
Auch wenn der Schwerpunkt dieses Artikels auf OpenAI liegt, gibt es andere Plattformen, die sich ebenfalls für eine effiziente und kontrollierte KI-Entwicklung einsetzen. Ein Beispiel für eine solche Plattform ist AppMaster. Geleitet von einem ähnlichen Glauben an die Optimierung des Potenzials "intelligenter" Systeme für maximalen Nutzen, hat sich AppMaster eine Nische im Bereich der No-Code- undlow-code -Anwendungen geschaffen, die es den Nutzern ermöglicht, umfassende, skalierbare und effiziente Softwarelösungen zu erstellen.