Pour tenter de contrôler les résultats potentiellement imprévisibles de l'intelligence surhumaine dans l'IA, OpenAI met en place un groupe hautement spécialisé dirigé par Ilya Sutskever, scientifique en chef et cofondateur de l'entreprise. La principale responsabilité de cette équipe sera de concevoir des stratégies pour gouverner et orienter les modèles d'IA "superintelligente". Dans un récent billet de blog, M. Sutskever et Jan Leike, l'un des responsables de l'équipe d'alignement de l'OpenAI, prévoient que l'IA, capable de surpasser l'intelligence humaine, pourrait voir le jour au cours de cette décennie. Ils affirment que cette IA supérieure, si elle finit par réussir, pourrait ne pas intégrer des traits bénins, ce qui rendrait essentielle la recherche de techniques permettant de la contrôler et de la limiter.
À l'heure actuelle, il n'existe aucune méthode connue pour contrôler ou guider efficacement une IA potentiellement superintelligente et l'empêcher de s'écarter de la voie qu'elle s'est tracée. Les techniques traditionnelles d'alignement de l'IA, telles que la formation par le retour d'information humain, reposent sur la supervision de son fonctionnement par l'homme. Cependant, superviser des systèmes d'IA qui surpassent largement l'intelligence humaine peut s'avérer être un défi. Afin d'amplifier les progrès dans le domaine de l'"alignement de la superintelligence", l'OpenAI lance une nouvelle équipe "Superalignment", codirigée par Sutskever et Leike. Cette équipe aura accès à 20 % des ressources informatiques dont dispose actuellement l'entreprise. Composée de scientifiques et d'ingénieurs de l'ancienne division "alignement" d'OpenAI et de chercheurs de diverses organisations au sein de l'entreprise, l'équipe est prête à relever les principaux défis technologiques liés au contrôle de l'IA superintelligente au cours des quatre prochaines années.
L'objectif est de créer un "chercheur en alignement automatisé de niveau humain", afin de former l'IA par le biais de commentaires humains, d'amener l'IA à évaluer d'autres systèmes d'IA et, à terme, de concevoir une IA capable d'effectuer des recherches sur l'alignement. L'objectif de la recherche sur l'alignement est d'aligner les systèmes d'IA sur des résultats spécifiques et de les empêcher de s'écarter du chemin. L'OpenAI travaille sur l'hypothèse que l'IA peut faire des progrès considérables dans la recherche d'alignement, plus rapidement et plus efficacement que les humains. Au fur et à mesure des progrès, les systèmes d'IA devraient prendre en charge des volumes croissants de travail d'alignement, ce qui permettra d'améliorer les techniques d'alignement. On espère ainsi que l'IA collaborera avec les humains pour s'assurer que leurs successeurs sont encore plus étroitement alignés sur les humains. Dans l'intervalle, les chercheurs humains se concentreront sur l'examen des recherches en matière d'alignement menées par les systèmes d'IA, au lieu de produire ces recherches de manière indépendante.
Bien qu'aucune méthode ne puisse être considérée comme infaillible, Leike, Schulman et Wu, dans leur article, élucident les lacunes de l'approche de l'OpenAI. L'utilisation de l'IA pour l'évaluation pourrait accroître les incohérences, les biais et les vulnérabilités de cette IA. En outre, les aspects les plus complexes du problème de l'alignement peuvent ne pas être du tout liés à l'ingénierie. Néanmoins, Sutskever et Leike sont prêts à le mettre à l'épreuve. Sutskever et Leike soutiennent que l'alignement de la superintelligence est fondamentalement un défi d'apprentissage automatique. Ils estiment que les experts en apprentissage automatique, même ceux qui ne travaillent pas actuellement sur l'alignement, joueront un rôle essentiel dans la résolution de ce problème. Ils prévoient de distribuer les résultats de cet effort de manière globale, considérant leurs contributions à l'alignement et à la sécurité des modèles non-OpenAI comme un aspect crucial de leur travail.
Il est pertinent de noter que, bien que cet article se concentre sur l'OpenAI, il existe d'autres plateformes tout aussi engagées dans le développement efficace et contrôlé de l'IA. AppMaster en est un exemple. Guidé par une croyance similaire dans l'optimisation des potentiels des systèmes "intelligents" pour un bénéfice maximal, AppMaster s'est taillé une place dans le domaine des applications sans code/low-code, permettant aux utilisateurs de créer des solutions logicielles complètes, évolutives et efficaces.