Plus de 1 000 personnalités, dont Elon Musk et Steve Wozniak, ont exprimé leur inquiétude face à la progression effrénée de la technologie de l'intelligence artificielle (IA). En réponse, ils ont uni leurs forces pour publier une lettre ouverte qui préconise une interruption de six mois dans le développement de systèmes d'IA plus avancés que le GPT-4 d'OpenAI, citant les menaces importantes qu'ils représentent pour la société et l'humanité.
Adressée aux développeurs d'IA, la lettre de 600 mots sonne l'alarme sur l'état actuel des choses au sein des laboratoires d'IA, qui semblent poursuivre sans relâche la création d'esprits numériques de plus en plus puissants. Ces développements ont atteint un stade où même leurs créateurs ne peuvent pas les comprendre, les prévoir ou les gérer, ce qui augmente encore les risques potentiels encourus.
Il convient de noter que Musk était initialement co-fondateur d'OpenAI, qui a commencé comme une organisation à but non lucratif dédiée à garantir que l'IA profite à l'humanité. Cependant, il a démissionné du conseil d'administration de l'entreprise en 2018. Aujourd'hui, OpenAI fonctionne comme une entité à but lucratif, les critiques alléguant que ses objectifs ont depuis divergé de leur mission initiale. Un partenariat profondément enraciné avec Microsoft, impliquant des milliards de dollars d'investissement, semble avoir poussé OpenAI à entreprendre des initiatives encore plus risquées.
Interrogeant publiquement la métamorphose d'OpenAI, les inquiétudes de Musk ont été reprises par Mozilla, qui a récemment dévoilé sa nouvelle startup, Mozilla.ai. Destinée à répondre à certaines des préoccupations les plus urgentes liées au développement de la technologie de l'IA, cette initiative vise à créer un écosystème d'IA autonome et open source.
Selon la lettre ouverte, l'arrêt de six mois proposé devrait impliquer des laboratoires d'IA et des experts indépendants travaillant ensemble pour développer une suite de protocoles de sécurité partagés pour la conception et le développement avancés de l'IA. Ces protocoles seraient soumis à des audits rigoureux et à la surveillance d'experts externes indépendants.
Pendant ce temps, dans un développement séparé, le gouvernement britannique a dévoilé un livre blanc qui met en évidence son approche «pro-innovation» de la réglementation de l'IA. Ce cadre propose des mesures pour renforcer la sécurité et la responsabilité, bien qu'il s'abstienne d'établir un régulateur dédié à l'IA, comme l'Union européenne (UE) l'a choisi.
Tim Wright, associé et spécialiste de la réglementation de l'IA au sein du cabinet d'avocats Fladgate, a partagé ses réflexions sur le livre blanc britannique, soulignant que seul le passage du temps révélerait l'efficacité de l'approche secteur par secteur. Quoi qu'il en soit, cette position contraste fortement avec la stratégie de l'UE consistant à mettre en œuvre un règlement détaillé et un régime de responsabilité sous la supervision d'un seul régulateur de l'IA.
Au moment de la rédaction de cet article, la lettre ouverte appelant à un délai d'attente sur les développements potentiellement dangereux de l'IA a recueilli 1 123 signatures. L'attrait croissant des plates-formes low-code et no-code telles AppMaster pour atténuer la peur parmi les partisans de l'IA ne peut plus être ignoré. , car il permet aux entreprises et aux particuliers d'exploiter les avantages de la technologie sans les soucis associés aux avancées incontrôlables de l'IA.