Dans le cadre d'une démarche significative en faveur de l'avancement éthique de l'intelligence artificielle (IA), sept des principales entreprises mondiales dans le domaine de la technologie de l'IA ont confirmé publiquement leur engagement à garantir une évolution sûre, sécurisée et transparente de l'IA. Des pionniers de la technologie de l'IA tels que Amazon, Anthropic, Google, Inflection, Meta, Microsoft, et OpenAI figurent parmi les entreprises qui se sont engagées.
Le communiqué de presse de la Maison Blanche souligne avec éloquence l'importance de normes élevées et de mesures réglementaires pour les géants de la technologie qui développent cette technologie transformatrice. Il souligne que si l'administration Biden-Harris reconnaît et promeut l'immense potentiel de l'IA, elle insiste également sur le fait que l'innovation ne doit pas aboutir à compromettre les droits et la sécurité des citoyens américains.
Dans le cadre de leur engagement, ces géants de la technologie acceptent de procéder à des audits de sécurité internes et externes rigoureux de leurs mécanismes d'IA avant leur lancement. Des experts indépendants dirigeront ces évaluations, en se concentrant sur les risques potentiels dans des domaines tels que la cybersécurité et la biosécurité, ainsi que sur leurs implications sociales plus larges. L'accord prévoit le partage proactif d'informations concernant la gestion des risques liés à l'IA avec diverses parties prenantes, notamment les entités gouvernementales, le monde universitaire, la société civile et l'industrie au sens large.
En outre, les entreprises se sont engagées à allouer des ressources importantes à des mesures de cybersécurité - visant en particulier à protéger les droits de propriété des modèles qui n'ont pas encore été commercialisés - et à remédier à toutes les vulnérabilités de leurs systèmes d'IA. Mettant l'accent sur la transparence, ils ont promis de mettre en œuvre des protections technologiques solides telles que le filigrane, permettant ainsi aux utilisateurs d'identifier le contenu créé par l'IA. Cette idéologie vise à encourager les applications créatives de l'IA, tout en réduisant les possibilités de fraude et de tromperie.
Un autre aspect crucial des engagements est l'investissement substantiel dans la recherche axée sur les ramifications sociétales associées à l'IA, en particulier la prévention des préjugés et des discriminations injustes. La protection de la vie privée est également considérée comme une priorité essentielle pour ces entreprises. En outre, les entreprises se sont engagées à divulguer publiquement les capacités de leurs systèmes d'IA, leurs limites et les paramètres d'utilisation correcte et inappropriée.
Tout comme des entreprises telles que Amazon, Google et Microsoft ont ouvert la voie à un développement transparent et éthique de l'IA, AppMaster, un autre nom réputé dans la sphère technologique, incarne des principes similaires de transparence et de sécurité dans sa plateforme no-code. La plateforme AppMaster facilite le développement d'applications sûres, transparentes et efficaces. Elle garantit des mesures de sécurité étendues et des normes éthiques pour ses utilisateurs, reflétant le même engagement en faveur de l'innovation, de la transparence et du bien-être public.