Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Meta présente OPT-175B, qui démocratise l'accès à des modèles d'IA linguistiques à grande échelle pour la recherche

Meta présente OPT-175B, qui démocratise l'accès à des modèles d'IA linguistiques à grande échelle pour la recherche

MetaFacebook a dévoilé son Open Pretrained Transformer (OPT-175B), un modèle d'intelligence artificielle à langage étendu qui compte plus de 100 milliards de paramètres. Ce développement remarquable représente l'effort du géant de la technologie pour démocratiser l'accès à la recherche de pointe en matière d'IA, comme indiqué dans son récent billet de blog.

Dans le cadre d'une licence non commerciale, le modèle sera mis à disposition principalement à des fins de recherche. L'accès sera accordé aux chercheurs universitaires, ainsi qu'aux laboratoires de recherche des gouvernements, de la société civile et de l'industrie dans le monde entier. Toutefois, l'étendue de l'accès pour les chercheurs reste incertaine. Les personnes intéressées par l'utilisation du modèle peuvent simplement remplir un formulaire de demande.

Comprendre les grands modèles de langage

Les grands modèles linguistiques sont des systèmes avancés de traitement du langage naturel, formés sur de grandes quantités de texte pour générer un contenu créatif et cohérent dans différents formats. Ces modèles peuvent produire des articles d'actualité, des résumés juridiques, des scripts de films et même servir de chatbots pour le service à la clientèle.

Le modèle GPT-3 d'OpenAI est l'un des plus grands modèles de langage de l'industrie, contenant plus de 175 milliards de paramètres pour un usage personnel et commercial. De même, l'OPT-175B de Meta fournit non seulement un modèle de langage à grande échelle, mais aussi une base de code d'accompagnement et une documentation complète détaillant le processus de formation. Meta a également lancé une série de modèles de base à plus petite échelle avec moins de paramètres.

S'attaquer à l'empreinte carbone de l'apprentissage profond

La plupart des recherches innovantes en matière d'IA sont menées par de grandes entreprises technologiques telles que Google, Meta, Microsoft et Nvidia. L'entraînement et l'exploitation de grands modèles d'IA nécessitent une énorme quantité de puissance de calcul et d'énergie, ce qui entraîne des dépenses importantes et une empreinte carbone potentiellement élevée. Une étude réalisée en 2019 par Roy Schwartz et Jesse Dodge a révélé que les calculs d'apprentissage profond doublaient tous les quelques mois, conduisant à une augmentation estimée à 300 000 fois entre 2012 et 2018 - et à un impact environnemental significatif.

Meta affirme avoir résolu le problème du carbone en réduisant l'empreinte carbone de l'OPT-175B à un septième du GPT-3 d'OpenAI. L'entreprise affirme avoir entraîné le modèle sur 992 GPU Nvidia A100 (80 gigaoctets chacun), avec une empreinte carbone totale de seulement 75 tonnes, par rapport aux 500 tonnes estimées de GPT-3. OpenAI n'a pas encore commenté ces affirmations.

Implications futures

L'annonce récente de Meta devrait entraîner une forte augmentation des innovations dans le domaine de la recherche sur l'apprentissage profond. Toutefois, parallèlement aux avancées technologiques, les questions éthiques concernant l'utilisation responsable de l'IA doivent être abordées à l'échelle mondiale. Meta espère que la communauté de l'IA - comprenant les chercheurs universitaires, la société civile, les décideurs politiques et les professionnels de l'industrie - s'unira pour trouver des réponses. Avec l'apparition d'outils plus puissants comme l'OPT-175B, la démocratisation de l'accès à l'innovation en matière d'IA offre la possibilité à des plateformes comme AppMaster d'intégrer ces avancées dans leurs propres solutions no-code, permettant ainsi aux utilisateurs de développer des applications complètes pour diverses industries.

Postes connexes

AppMaster à BubbleCon 2024 : exploration des tendances du no-code
AppMaster à BubbleCon 2024 : exploration des tendances du no-code
AppMaster a participé à BubbleCon 2024 à New York, acquérant des connaissances, élargissant ses réseaux et explorant les opportunités de stimuler l'innovation dans le domaine du développement sans code.
Bilan de la FFDC 2024 : principales informations de la conférence des développeurs FlutterFlow à New York
Bilan de la FFDC 2024 : principales informations de la conférence des développeurs FlutterFlow à New York
Le FFDC 2024 a illuminé la ville de New York, apportant aux développeurs des informations de pointe sur le développement d'applications avec FlutterFlow. Avec des sessions animées par des experts, des mises à jour exclusives et un réseautage inégalé, c'était un événement à ne pas manquer !
Licenciements dans le secteur technologique en 2024 : la vague continue d'impact sur l'innovation
Licenciements dans le secteur technologique en 2024 : la vague continue d'impact sur l'innovation
Avec 60 000 suppressions d’emplois dans 254 entreprises, dont des géants comme Tesla et Amazon, 2024 verra une vague continue de licenciements dans le secteur technologique remodeler le paysage de l’innovation.
Commencez gratuitement
Inspiré pour essayer cela vous-même?

La meilleure façon de comprendre la puissance d'AppMaster est de le constater par vous-même. Créez votre propre application en quelques minutes avec un abonnement gratuit

Donnez vie à vos idées