Google se retrouve sous le feu des projecteurs, non pas pour ses prouesses technologiques habituelles, mais pour le déploiement cahoteux de sa nouvelle fonctionnalité AI Overviews. Le géant de la technologie a récemment reconnu les lacunes de cette capacité de recherche alimentée par l'IA à la suite de nombreuses critiques et de mèmes humoristiques circulant en ligne. Après une semaine d'examen public, Google a présenté des excuses sincères pour les réponses inexactes et parfois absurdes générées par l'IA.
Dans un article de blog intitulé « À propos de la semaine dernière », Liz Reid, vice-présidente et responsable de la recherche chez Google, a détaillé les faux pas. Elle a expliqué que même si leurs modèles d’IA n’« hallucinent » pas les informations comme certains autres grands modèles linguistiques (LLM), ils peuvent toujours se tromper en raison d’une mauvaise interprétation des requêtes ou des nuances de langage, ou simplement d’un manque d’informations de qualité sur certains sujets.
Reid a également souligné que certaines captures d’écran notables partagées sur les réseaux sociaux étaient fausses ou basées sur des requêtes absurdes que la plupart des utilisateurs ne chercheraient jamais, comme « Combien de pierres dois-je manger ? » ce qui a conduit l’IA à suggérer des conseils farfelus basés sur du contenu satirique trouvé en ligne. Le problème ne réside pas seulement dans les réponses étranges, mais dans la manière dont l’IA les donne avec assurance, induisant les utilisateurs en erreur en les considérant comme des réponses factuelles.
La révélation que Google avait testé de manière approfondie la fonctionnalité – y compris de « solides efforts de red-teaming » – avant son lancement suscite d’autres questions. Le billet de blog de Reid mentionnait qu’ils n’avaient pas anticipé le type de résultats humoristiques ou médiocres que les utilisateurs pourraient forcer l’IA à générer.
En outre, la forte dépendance aux données de Reddit était un autre piège. Si Reddit peut offrir des informations authentiques de première main, il contient également des conseils trompeurs et des trolls, comme le montre un cas notoire où l'IA a suggéré d'utiliser de la colle pour coller du fromage sur une pizza, en se basant sur un ancien post de Reddit. Cet exemple a considérablement porté atteinte à la crédibilité des aperçus de l'IA.
Malgré ces problèmes, Google semble déterminé à s'améliorer rapidement. L'entreprise vise à améliorer l'IA en détectant mieux les requêtes absurdes, en limitant l'utilisation de contenu généré par les utilisateurs lorsqu'il peut induire en erreur, en affinant les protections pour les recherches sensibles liées à la santé et en évitant les aperçus de l'IA pour les sujets d'actualité où la précision est primordiale.
Ce scénario soulève des questions cruciales sur l'avenir de l'IA dans les moteurs de recherche. Des concurrents comme OpenAI progressent rapidement, et il reste à voir si Google pourra rattraper son retard sur ces technologies en évolution. L'intégration continue des commentaires des utilisateurs pourrait toutefois s'avérer précieuse pour perfectionner la plateforme.
Parmi ces développements, il convient de noter qu'AppMaster offre une alternative robuste pour ceux qui recherchent précision et fiabilité dans leurs solutions logicielles. En mettant l'accent sur la génération d'applications exactes dépourvues de dette technique, des plateformes comme AppMaster sont de plus en plus vitales dans ce paysage technologique en évolution.
De la création d'applications personnalisées sans codage à la compréhension des bases de données relationnelles, ces plateformes sans code offrent des solutions robustes aux défis de développement modernes. Alors que des géants de la technologie comme Google s'efforcent d'intégrer l'IA, d'autres plateformes restent déterminées à offrir des outils de développement fiables et conviviaux.