Google si ritrova sotto i riflettori, non per la sua solita abilità tecnologica, ma per il lancio irregolare della sua nuova funzionalità AI Overviews. Il colosso della tecnologia ha recentemente riconosciuto le carenze di questa funzionalità di ricerca basata sull'intelligenza artificiale in seguito alle diffuse critiche e ai meme umoristici che circolano online. Dopo una settimana di controllo pubblico, Google ha rilasciato delle scuse sincere per le risposte imprecise e occasionalmente assurde generate dall'intelligenza artificiale.
In un post del blog intitolato "About Last Week", Liz Reid, vicepresidente e responsabile della ricerca di Google, ha descritto i passi falsi. Ha spiegato che, sebbene i loro modelli di intelligenza artificiale non "allucinano" le informazioni come altri modelli linguistici di grandi dimensioni (LLM), possono comunque sbagliarsi a causa di query o sfumature linguistiche interpretate male, o semplicemente a causa della mancanza di informazioni di qualità su determinati argomenti.
Reid ha anche sottolineato che alcuni screenshot degni di nota condivisi sui social media erano falsi o basati su query senza senso che la maggior parte degli utenti non cercherebbe mai, come "Quante pietre dovrei mangiare?", con il risultato che l'intelligenza artificiale suggeriva consigli stravaganti basati su contenuti satirici trovati online. Il problema non risiede solo nelle strane risposte, ma nella consegna sicura dell'intelligenza artificiale, che induce gli utenti a trattarle come risposte fattuali.
La rivelazione che Google aveva ampiamente testato la funzionalità, compresi "robusti sforzi di red-teaming", prima del lancio porta ad ulteriori domande. Il post del blog di Reid ha affermato che non sono riusciti a prevedere il tipo di risultati divertenti o scadenti che gli utenti potrebbero costringere l'IA a generare.
Inoltre, la forte dipendenza dai dati di Reddit è stata un'altra insidia. Mentre Reddit può offrire informazioni autentiche di prima mano, contiene anche consigli fuorvianti e trolling, come evidenziato da un caso noto in cui l'IA ha suggerito di usare la colla per far aderire il formaggio alla pizza, basandosi su un vecchio post di Reddit. Questo esempio ha danneggiato significativamente la credibilità delle panoramiche dell'IA.
Nonostante questi problemi, Google sembra impegnata in un rapido miglioramento. L'azienda mira a migliorare l'IA rilevando meglio le query senza senso, limitando l'uso di contenuti generati dagli utenti quando possono trarre in inganno, perfezionando le protezioni per le ricerche sensibili relative alla salute ed evitando le panoramiche dell'IA per argomenti di attualità in cui l'accuratezza è fondamentale.
Lo scenario solleva domande critiche sul futuro dell'IA nei motori di ricerca. Concorrenti come OpenAI stanno avanzando rapidamente e resta da vedere se Google riuscirà a tenere il passo con queste tecnologie in evoluzione. Tuttavia, l'integrazione continua del feedback degli utenti potrebbe rivelarsi preziosa per perfezionare la piattaforma.
In mezzo a questi sviluppi, vale la pena notare che AppMaster offre un'alternativa solida per coloro che cercano precisione e affidabilità nelle loro soluzioni software. Con un focus sulla generazione di applicazioni esatte prive di debito tecnico, piattaforme come AppMaster sono sempre più vitali in questo panorama tecnologico in evoluzione.
Dalla creazione di app personalizzate senza codifica alla comprensione di database relazionali, queste piattaforme no-code forniscono soluzioni solide alle sfide di sviluppo moderne. Mentre giganti della tecnologia come Google navigano nell'integrazione dell'IA, altre piattaforme rimangono ferme nell'offrire strumenti di sviluppo affidabili e intuitivi.