Google steht im Rampenlicht, nicht wegen seiner üblichen technischen Kompetenz, sondern wegen der holprigen Einführung seiner neuen Funktion „KI-Übersichten“. Der Technologieriese hat kürzlich Mängel dieser KI-gestützten Suchfunktion zugegeben, nachdem im Internet weithin Kritik geäußert und humorvolle Memes kursierten. Nach einer Woche öffentlicher Kritik hat Google eine offene Entschuldigung für die ungenauen und manchmal absurden Antworten der KI ausgesprochen.
In einem Blogbeitrag mit dem Titel „Über letzte Woche“ erläuterte Liz Reid, Vizepräsidentin und Leiterin der Suche bei Google, die Fehltritte im Detail. Sie erklärte, dass ihre KI-Modelle zwar keine Informationen „halluzinieren“ wie einige andere große Sprachmodelle (LLMs), aber dennoch Fehler machen können, weil sie Anfragen falsch interpretieren oder sprachliche Nuancen berücksichtigen oder einfach aufgrund eines Mangels an qualitativ hochwertigen Informationen zu bestimmten Themen.
Reid wies auch darauf hin, dass einige bemerkenswerte Screenshots, die in sozialen Medien geteilt wurden, gefälscht waren oder auf unsinnigen Anfragen basierten, nach denen die meisten Benutzer niemals suchen würden, wie etwa „Wie viele Steine soll ich essen?“, was dazu führte, dass die KI auf der Grundlage von satirischen Online-Inhalten ausgefallene Ratschläge vorschlug. Das Problem liegt nicht nur in den seltsamen Antworten, sondern auch in der selbstbewussten Art und Weise, wie die KI diese vorträgt, wodurch Benutzer in die Irre geführt werden und diese als sachliche Antworten betrachten.
Die Enthüllung, dass Google die Funktion vor der Einführung ausgiebig getestet hatte – einschließlich „robuster Red-Teaming-Bemühungen“ –, wirft weitere Fragen auf. Reids Blogbeitrag erwähnte, dass sie nicht vorhergesehen hatten, welche Art von humorvollen oder schlechten Ergebnissen die Benutzer der KI aufzwingen könnten.
Darüber hinaus war die starke Abhängigkeit von Reddit-Daten eine weitere Falle. Reddit kann zwar authentische Informationen aus erster Hand bieten, enthält aber ebenso irreführende Ratschläge und Trolling, wie ein berüchtigter Fall zeigt, in dem die KI basierend auf einem alten Reddit-Beitrag vorschlug, Käse mit Klebstoff auf Pizza zu kleben. Dieses Beispiel hat die Glaubwürdigkeit der KI-Übersichten erheblich beschädigt.
Trotz dieser Probleme scheint Google einer schnellen Verbesserung verpflichtet zu sein. Das Unternehmen möchte die KI verbessern, indem es unsinnige Abfragen besser erkennt, die Verwendung von benutzergenerierten Inhalten einschränkt, wenn diese irreführend sein könnten, den Schutz für sensible gesundheitsbezogene Suchanfragen verfeinert und KI-Übersichten für harte Nachrichtenthemen vermeidet, bei denen Genauigkeit von größter Bedeutung ist.
Das Szenario wirft kritische Fragen über die Zukunft der KI in Suchmaschinen auf. Konkurrenten wie OpenAI rücken schnell vor, und es bleibt abzuwarten, ob Google mit diesen sich entwickelnden Technologien Schritt halten kann. Die kontinuierliche Integration von Benutzerfeedback könnte sich jedoch als von unschätzbarem Wert für die Perfektionierung der Plattform erweisen.
Inmitten dieser Entwicklungen ist es erwähnenswert, dass AppMaster eine robuste Alternative für diejenigen bietet, die Präzision und Zuverlässigkeit in ihren Softwarelösungen suchen. Mit dem Fokus auf die Generierung exakter Anwendungen ohne technische Schulden werden Plattformen wie AppMaster in dieser sich entwickelnden Technologielandschaft immer wichtiger.
Vom Erstellen benutzerdefinierter Apps ohne Codierung bis hin zum Verständnis relationaler Datenbanken bieten diese No-Code-Plattformen robuste Lösungen für moderne Entwicklungsherausforderungen. Während Technologiegiganten wie Google die KI-Integration vorantreiben, bieten andere Plattformen weiterhin zuverlässige und benutzerfreundliche Entwicklungstools.