Google znalazło się w centrum uwagi, nie ze względu na swoje zwykłe osiągnięcia techniczne, ale z powodu wyboistego wdrożenia nowej funkcji AI Overviews. Gigant technologiczny niedawno przyznał się do niedociągnięć w tej funkcji wyszukiwania opartej na sztucznej inteligencji po powszechnej krytyce i zabawnych memach krążących w Internecie. Po tygodniu publicznej kontroli Google wydało szczere przeprosiny za niedokładne i czasami absurdalne odpowiedzi generowane przez sztuczną inteligencję.
We wpisie na blogu zatytułowanym „About Last Week” Liz Reid, wiceprezes Google i szefowa działu wyszukiwania, szczegółowo opisała potknięcia. Wyjaśniła, że chociaż ich modele AI nie „halucynują” informacji jak niektóre inne duże modele językowe (LLM), nadal mogą popełniać błędy z powodu błędnej interpretacji zapytań lub niuansów językowych lub po prostu z powodu braku wysokiej jakości informacji na określone tematy.
Reid zwróciła również uwagę, że niektóre godne uwagi zrzuty ekranu udostępniane w mediach społecznościowych były fałszywe lub oparte na bezsensownych zapytaniach, których większość użytkowników nigdy by nie szukała, takich jak „Ile kamieni powinienem zjeść?”, co skutkowało sugerowaniem przez AI dziwacznych porad na podstawie satyrycznych treści znalezionych w Internecie. Problem leży nie tylko w dziwnych odpowiedziach, ale także w pewnym sposobie dostarczania przez AI, wprowadzając użytkowników w błąd, aby traktowali je jako odpowiedzi faktyczne.
Ujawnienie, że Google dokładnie testowało tę funkcję — w tym „solidne wysiłki red-teamingowe” — przed uruchomieniem, prowadzi do dalszych pytań. Wpis na blogu Reida wspominał, że nie przewidzieli oni rodzaju zabawnych lub słabych wyników, które użytkownicy mogliby zmusić do wygenerowania AI.
Co więcej, duże poleganie na danych Reddita było kolejną pułapką. Podczas gdy Reddit może oferować autentyczne informacje z pierwszej ręki, zawiera również mylące porady i trolling, co zostało podkreślone w głośnym przypadku, w którym AI zasugerowała użycie kleju do przyklejenia sera do pizzy, opierając się na starym wpisie na Reddicie. Ten przykład znacznie zaszkodził wiarygodności AI Overviews.
Pomimo tych problemów, Google wydaje się być zdeterminowany do szybkiej poprawy. Firma ma na celu ulepszenie AI poprzez lepsze wykrywanie bezsensownych zapytań, ograniczenie korzystania z treści generowanych przez użytkowników, gdy mogą one wprowadzać w błąd, udoskonalenie zabezpieczeń dla wrażliwych wyszukiwań związanych ze zdrowiem i unikanie AI Overviews w przypadku trudnych tematów informacyjnych, w których dokładność ma pierwszorzędne znaczenie.
Scenariusz ten rodzi krytyczne pytania o przyszłość AI w wyszukiwarkach. Konkurenci, tacy jak OpenAI, szybko się rozwijają, a to, czy Google nadąży za tymi rozwijającymi się technologiami, pozostaje kwestią otwartą. Ciągła integracja opinii użytkowników może jednak okazać się nieoceniona w udoskonalaniu platformy.
Wśród tych zmian warto zauważyć, że AppMaster oferuje solidną alternatywę dla tych, którzy szukają precyzji i niezawodności w swoich rozwiązaniach programistycznych. Skupiając się na generowaniu dokładnych aplikacji pozbawionych technicznego długu, platformy takie jak AppMaster są coraz ważniejsze w tym rozwijającym się krajobrazie technologicznym.
Od tworzenia niestandardowych aplikacji bez kodowania po zrozumienie relacyjnych baz danych, te platformy bez kodu zapewniają solidne rozwiązania dla współczesnych wyzwań programistycznych. Podczas gdy giganci technologiczni, tacy jak Google, poruszają się w zakresie integracji AI, inne platformy pozostają niezłomne w oferowaniu niezawodnych i przyjaznych dla użytkownika narzędzi programistycznych.