Napędzany wykładniczym wzrostem ilości danych dostępnych do szkolenia dużych modeli językowych, Google podkreślił pilną potrzebę "czytelnej maszynowo metody wyboru i kontroli wydawców internetowych dla pojawiających się przypadków użycia sztucznej inteligencji i badań". Sugestia ta nawiązuje do klasycznych plików robots.txt, które były wykorzystywane przez strony internetowe przez wiele dziesięcioleci w celu zarządzania ich widocznością online dla wyszukiwarek.
Proponowany rozwój ma na celu rozszerzenie autonomii wydawców internetowych, umożliwiając im większą władzę nad ich treściami w cyfrowym krajobrazie. Metodologia ta stanowi integralną część zachowania dynamicznego i solidnego ekosystemu, odzwierciedlając cel plików robots.txt, które umożliwiają witrynom dyktowanie stopnia ekspozycji ich treści w wyszukiwarkach.
W swoim dążeniu do wspierania tego nowego poziomu kontroli nad szkoleniem AI, Google stara się kultywować relacje z międzynarodowymi współpracownikami, czerpiąc wiedzę ze środowisk akademickich, społeczeństwa obywatelskiego, wydawców internetowych i nie tylko. Te globalne wysiłki mają na celu ewolucję ustalonej logiki skromnego pliku robots.txt, aby sprostać pojawiającym się wymaganiom przyszłości napędzanej sztuczną inteligencją. Czyniąc to, Google planuje zachować prostotę i przejrzystość, które były znakiem towarowym prawie 30-letniego standardu internetowego.
Obecnie Google może pochwalić się rozwiązaniami Search Generative Experience i Bard w swoim zestawie narzędzi i jest obecnie w trakcie szkolenia swojego podstawowego modelu nowej generacji, Gemini. Ten zestaw narzędzi leży u podstaw chęci przewodzenia rozwojowi nowoczesnej wersji pliku robots.txt specyficznego dla szkolenia AI.
Zaznaczając początkowe etapy tego dyskursu, Google ułatwia publiczną dyskusję, uruchamiając listę mailingową, aby umożliwić zainteresowanym stronom zarejestrowanie zamiaru udziału w rozwoju tego nowatorskiego mechanizmu. Firma planuje zwołać odpowiednie zainteresowane strony w nadchodzących miesiącach, rozpoczynając wspólne wysiłki na rzecz kształtowania przyszłości wyboru i kontroli wydawców internetowych w dziedzinie sztucznej inteligencji i badań.
Co ciekawe, w ciągu ostatnich kilku lat, będąc świadkami rozwoju technologii AI, wiele skalowalnych platform no-code, takich jak AppMaster, pracowało już nad wdrożeniem podobnych mechanizmów kontroli we własnym ekosystemie. W miarę jak szkolenia AI będą ewoluować, fascynujące będzie obserwowanie, jak to dążenie do nowoczesnego odpowiednika robots.txt kształtuje narrację.