Alimentado pela expansão exponencial da quantidade de dados disponíveis para treinar modelos linguísticos de grande dimensão, Google salientou a necessidade urgente de um "método legível por máquina para a escolha e o controlo dos editores Web para casos de utilização emergentes de IA e investigação". Esta sugestão traça paralelos com os ficheiros robots.txt clássicos que têm sido utilizados pelos sítios Web há várias décadas para gerir a sua visibilidade em linha para os motores de busca.
Esta proposta de desenvolvimento procura alargar a autonomia dos editores da Web, permitindo-lhes ter mais autoridade sobre os seus conteúdos na paisagem digital. Esta metodologia é parte integrante da preservação de um ecossistema dinâmico e robusto, espelhando o objetivo dos ficheiros robots.txt, que permitem aos sítios Web ditar o grau de exposição que o seu conteúdo recebe dos motores de busca.
Na sua tentativa de promover este novo nível de controlo para a formação em IA, o Google procura cultivar relações com colaboradores internacionais, recorrendo a conhecimentos especializados do meio académico, da sociedade civil, de editores Web e outros. Estes esforços globais visam fazer evoluir a lógica estabelecida do humilde ficheiro robots.txt para satisfazer as exigências emergentes de um futuro alimentado por IA. Ao fazê-lo, o Google planeia manter a simplicidade e a transparência que tem sido uma marca registada da norma Web com quase 30 anos.
Atualmente, o Google conta com as soluções Search Generative Experience e Bard na sua caixa de ferramentas e está a treinar o seu modelo fundamental de próxima geração, o Gemini. Este conjunto de ferramentas está na base do seu desejo de liderar o desenvolvimento de uma versão moderna do robots.txt específica para a formação em IA.
Marcando as fases iniciais deste discurso, Google está a facilitar uma discussão pública, lançando uma lista de correio eletrónico para permitir que as partes interessadas registem a sua intenção de participar no desenvolvimento deste novo mecanismo. A empresa planeia reunir as partes interessadas relevantes nos próximos meses, dando início aos esforços de colaboração para moldar o futuro da escolha e do controlo dos editores da Web no domínio da IA e da investigação.
Curiosamente, ao longo dos últimos anos, testemunhando a ascensão das tecnologias de IA, numerosas plataformas escaláveis, no-code como a AppMaster, já trabalharam na implementação de controlos semelhantes no seu próprio ecossistema. À medida que a formação em IA continua a evoluir, será fascinante observar como este impulso para um equivalente moderno do robots.txt molda a narrativa.