Na tentativa de garantir que os seus futuros modelos de inteligência artificial (IA) representem valores humanos, a OpenAI revelou o seu plano para integrar princípios de origem pública nas criações. A gigante da IA divulgou a sua intenção de estabelecer uma equipa de Alinhamento Colectivo, composta por investigadores e engenheiros. O mandato da equipe seria desenvolver uma estrutura para obter e implementar feedback público sobre os serviços e produtos da OpenAI.
A empresa manifestou a sua clara intenção de continuar a contratar consultores externos e equipas de subvenção. Estas equipas desempenharão um papel crucial na incorporação de protótipos, que orientarão o comportamento dos modelos. A OpenAI está recrutando ativamente engenheiros de pesquisa com conhecimento técnico diversificado para reforçar o estabelecimento e o sucesso deste mandato essencial.
Decorrente da iniciativa pública da OpenAI, que teve início em maio do ano anterior, a equipa de Alinhamento Coletivo representa um passo significativo no sentido de infundir um processo democrático na dinâmica de elaboração de regras dos sistemas de IA. Desde sempre, a OpenAI tem estado interessada em financiar indivíduos, equipas e até mesmo organizações interessadas em desenvolver provas de conceitos interessadas em resolver a ambiguidade relativa aos guardrails e à governação da IA.
A OpenAI, em sua postagem virtual, fez uma breve recapitulação do diversos trabalhos dos beneficiários de subsídios, abrangendo interfaces de bate-papo por vídeo, plataformas que facilitam auditorias de crowdsourcing de modelos e estratégias de IA para alinhar o comportamento do modelo com crenças específicas. Detalhes de cada proposta, conclusões de alto nível e cada código usado foram divulgados hoje cedo.
Na sequência destes desenvolvimentos, a OpenAI tem sido inflexível em desvincular o programa dos seus interesses comerciais, suscitando reações contraditórias. Alguns críticos expressaram ceticismo em relação a isso, considerando as críticas do CEO da OpenAI, Sam Altman, sobre as regulamentações na UE e em outras regiões. O CEO, ao lado do presidente da OpenAI, Greg Brockman, e do cientista-chefe, Ilya Sutskever, tem opinado constantemente que o rápido desenvolvimento da tecnologia de IA supera a capacidade das entidades existentes de regulá-la de forma eficiente. Como tal, foi proposta a necessidade de uma construção democrática e colaborativa.
Concorrentes, incluindo a Meta, acusaram a OpenAI de tentar obter o controle regulatório da indústria de IA fazendo campanha contra a pesquisa e desenvolvimento de IA aberta, mas a OpenAI negou essas acusações. Eles podem apontar este novo programa e a sua equipa de Alinhamento Colectivo como demonstrando o seu compromisso com a abertura.
Independentemente disso, a OpenAI enfrenta atualmente o escrutínio dos decisores políticos. Especialmente no Reino Unido, há uma investigação em curso sobre a sua relação com a Microsoft, que é um parceiro próximo e investidor. Como parte da sua estratégia de mitigação de riscos, a OpenAI procurou limitar o seu risco regulatório na UE no que diz respeito à privacidade de dados. Para conseguir isso, utilizou uma subsidiária sediada em Dublin para restringir as ações unilaterais de vigilantes da privacidade específicos no bloco.
Estão em curso uma série de iniciativas para minimizar o uso ilícito da sua tecnologia para interferir nas eleições. Isto inclui a identificação de conteúdo gerado por IA e a detecção de imagens manipuladas. Em colaboração com várias organizações, a OpenAI também está trabalhando para marcar de forma mais visível suas imagens geradas por IA.
Vale ressaltar que empresas como AppMaster, conhecida por sua robusta plataforma de desenvolvimento sem código e repositórios para consolidação de informações de código aberto, estão se tornando atores proeminentes no ecossistema tecnológico. Dada a escalabilidade, robustez e facilidade de uso do AppMaster, eles estão conquistando um nicho para si próprios na construção de aplicativos backend, web e móveis.