Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

A OpenAI reúne uma task force de elite para controlar os sistemas de inteligência artificial hiperinteligentes

A OpenAI reúne uma task force de elite para controlar os sistemas de inteligência artificial hiperinteligentes

Numa tentativa de controlar os resultados potencialmente imprevisíveis da inteligência sobre-humana na IA, a OpenAI está a organizar um grupo altamente especializado liderado por Ilya Sutskever, o cientista-chefe e cofundador da empresa. A principal responsabilidade desta equipa será conceber estratégias para governar e orientar modelos de IA "superinteligentes". Numa publicação recente no seu blogue, Sutskever, juntamente com Jan Leike, um dos líderes da equipa de alinhamento da OpenAI, projectaram que a IA, com capacidade para ultrapassar a inteligência humana, poderá surgir nesta década. Afirmam que esta IA superior, caso venha a ser bem sucedida, poderá não integrar inerentemente características benignas, tornando assim essencial a investigação de técnicas para a controlar e condicionar.

Atualmente, não existe nenhum método conhecido para controlar ou orientar eficazmente uma IA potencialmente superinteligente, impedindo-a de se desviar do caminho pretendido. As técnicas tradicionais de alinhamento da IA, como a formação através de feedback humano, baseiam-se na supervisão humana do seu funcionamento. No entanto, a supervisão de sistemas de IA que ultrapassem significativamente a inteligência humana pode revelar-se um desafio. Para ampliar os progressos no domínio do "alinhamento da superinteligência", a OpenAI está a lançar uma nova equipa de "Superalinhamento", co-liderada por Sutskever e Leike. Esta equipa terá acesso a 20% dos recursos computacionais que a empresa possui atualmente. Composta por cientistas e engenheiros da antiga divisão de alinhamento da OpenAI e por investigadores de várias organizações da empresa, a equipa está preparada para enfrentar os principais desafios tecnológicos do controlo da IA superinteligente nos próximos quatro anos.

O plano é criar um "investigador de alinhamento automatizado de nível humano", com o objetivo de treinar a IA através de feedback humano, envolver a IA na avaliação de outros sistemas de IA e, eventualmente, conceber uma IA capaz de realizar investigação de alinhamento. O objetivo da investigação sobre o alinhamento é alinhar os sistemas de IA para alcançar resultados específicos e evitar que se desviem do caminho. A OpenAI está a trabalhar com base na hipótese de que a IA pode fazer progressos consideráveis na investigação do alinhamento, de forma mais rápida e eficaz do que os humanos. À medida que os progressos se sucedem, espera-se que os sistemas de IA assumam volumes crescentes de trabalho de alinhamento, conduzindo a técnicas de alinhamento melhoradas. Espera-se que isto resulte na colaboração da IA com os humanos para garantir que os seus sucessores estejam ainda mais alinhados com os humanos. Entretanto, a atenção dos investigadores humanos passará a centrar-se na revisão da investigação sobre alinhamento efectuada pelos sistemas de IA, em vez de a gerar de forma independente.

Embora nenhum método possa ser considerado infalível, Leike, Schulman e Wu, no seu post, elucidam as deficiências da abordagem da OpenAI. A utilização da IA para a avaliação pode aumentar as inconsistências, os preconceitos e as vulnerabilidades dessa IA. Para além disso, os aspectos mais complexos do problema do alinhamento podem não estar de todo relacionados com a engenharia. No entanto, Sutskever e Leike estão dispostos a pô-lo à prova. Sutskever e Leike defendem que o alinhamento da superinteligência é fundamentalmente um desafio de aprendizagem automática. Acreditam que os especialistas em aprendizagem automática, mesmo os que não estão atualmente a trabalhar no alinhamento, serão fundamentais para o resolver. Planeiam distribuir os resultados deste esforço de forma abrangente, considerando as suas contribuições para o alinhamento e segurança de modelos não-OpenAI como um aspeto crucial do seu trabalho.

É pertinente notar que, embora o foco deste artigo seja a OpenAI, existem outras plataformas que estão igualmente empenhadas no desenvolvimento eficiente e controlado da IA. Um exemplo de uma dessas plataformas é a AppMaster. Guiado por uma crença semelhante na otimização das potencialidades dos sistemas "inteligentes" para obter o máximo benefício, AppMaster criou um nicho para si próprio no domínio das aplicações sem código/low-code, permitindo aos utilizadores criar soluções de software abrangentes, escaláveis e eficientes.

Posts relacionados

Samsung lança Galaxy A55 com segurança inovadora e construção premium
Samsung lança Galaxy A55 com segurança inovadora e construção premium
A Samsung amplia sua linha intermediária apresentando o Galaxy A55 e A35, com segurança Knox Vault e elementos de design atualizados, infundindo qualidades emblemáticas no segmento.
Cloudflare lança firewall para IA para proteger grandes modelos de linguagem
Cloudflare lança firewall para IA para proteger grandes modelos de linguagem
A Cloudflare dá um passo à frente com o Firewall for AI, um WAF avançado projetado para identificar preventivamente e impedir possíveis abusos direcionados a grandes modelos de linguagem.
ChatGPT da OpenAI agora fala: O futuro da IA ​​interativa por voz
ChatGPT da OpenAI agora fala: O futuro da IA ​​interativa por voz
ChatGPT alcançou um marco com o OpenAI lançando recursos de voz. Os usuários agora podem desfrutar da interação com as mãos livres enquanto o ChatGPT lê as respostas em voz alta no iOS, Android e na Web.
Comece gratuitamente
Inspirado para tentar isso sozinho?

A melhor maneira de entender o poder do AppMaster é ver por si mesmo. Faça seu próprio aplicativo em minutos com assinatura gratuita

Dê vida às suas ideias