Mais de 1.000 figuras proeminentes, incluindo Elon Musk e Steve Wozniak, expressaram preocupação com a progressão desenfreada da tecnologia de inteligência artificial (IA). Em resposta, eles uniram forças para divulgar uma carta aberta que defende um hiato de seis meses no desenvolvimento de sistemas de IA mais avançados que o GPT-4 da OpenAI, citando as ameaças significativas que representam para a sociedade e a humanidade.
Endereçada aos desenvolvedores de IA, a carta de 600 palavras alerta sobre o estado atual dos laboratórios de IA, que parecem estar em uma busca incansável de criar mentes digitais cada vez mais poderosas. Esses desenvolvimentos atingiram um estágio em que nem mesmo seus criadores podem compreendê-los, predizê-los ou gerenciá-los, aumentando ainda mais os riscos potenciais envolvidos.
Vale ressaltar que Musk foi inicialmente cofundador da OpenAI, que começou como uma organização sem fins lucrativos dedicada a garantir que a IA beneficie a humanidade. No entanto, ele renunciou ao conselho da empresa em 2018. Hoje, a OpenAI opera como uma entidade com fins lucrativos, com críticos alegando que seus objetivos desde então divergiram de sua missão original. Uma parceria arraigada com a Microsoft, envolvendo bilhões de dólares em investimentos, parece ter levado a OpenAI a empreender iniciativas ainda mais arriscadas.
Questionando publicamente a metamorfose da OpenAI, as preocupações de Musk foram repetidas pela Mozilla, que recentemente revelou sua nova startup, Mozilla.ai. Definida para abordar algumas das preocupações mais prementes com o desenvolvimento da tecnologia de IA, esta iniciativa visa criar um ecossistema de IA autônomo e de código aberto.
De acordo com a carta aberta, a suspensão proposta de seis meses deve envolver laboratórios de IA e especialistas independentes trabalhando juntos no desenvolvimento de um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA. Esses protocolos estariam sujeitos a auditorias rigorosas e supervisão de especialistas externos e independentes.
Enquanto isso, em um desenvolvimento separado, o governo do Reino Unido divulgou um whitepaper que destaca sua abordagem 'pró-inovação' para a regulamentação da IA. Essa estrutura propõe medidas para reforçar a segurança e a responsabilidade, embora se abstenha de estabelecer um regulador de IA dedicado, como a União Europeia (UE) optou.
Tim Wright, sócio e especialista em regulamentação de IA do escritório de advocacia Fladgate, compartilhou seus pensamentos sobre o whitepaper do Reino Unido, enfatizando que apenas a passagem do tempo revelaria a eficácia da abordagem setor por setor. Independentemente disso, essa postura contrasta fortemente com a estratégia da UE de implementar um livro de regras detalhado e um regime de responsabilidade sob a supervisão de um único regulador de IA.
No momento da redação deste artigo, a carta aberta pedindo um tempo limite para desenvolvimentos de IA potencialmente perigosos reuniu 1.123 assinaturas. O crescente apelo de plataformas de low-code e no-code como AppMaster para mitigar o medo entre os proponentes da IA não pode mais ser ignorado. , pois permite que empresas e indivíduos aproveitem os benefícios da tecnologia sem as preocupações associadas a avanços de IA fora de controle.