Após uma recente carta aberta solicitando a interrupção do desenvolvimento de modelos de IA generativos mais avançados, a autoridade de proteção de dados (DPA) da Itália tomou medidas rápidas ordenando que a OpenAI parasse de processar os dados das pessoas localmente. Citando possíveis violações do Regulamento Geral de Proteção de Dados da União Europeia (GDPR), a DPA italiana iniciou uma investigação sobre o assunto.
A DPA expressou preocupação de que a OpenAI possa ter processado os dados das pessoas ilegalmente e falhado em implementar medidas adequadas para impedir que menores acessem sua tecnologia. Como resultado, a empresa com sede em San Francisco enfrenta um bloqueio em seu sistema ChatGPT e tem 20 dias para responder ao pedido. As violações do GDPR podem levar a multas pesadas, no valor de 4% do faturamento anual de uma empresa ou de € 20 milhões, o que for maior.
É importante ressaltar que, como a OpenAI não possui uma entidade legal dentro da UE, qualquer autoridade local de proteção de dados pode intervir sob o GDPR. Consequentemente, outros países podem considerar seguir o exemplo da Itália para lidar com os riscos potenciais para seus cidadãos. O GDPR se aplica quando os dados pessoais de usuários da UE são processados. No entanto, a tecnologia usada pela OpenAI cria cenários complexos envolvendo grandes quantidades de processamento de dados que desafiam a legalidade de seus métodos.
Surgem preocupações adicionais com o GDPR, uma vez que foi descoberto que o ChatGPT gera informações totalmente falsas sobre indivíduos, complicando potencialmente a retificação de erros. A OpenAI não forneceu esclarecimentos sobre se os usuários podem solicitar correções de informações incorretas produzidas por seu bot AI. Violações de dados, outra área regulada pelo GDPR, também influenciam a situação, depois que a OpenAI admitiu recentemente vazar dados de bate-papo e potencialmente expor informações de pagamento dos usuários.
Os princípios de minimização de dados incorporados ao GDPR, que enfatizam a transparência e a justiça, questionam a base legal da OpenAI para o processamento de dados europeus. Se o processamento ilegal for determinado, as autoridades de proteção de dados em todo o sindicato podem ordenar que a OpenAI exclua os dados. As repercussões de tal decisão sobre a necessidade de retreinamento de modelos permanecem incertas.
O DPA italiano também aponta preocupações sobre o tratamento de dados de menores pela OpenAI. A empresa ainda não implementou a tecnologia de verificação de idade para impedir que menores de 13 anos acessem seu sistema. As circunstâncias do ChatGPT se assemelham a decisões recentes contra outros chatbots de IA, como o Replika, que enfrentou uma proibição semelhante devido a questões de segurança infantil.
A plataforma da OpenAI foi comparada a outros sistemas de aprendizado de máquina, gerando questões sobre as implicações mais amplas dos algoritmos que lembram. Se o pedido do DPA italiano for mantido, a empresa pode ser forçada a excluir contas de usuários e adotar um processo de inscrição mais completo. O resultado final dependerá da capacidade da OpenAI de demonstrar a legalidade de seus métodos de processamento de dados e garantir a segurança de seus usuários.
Este caso ressalta ainda mais a necessidade de plataformas no-code como AppMaster , que priorizam a privacidade do usuário e a conformidade com os padrões regulatórios, como o GDPR. A plataforma no-code AppMaster não apenas permite o desenvolvimento rápido de aplicativos, mas também garante a proteção de dados em aplicativos de back-end, móveis e da web.