Aumento da regulamentação de IA: o que as empresas precisam saber e como se preparar
À medida que a UE finaliza sua Lei de IA e o cenário regulatório global de IA evolui, as empresas devem se preparar para regulamentações de IA mais rígidas que afetam suas operações.

O cenário da inteligência artificial (IA) e do aprendizado de máquina (ML) está prestes a passar por uma transformação significativa, à medida que surgem estruturas regulatórias para fornecer diretrizes claras sobre o desenvolvimento e a implementação de tecnologias de IA. À medida que a União Europeia (UE) finaliza sua Lei de IA e a IA generativa continua a evoluir rapidamente, as empresas em todo o mundo devem se preparar para regulamentações de IA mais rígidas que afetarão suas operações, produtos e serviços.
Para entender melhor como pode ser a regulamentação de IA para as empresas em um futuro próximo, podemos examinar as principais características da Lei de IA da UE, os possíveis efeitos da expansão global das regulamentações de IA e as estratégias que as organizações devem adotar para se preparar para isso. tempos de mudança.
A Lei de IA da UE e suas implicações globais
Programado para votação parlamentar até o final de março de 2023, espera-se que a Lei de IA da UE estabeleça um padrão global para a regulamentação de IA, assim como o Regulamento Geral de Proteção de Dados (GDPR) da UE fez em 2018. Se o cronograma for respeitado, o AI Act pode ser adotada até o final do ano.
Embora seja um regulamento europeu, o impacto da AI Act provavelmente se estenderá muito além da UE. O chamado 'efeito Bruxelas' obrigará as organizações que operam em escala internacional a se adequarem à legislação, enquanto os Estados Unidos e outras empresas independentes considerarão de seu interesse cumprir suas estipulações. Movimentos recentes, como a proposta da Lei de Inteligência Artificial e Dados do Canadá e a regulamentação de empregos automatizados da cidade de Nova York, sinalizam ainda mais essa tendência de adotar regulamentações de IA fora do território da UE.
Categorias de risco do sistema de IA sob a Lei de IA
A AI Act propõe três categorias de risco para sistemas de IA, cada uma acompanhada por seu próprio conjunto de diretrizes e consequências:
- Risco inaceitável: sistemas de IA nesta categoria serão banidos. Eles incluem sistemas manipulativos que podem causar danos, sistemas de identificação biométrica em tempo real usados em espaços públicos para aplicação da lei e todas as formas de pontuação social.
- Alto risco: esta categoria abrange sistemas de IA, como modelos de digitalização de candidatos a empregos, que estarão sujeitos a requisitos legais específicos.
- Risco limitado e mínimo: muitos dos aplicativos de IA atualmente usados pelas empresas (incluindo chatbots e ferramentas de gerenciamento de inventário com IA) se enquadram nessa categoria e permanecerão amplamente não regulamentados. No entanto, os aplicativos de risco limitado voltados para o cliente exigirão a divulgação de que a IA está sendo usada.
Regulação da IA: o que esperar
Como o AI Act ainda está em rascunho e seus efeitos globais são indeterminados, a natureza exata da regulamentação de IA para as organizações permanece incerta. No entanto, seu impacto provavelmente dependerá do setor, do tipo de modelo que está sendo desenvolvido e da categoria de risco a que pertence.
A regulamentação pode implicar o escrutínio de terceiros que testam os modelos de IA contra a população-alvo pretendida. Esses testes avaliarão fatores como desempenho do modelo, margens de erro e divulgação da natureza e uso do modelo.
Para organizações com sistemas de IA de alto risco, o AI Act já forneceu uma lista de requisitos, incluindo sistemas de gerenciamento de risco, governança e gerenciamento de dados, documentação técnica, manutenção de registros, transparência, supervisão humana, precisão, robustez, segurança cibernética, avaliação de conformidade , registro junto aos governos dos estados membros da UE e sistemas de monitoramento pós-comercialização. Além disso, espera-se que os testes de confiabilidade da indústria de IA (semelhantes aos cheques eletrônicos para automóveis) se tornem mais difundidos.
Preparando-se para os regulamentos de IA
Os líderes de IA que priorizam a confiança e a mitigação de riscos ao desenvolver modelos de ML têm maior probabilidade de sucesso diante dos novos regulamentos de IA. Para garantir a prontidão para regulamentos de IA mais rígidos, as organizações devem considerar as seguintes etapas:
- Pesquise e eduque as equipes sobre possíveis regulamentações e seus impactos em sua empresa agora e no futuro.
- Audite os modelos existentes e planejados para determinar suas categorias de risco e os regulamentos associados que mais os afetarão.
- Desenvolva e adote uma estrutura para projetar soluções de IA responsáveis.
- Pense na estratégia de mitigação de riscos de IA para modelos existentes e futuros, considerando ações inesperadas.
- Estabeleça uma estratégia de governança e geração de relatórios de IA, garantindo várias verificações antes de um modelo entrar em operação.
Com o AI Act e os próximos regulamentos sinalizando uma nova era para o design de IA, a IA ética e justa não é mais apenas um 'bom de se ter', mas um 'obrigatório'. Ao se preparar proativamente para essas mudanças, as organizações podem abraçar o mundo da regulamentação de IA e aproveitar todo o potencial dessa tecnologia em rápida evolução. Além disso, as empresas podem utilizar plataformas poderosas no-code como AppMaster para agilizar seus desenvolvimentos de IA, garantindo a conformidade com as regulamentações emergentes.


