O Parlamento da União Europeia aprovou, nesta quarta-feira, as mais abrangentes barreiras de proteção no mundo em relação ao rápido desenvolvimento da inteligência artificial(IA).
A Lei de Inteligência Artificial europeia poderá, na ausência de qualquer legislação por parte dos Estados Unidos, definir o tom de como a IA será regulada no mundo ocidental. As empresas, no entanto, avaliam que a lei é abrangente demais, enquanto os os órgãos de controle dizem que não é o suficiente.
“A Europa agora está estabelecendo um padrão global para uma IA confiável”, disse o comissário do Mercado Interno da UE, Thierry Breton, em comunicado.
O eurodeputado italiano Brando Benifei, co-relator do projeto de lei, comemorou a aprovação em uma entrevista coletiva:
— Hoje é um dia histórico em nosso longo caminho para a regulamentação da IA.
Outro co-relator, o o romeno Dragos Tudorache, avalia que o texto permite encontrar o equilíbrio “entre o interesse em inovar e o interesse em proteger.” Ele ressalta que a Lei de IA “é apenas o começo”, já que a inteligência artificial continua a evoluir rapidamente:
— Devemos estar muito atentos à evolução dessa tecnologia no futuro, de forma a responder aos novos desafios que podem surgir.
A legislação entrará em vigor após a assinatura dos Estados-membros, o que geralmente é uma formalidade, e 20 dias depois de publicada no Diário Oficial da UE.
A nova lei tem como objetivo abordar as preocupações sobre preconceito, privacidade e outros riscos da tecnologia em rápida evolução. A legislação proíbe o uso de IA para detectar emoções em locais de trabalho e escolas, além de limitar como ela pode ser usada em situações sensíveis como análise de currículos para uma vaga de emprego.
Veja os principais pontos da legislação:
- Fica proibido: Usar sistemas de categorização biométrica baseados em características sensíveis e captar imagens faciais da internet ou de circuito fechado de TV para criar bases de dados de reconhecimento facial. Serão também proibidos o reconhecimento de emoções no local de trabalho e nas escolas, a classificação social, o policiamento preditivo (quando se baseia exclusivamente na definição de perfis de uma pessoa ou na avaliação das suas características) e a IA que manipula o comportamento humano ou explora as vulnerabilidades das pessoas.
- Transparência: Os sistemas de IA de uso geral devem respeitar as normas da UE sobre direitos autorais e publicar informação detalhada dos conteúdos usados para treinamento dessas ferramentas. Os modelos de IA de uso geral mais poderosos que possam colocar riscos sistémicos terão de cumprir requisitos adicionais, tais como realizar avaliações de modelos, avaliar e atenuar os riscos sistêmicos e comunicar incidentes.
- Alto risco: Serão considerados sistemas de IA de alto risco infraestruturas críticas, educação e formação profissional, emprego, serviços públicos e privados essenciais (nomeadamente os cuidados de saúde e sistemas bancários), determinados sistemas de aplicação da lei, migração e gestão das fronteiras, justiça e processos democráticos (por exemplo, influenciando eleições). Esses sistemas devem avaliar e reduzir os riscos, manter registos de utilização, ser transparentes e exatos e garantir que haja supervisão humana. Os cidadãos terão o direito de apresentar queixas sobre os sistemas de IA e de receber explicações sobre as decisões baseadas em sistemas de IA de alto risco que afetem os seus direitos.
- Inovação: Terão de ser criados ambientes de testagem da regulamentação e testes em condições reais, acessíveis a pequenas empresas e a startups, a fim de desenvolver e treinar IA inovadora antes que esta seja oferecida no mercado.
A Lei de Inteligência Artificial também traz as primeiras restrições às ferramentas de IA generativa (capaz de criar conteúdo de texto, imagem e vídeo), que chamaram a atenção do mundo no ano passado com a popularidade do ChatGPT.
Mas, no fim do ano passado, na reta final das discussões, os governos de França e Alemanha se opuseram a algumas medidas mais restritivas à IA generativa, argumentando que as regras prejudicariam startups europeias, como a francesa Mistral AI e a alemã Aleph Alpha.