top of page
Imprensa

Mais um passo: Parlamento Europeu aprova regulamentação de IA.

Escrito por Deutsche Welle. Complementado por Parlamento Europeu.


Proposta de lei que regulamenta o uso de sistemas de inteligência artificial na UE é o primeiro do gênero no mundo. Projeto histórico visa garantir os direitos fundamentais e proteger consumidores.


O Parlamento Europeu aprovou nesta quarta-feira (14/06) um projeto para regulamentar o uso de sistemas de inteligência artificial (IA) em todo o bloco. A votação é o primeiro passo no processo de aprovação da Lei de Inteligência Artificial da União Europeia (UE), a primeira do gênero no mundo.


Aprovada com 499 votos a favor, 28 contra e 93 abstenções, a proposta de lei visa garantir os direitos civis fundamentais e proteger contra as ameaças da IA à saúde e segurança, ao mesmo tempo em que fomenta a inovação da tecnologia. O projeto prevê a regulamentação da inteligência artificial de acordo com o nível de risco: quanto maior ele for, maiores serão as obrigações dos sistemas tecnológicos.


A lista de alto risco inclui IA em infraestrutura crítica, educação, recursos humanos, aplicação da lei e gerenciamento de migração.


Como funcionarão as novas medidas?


Em discussão desde 2021, o projeto teve que ser acelerado devido ao rápido surgimento recente de chatbots populares de IA, como o ChatGPT. As medidas classificarão os sistemas de IA em quatro níveis de risco, que vão do mínimo ao inaceitável.


Sistemas de pontuação social, que podem julgar com base em comportamentos ou aparência, e aplicativos que engajam com manipulação subliminar de vulneráveis, como crianças, serão classificados com o nível de risco inaceitável.


Ferramentas de policiamento preditivo, que processam dados para prever potenciais futuros autores de crimes, também serão proibidas. Os legisladores também ampliaram a proibição do reconhecimento facial remoto e identificação biométrica em público.


A proposta possibilita o uso de dispositivos de IA de reconhecimento facial no apoio ao combate à criminalidade, embora detalhes específicos sobre esse uso devam ser negociados entre os países do bloco.


E o ChaptGPT?


A maioria dos sistemas de IA que já fazem parte da vida cotidiana, incluindo videogames, filtros de spam e geradores de textos, como o ChatGPT, se enquadra na categoria risco baixo ou nulo.


"Não queremos vigilância em massa, não queremos pontuação social, não queremos policiamento preditivo na União Europeia, ponto final. Isso é a China que faz, não nós", afirmou Dragos Tudorache, eurodeputado romeno que faz parte do grupo de trabalho da lei de IA.


A legislação europeia estabelece requisitos especiais para sistemas de IA capazes de produzir textos, códigos, áudios e imagens, e prevê a obrigatoriedade de informar os usuários sobre conteúdos gerados por essas ferramentas.


Como as medidas serão aplicadas?


Violações das medidas poderão acarretar multas de até 30 milhões de euros (cerca de R$ 157 milhões) ou de 6% da receita anual global de uma empresa, que no caso das gigantes de tecnologia, como Google e Microsoft, podem chegar a bilhões.


Caberá aos 27 países-membros do bloco garantir o cumprimento das regras. Os legisladores esperam que os desenvolvedores da tecnologia vejam a legislação como uma estrutura construtiva para o desenvolvimento desses sistemas de forma responsável, e não como uma restrição arbitrária.

"Estamos fazendo algo verdadeiramente histórico, que é criar regras e barreiras para a evolução de uma tecnologia que tem muito potencial para o bem em nossas economias", destacou Tudorache à DW. "Ao mesmo tempo, vemos cada vez mais riscos. O que estamos fazendo é uma legislação para tentar reduzir esses riscos, mitigá-los e estabelecer regras muito claras para garantir a transparência e confiança".


Próximos passos


A partir de agora, iniciam-se as negociações entre os 27 países do bloco para selar um acordo sobre a nova legislação. A ideia é que esse processo seja concluído até o fim do ano. As novas regras precisam ainda da aprovação final dos parlamentares. Por isso, é improvável que elas entrem em vigor antes de 2025. No próximo ano, haverá eleições para o Parlamento Europeu.


Até lá, eurodeputados devem trabalhar com seus colegas americanos na criação de um código de conduta voluntário prometido pelas autoridades no final de maio, que seria elaborado em semanas e poderia ser expandido para outros países.


"É verdade que essas novas regras não entrarão em vigor antes das eleições do próximo ano, mas temos outras regras que já estão em vigor. Mas se elaborarmos essa legislação corretamente, se articularmos as obrigações e os direitos dessas regulações de maneira correta, elas resistirão ao tempo. Não estamos regulando a tecnologia em si, estamos regulando o uso da tecnologia, e essa transparência será a mesma agora ou nos próximos cinco anos", disse Tudorache



 

Lei da UE sobre IA: primeira regulamentação de inteligência artificial


A utilização da inteligência artificial na UE será regulada pela Lei da IA, a primeira lei abrangente do mundo sobre a IA. Sabe como esta lei te vai proteger.

No âmbito da sua estratégia digital, a União Europeia (UE) E pretende regulamentar a inteligência artificial (IA) para garantir melhores condições para o desenvolvimento e a utilização desta tecnologia inovadora. A IA pode trazer muitos benefícios, como melhores cuidados de saúde, transportes mais seguros e mais limpos, fabrico mais eficiente e energia mais barata e mais sustentável. Em abril de 2021, a Comissão propôs o primeiro quadro regulamentar da UE para a IA. Propõe que os sistemas de IA, que podem ser utilizados em diferentes situações, sejam analisados e classificados de acordo com o risco que representam para os utilizadores. Os diferentes níveis de risco implicarão mais ou menos regulamentação. Uma vez aprovadas, estas serão as primeiras regras do mundo sobre a IA. Sabe mais sobre o que é a inteligência artificial e como é utilizada. O que o Parlamento pretende com a legislação sobre IA A prioridade do Parlamento é garantir que os sistemas de IA utilizados na UE sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. Os sistemas de IA devem ser supervisionados por pessoas, em vez de serem automatizados, para evitar resultados prejudiciais. O Parlamento quer também estabelecer uma definição uniforme e neutra em termos tecnológicos para a IA, de modo a ser aplicada em futuros sistemas de IA. Sabe mais sobre o trabalho do Parlamento no que diz respeito à Inteligência Artificial e a sua visão para o futuro. Lei da IA: regras diferentes para diferentes níveis de risco As novas regras estabelecem obrigações para os fornecedores e utilizadores em função do nível de risco da IA. Embora muitos sistemas de IA representem um risco mínimo, é necessário avaliá-los. Risco inaceitável Os sistemas de IA de risco inaceitável são sistemas considerados uma ameaça para as pessoas e serão proibidos. Estes sistemas incluem:

  • manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis específicos: por exemplo, brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças


  • pontuação social: classificação de pessoas com base no comportamento, estatuto socioeconómico, características pessoais


  • sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial

Podem ser permitidas algumas exceções: Por exemplo, os sistemas de identificação biométrica à distância "pós", em que a identificação ocorre após um atraso significativo, só serão permitidos para a repressão de crimes graves e após aprovação do tribunal. Alto risco Os sistemas de IA que afetam negativamente a segurança ou os direitos fundamentais serão considerados de alto risco e serão divididos em duas categorias. 1. Sistemas de IA que são utilizados em produtos abrangidos pela legislação da UE em matéria de segurança dos produtos. Isto inclui brinquedos, aviação, automóveis, dispositivos médicos e elevadores. 2. Sistemas de IA que se enquadram em oito áreas específicas que terão de ser registados numa base de dados da UE: - identificação biométrica e categorização de pessoas singulares - gestão e funcionamento de infra-estruturas críticas - educação e formação profissional - emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria - acesso e usufruto de serviços privados essenciais e de serviços e benefícios públicos - aplicação da lei - gestão da migração, do asilo e do controlo das fronteiras - assistência na interpretação jurídica e na aplicação da lei. Todos os sistemas de IA de alto risco serão avaliados antes de serem colocados no mercado e durante todo o seu ciclo de vida. IA generativa A IA generativa, tal como o ChatGPT, teria de cumprir os requisitos de transparência:

  • divulgar que o conteúdo foi gerado pela IA

  • conceber o modelo para evitar que este gere conteúdos ilegais

  • publicar resumos dos dados protegidos por direitos de autor utilizados para a formação

Risco limitado Os sistemas de IA de risco limitado devem cumprir requisitos mínimos de transparência que permitam aos utilizadores tomar decisões informadas. Depois de interagir com as aplicações, o utilizador pode decidir se quer continuar a utilizá-las. Os utilizadores devem ser alertados para o facto de estarem a interagir com a IA. Isto inclui sistemas de IA que geram ou manipulam conteúdos de imagem, áudio ou vídeo (por exemplo, deepfakes). Próximas etapas A 14 de junho de 2023, os eurodeputados adotaram a sua posição de negociação sobre a legislação em matéria de inteligência artificial. Em breve terão início as conversações com os países da UE no Conselho sobre a forma final da lei. O objetivo é chegar a um acordo até ao final deste ano.

Comentarios


bottom of page