O senador Eduardo Gomes (PL-TO) apresentou uma terceira versão de seu relatório sobre projeto que vai regulamentar o uso de inteligência artificial no Brasil. O texto, porém, não foi votado.
A expectativa do presidente da comissão criada para tratar do tema, Carlos Viana (Podemos-MG), é analisar a proposta em julho. Depois, o texto ainda terá de passar pelos plenários do Senado e da Câmara para que possa virar lei.
A proposta serve para definir tanto os limites quanto às permissões para o uso da tecnologia, que vai desde uma busca no Google ou a redação de um artigo no ChatGPT até a captura de fugitivos da Justiça.
Reconhecimento facial
O relatório permite o uso de identificação biométrica à distância, em tempo real, em espaços públicos para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. Também autoriza o uso do reconhecimento facial, com autorização judicial, para colher provas em inquéritos policiais, quando não houver outros meios.
A Coalizão Direitos na Rede, que reúne organizações acadêmicas e da sociedade civil em defesa dos direitos digitais, defendeu nesta terça o “banimento do reconhecimento facial no âmbito da segurança pública” por considerá-lo “ineficiente”. Para o grupo, esse tipo de uso da IA pode ainda restringir direitos fundamentais, como a liberdade e direito de reunião em locais públicos.
“Para além da sua ineficiência, sistemas como esse foram continuamente denunciados pelo seu poder discriminatório que atinge sobretudo a população negra e em maior grau as mulheres”, alerta a coalização sobre o racismo algorítmico.
Eduardo Gomes excluiu do texto a possibilidade de legalizar armas autônomas, quando o sistema tem o poder de identificar e atacar alvos.
Proibições
O projeto proíbe:
- técnicas subliminares para induzir o comportamento de grupos;
- que o governo avalie o cidadão, por meio de seu comportamento social e personalidade, na hora de oferecer serviços e políticas públicas;
- sistema que produza ou dissemine material de abuso e exploração sexual de crianças e adolescentes;
- tecnologia que considere ficha criminal e traços de personalidade para supor e prever risco de cometimento de crime ou reincidência.
Alto risco
A proposta lista atividades de inteligência artificial de alto risco. Apesar de vedar o sistema de prever crimes com base nos traços físicos e de personalidade, o texto libera o uso de IA, por autoridades, para avaliar a credibilidade de provas da investigação e de repressão de infrações. O objetivo seria “prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares”.
Também fica autorizado, desde que classificado como de alto risco, o reconhecimento de emoções. Neste caso, fica excluído sistema de autentificação biométrica para confirmar uma pessoa específica, singular.
Para a Coalização Direitos na Rede, esse trecho é “preocupante”. “Não há consenso científico quanto à possibilidade de identificação de emoções simplesmente com base em expressões faciais, o que levou a Microsoft a descontinuar o uso de ferramentas de IA para tais fins”, explica a entidade.
No rol de procedimentos de alto risco também estão:
- controles de trânsito, redes de abastecimento de água e eletricidade;
- informações para acesso de estudantes a cursos técnicos e universidade;
- critérios de acesso à concessão de benefícios, como revisão de cadastros no Bolsa Família ou até apuração de fraudes em atestados do INSS.
Autoridade de proteção de dados
O projeto cria um órgão para fiscalizar o uso de IA no Brasil, o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Nesta última versão do parecer, o relator determinou que a Autoridade Nacional de Proteção de Dados (ANPD) vai coordenar esse sistema.
O diretor do Instituto de Tecnologia e Sociedade do Rio, o advogado Ronaldo Lemos, discorda da mudança.
Ele afirma que regular proteção de dados e inteligência artificial são “missões antagônicas”. Para ele, a Autoridade Nacional de Proteção de Dados “não tem capacidades para tratar de fomento e competitividade”.
“Isso torna o modelo brasileiro que está sendo proposto ainda mais monotemático: ele só vai ser capaz de tratar de risco. Não vai ser capaz de tratar de emprego e trabalho, ou de competição e competitividade. Continua a copiar o modelo europeu, mas cria um Frankenstein com a LGPD”, disse o especialista em tecnologia em uma rede social.
Direitos autorais
O texto assegura os direitos autorais de empresas jornalísticas, escritores e artistas. Pelo projeto, as big techs, como Google e Microsoft, precisariam de autorização do autor para usar conteúdos protegidos na hora de gerar respostas.
De acordo com a proposta, as empresas que desenvolvem e aplicam IA teriam de pagar uma remuneração aos autores para poder ter as produções disponíveis em seus bancos de dados.
“O ambiente regulatório experimental (sandbox) deve assegurar que o cálculo da remuneração considere elementos relevantes, tais como o poder econômico do agente de inteligência artificial, o grau de utilização dos conteúdos e os efeitos concorrenciais dos resultados em relação aos conteúdos originais utilizados”, diz o projeto.
Fonte G1 Brasília