REDES SOCIAIS

29°C

Relator do projeto sobre IA mantém reconhecimento facial; votação fica para julho

Share on facebook
Share on twitter
Share on telegram
Share on whatsapp
Share on email

O senador Eduardo Gomes (PL-TO) apresentou uma terceira versão de seu relatório sobre projeto que vai regulamentar o uso de inteligência artificial no Brasil. O texto, porém, não foi votado.

A expectativa do presidente da comissão criada para tratar do tema, Carlos Viana (Podemos-MG), é analisar a proposta em julho. Depois, o texto ainda terá de passar pelos plenários do Senado e da Câmara para que possa virar lei.

A proposta serve para definir tanto os limites quanto às permissões para o uso da tecnologia, que vai desde uma busca no Google ou a redação de um artigo no ChatGPT até a captura de fugitivos da Justiça.

window.PLAYER_AB_ENV = “prod”

Reconhecimento facial

O relatório permite o uso de identificação biométrica à distância, em tempo real, em espaços públicos para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. Também autoriza o uso do reconhecimento facial, com autorização judicial, para colher provas em inquéritos policiais, quando não houver outros meios.

A Coalizão Direitos na Rede, que reúne organizações acadêmicas e da sociedade civil em defesa dos direitos digitais, defendeu nesta terça o “banimento do reconhecimento facial no âmbito da segurança pública” por considerá-lo “ineficiente”. Para o grupo, esse tipo de uso da IA pode ainda restringir direitos fundamentais, como a liberdade e direito de reunião em locais públicos.

“Para além da sua ineficiência, sistemas como esse foram continuamente denunciados pelo seu poder discriminatório que atinge sobretudo a população negra e em maior grau as mulheres”, alerta a coalização sobre o racismo algorítmico.

Eduardo Gomes excluiu do texto a possibilidade de legalizar armas autônomas, quando o sistema tem o poder de identificar e atacar alvos.

Proibições

O projeto proíbe:

  • técnicas subliminares para induzir o comportamento de grupos;
  • que o governo avalie o cidadão, por meio de seu comportamento social e personalidade, na hora de oferecer serviços e políticas públicas;
  • sistema que produza ou dissemine material de abuso e exploração sexual de crianças e adolescentes;
  • tecnologia que considere ficha criminal e traços de personalidade para supor e prever risco de cometimento de crime ou reincidência.

Alto risco

A proposta lista atividades de inteligência artificial de alto risco. Apesar de vedar o sistema de prever crimes com base nos traços físicos e de personalidade, o texto libera o uso de IA, por autoridades, para avaliar a credibilidade de provas da investigação e de repressão de infrações. O objetivo seria “prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares”.

Também fica autorizado, desde que classificado como de alto risco, o reconhecimento de emoções. Neste caso, fica excluído sistema de autentificação biométrica para confirmar uma pessoa específica, singular.  

Para a Coalização Direitos na Rede, esse trecho é “preocupante”. “Não há consenso científico quanto à possibilidade de identificação de emoções simplesmente com base em expressões faciais, o que levou a Microsoft a descontinuar o uso de ferramentas de IA para tais fins”, explica a entidade.

No rol de procedimentos de alto risco também estão:

  • controles de trânsito, redes de abastecimento de água e eletricidade;
  • informações para acesso de estudantes a cursos técnicos e universidade;
  • critérios de acesso à concessão de benefícios, como revisão de cadastros no Bolsa Família ou até apuração de fraudes em atestados do INSS.

Autoridade de proteção de dados

O projeto cria um órgão para fiscalizar o uso de IA no Brasil, o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Nesta última versão do parecer, o relator determinou que a Autoridade Nacional de Proteção de Dados (ANPD) vai coordenar esse sistema.

O diretor do Instituto de Tecnologia e Sociedade do Rio, o advogado Ronaldo Lemos, discorda da mudança.

Ele afirma que regular proteção de dados e inteligência artificial são “missões antagônicas”. Para ele, a Autoridade Nacional de Proteção de Dados “não tem capacidades para tratar de fomento e competitividade”.

“Isso torna o modelo brasileiro que está sendo proposto ainda mais monotemático: ele só vai ser capaz de tratar de risco. Não vai ser capaz de tratar de emprego e trabalho, ou de competição e competitividade. Continua a copiar o modelo europeu, mas cria um Frankenstein com a LGPD”, disse o especialista em tecnologia em uma rede social.

Direitos autorais

O texto assegura os direitos autorais de empresas jornalísticas, escritores e artistas. Pelo projeto, as big techs, como Google e Microsoft, precisariam de autorização do autor para usar conteúdos protegidos na hora de gerar respostas.

De acordo com a proposta, as empresas que desenvolvem e aplicam IA teriam de pagar uma remuneração aos autores para poder ter as produções disponíveis em seus bancos de dados.

“O ambiente regulatório experimental (sandbox) deve assegurar que o cálculo da remuneração considere elementos relevantes, tais como o poder econômico do agente de inteligência artificial, o grau de utilização dos conteúdos e os efeitos concorrenciais dos resultados em relação aos conteúdos originais utilizados”, diz o projeto.

Fonte G1 Brasília

VÍDEOS EM DESTAQUE

ÚLTIMAS NOTÍCIAS