Uso de reconhecimento facial no Brasil expõe riscos à privacidade e violações de direitos, aponta relatório

Estudo da DPU e do CESeC revela falhas técnicas, impactos discriminatórios e falta de regulação no uso de tecnologias de vigilância biométrica por órgãos públicos
reconhecimento facial Brasil
(Foto: cottonbro studio/pexels.com)

Sorria! Seu rosto está sendo não só filmado, mas também classificado, comparado e identificado, muitas vezes sem que você saiba. É o que mostra uma pesquisa da Defensoria Pública da União (DPU), em parceria com o Centro de Estudos de Segurança e Cidadania (CESeC), instituição vinculada à Universidade Candido Mendes, no Rio de Janeiro.

Divulgado nesta quarta-feira (7), o relatório “Mapeando a Vigilância Biométrica” mostra que, desde a Copa do Mundo de 2014, o Brasil se transformou em um território fértil para a expansão das Tecnologias de Reconhecimento Facial (TRFs). Parte desse avanço se justifica pela promessa de facilitar a identificação de suspeitos e a localização de pessoas desaparecidas.

“O reconhecimento facial vem sendo amplamente adotado por órgãos públicos no Brasil, em um processo iniciado com os grandes eventos, especialmente a Copa do Mundo de 2014 e os Jogos Olímpicos de 2016”, afirmam os autores do estudo, referindo-se às câmeras com tecnologia biométrica, cada vez mais comuns no espaço urbano.

Segundo os pesquisadores, em abril deste ano havia ao menos 376 iniciativas de reconhecimento facial ativas no país. Essas ações têm o potencial de monitorar quase 83 milhões de pessoas, o que corresponde a aproximadamente 40% da população brasileira. O investimento público nesses sistemas já soma ao menos R$ 160 milhões, com base em dados fornecidos por 23 das 27 unidades federativas. Amazonas, Maranhão, Paraíba e Sergipe não responderam à pesquisa, realizada entre julho e dezembro de 2024.

“Apesar desse cenário, a regulamentação está atrasada”, afirmam os responsáveis pelo relatório. O Brasil ainda não possui legislação específica para disciplinar o uso de tecnologias de vigilância digital, em especial os sistemas de reconhecimento facial.

Além da ausência de normas, os especialistas apontam a falta de controle externo, ausência de padrões técnicos unificados e pouca transparência na implementação dos sistemas, o que eleva o risco de falhas graves, violações de privacidade, discriminação e mau uso de recursos públicos.

Falhas recorrentes

Em outro levantamento, o CESeC identificou 24 casos, entre 2019 e abril de 2025, em que houve erros nos sistemas de reconhecimento facial. O caso mais divulgado é o do personal trainer João Antônio Trindade Bastos, de 23 anos.

Em abril de 2024, Bastos foi retirado da arquibancada do Estádio Lourival Batista, em Aracaju (SE), por policiais militares, durante a final do Campeonato Sergipano. Ele foi conduzido a uma sala e revistado de forma ríspida. Só após uma série de questionamentos e a apresentação de documentos, os agentes revelaram que o sistema de reconhecimento facial o havia confundido com um foragido da Justiça.

Indignado, Bastos usou as redes sociais para denunciar o ocorrido. A repercussão do caso levou o governo de Sergipe a suspender temporariamente o uso da tecnologia pela Polícia Militar, que, segundo reportagens da época, já a havia utilizado para prender mais de dez pessoas.

Bastos é negro. Assim como a maioria dos identificados por sistemas de vigilância facial no Brasil e em outros países. O relatório aponta que 70% das forças policiais no mundo utilizam algum tipo de TRF, e que 60% dos países já empregam a tecnologia em aeroportos. No Brasil, mais da metade das abordagens motivadas por esses sistemas resultaram em identificações equivocadas, evidenciando o risco de prisões indevidas.

“As preocupações com o uso dessas tecnologias são legítimas”, alertam os pesquisadores. Estudos internacionais demonstram que as taxas de erro são significativamente mais altas para determinados grupos populacionais, podendo ser de 10 a 100 vezes maiores para pessoas negras, indígenas e asiáticas, em comparação com pessoas brancas. Essa disparidade levou o Parlamento Europeu, em 2021, a advertir que as falhas técnicas de sistemas de inteligência artificial voltados à identificação biométrica remota podem gerar resultados distorcidos e efeitos discriminatórios.

Vácuo legal

Ao discutir os “desafios institucionais e normativos”, o relatório destaca que, em dezembro de 2024, o Senado aprovou o Projeto de Lei nº 2.338/2023, que visa regulamentar o uso de inteligência artificial, incluindo o reconhecimento biométrico em ações de segurança pública. A proposta ainda precisa ser aprovada pela Câmara dos Deputados, que criou recentemente uma comissão especial para debater o tema.

Apesar de prever a proibição do uso de sistemas de reconhecimento facial em tempo real e a distância em locais públicos, o texto aprovado inclui diversas exceções. Segundo os autores do estudo, isso pode representar uma autorização abrangente para a aplicação dessas tecnologias.

“As permissões previstas no texto incluem investigações criminais, flagrantes, buscas por desaparecidos e recaptura de foragidos — situações amplas, que cobrem boa parte das atividades da segurança pública. Dado o histórico de abusos e a ausência de mecanismos eficazes de controle, essa brecha legal pode sustentar um cenário de vigilância constante e violação de direitos.”

Recomendações

Os pesquisadores defendem a urgência de um debate público qualificado, com participação ativa da sociedade civil, academia e órgãos de controle nacionais e internacionais.

Eles recomendam medidas como:

  • A criação de uma legislação nacional específica para regulamentar o uso da tecnologia;
  • A padronização de protocolos que respeitem o devido processo legal;
  • Auditorias independentes e periódicas;
  • Mais transparência em contratos e bases de dados utilizados pelos órgãos públicos;
  • Capacitação de agentes envolvidos no uso das TRFs;
  • Autorização judicial prévia para o uso das imagens em investigações;
  • Prazo limitado para o armazenamento de dados biométricos;
  • Fortalecimento da fiscalização sobre empresas privadas que operam os sistemas.

“Esperamos que esses achados contribuam não apenas com a tramitação do PL 2.338 na Câmara, mas também sirvam de alerta para órgãos reguladores e de controle”, afirma, em nota, Pablo Nunes, coordenador-geral do CESeC. “O relatório revela tanto os vieses raciais no uso da tecnologia quanto a falta de transparência e a má gestão dos recursos públicos envolvidos.”

*As informações são da Agência Brasil 

Deixe um comentário