Estudo aponta riscos de tecnologias de reconhecimento facial.
Brasil tem ao 376 projetos ativos, capazes de vigiar 40% da
população
Sorria! Seu rosto está sendo não só filmado, mas também
classificado, comparado e identificado, principalmente por órgãos públicos de
segurança. Na maioria das vezes sem seu conhecimento. É o que mostra pesquisa
da Defensoria Pública da União (DPU) em parceria com o Centro de Estudos de
Segurança e Cidadania (CESeC), instituição acadêmica vinculada à Universidade
Candido Mendes, no Rio de Janeiro.
Divulgado nesta quarta-feira (7), o relatório Mapeando a
Vigilância Biométrica aponta que, após sediar a Copa do Mundo, em 2014, o
Brasil se tornou um vasto campo de vigilância digital onde as chamadas
tecnologias de Reconhecimento Facial (TRFs) encontraram solo fértil para se
espalhar. Graças, em parte, à promessa de facilitar a identificação de
criminosos e a localização de pessoas desaparecidas.
“O reconhecimento facial vem sendo amplamente incorporado por
órgãos públicos no Brasil, em processo que começou com a realização dos
megaeventos no país – especialmente a Copa do Mundo de Futebol, em 2014, e os
Jogos Olímpicos, em 2016”, sustentam os defensores públicos federais da DPU e
membros do CESeC, referindo-se às sofisticadas e caras câmeras de
reconhecimento facial, cada vez mais presentes na paisagem urbana.
Segundo os pesquisadores, em abril deste ano havia, no
Brasil, ao menos 376 projetos de reconhecimento facial ativos. Juntos, esses
empreendimentos têm o potencial de vigiar quase 83 milhões de pessoas, o
equivalente a cerca de 40% da população brasileira. E já movimentaram ao menos
R$ 160 milhões em investimentos públicos - valor calculado a partir das
informações que 23 das 27 unidades federativas forneceram aos responsáveis pelo
estudo - não responderam à pesquisa, feita entre julho e dezembro de 2024, o
Amazonas, Maranhão, a Paraíba e Sergipe.
“A despeito de todo esse cenário, as soluções regulatórias
estão atrasadas”, sustentam os pesquisadores da DPU e do CESeC, assegurando que o Brasil ainda
não tem leis para disciplinar o uso dos sistemas de vigilância digital, em
particular das câmeras de reconhecimento facial.
Além disso, para os especialistas, faltam mecanismos de
controle externo, padrões técnico-operacionais uniformes e transparência na
implementação dos sistemas. O que amplia as chances de ocorrerem erros graves,
violações de privacidade, discriminação e mau uso de recursos públicos.
Erros
Em outro levantamento, o CESeC mapeou 24 casos ocorridos
entre 2019 e abril de 2025, nos quais afirma ter identificado falhas dos
sistemas de reconhecimento facial. O mais conhecido deles é o do personal
trainer João Antônio Trindade Bastos, de 23 anos.
Em abril de 2024, policiais militares retiraram Bastos da
arquibancada do Estádio Lourival Batista, em Aracaju (SE), durante a partida
final do Campeonato Sergipano. Eles conduziram o rapaz até uma sala, onde o
revistaram de forma ríspida. Só após checarem toda a documentação de Bastos,
que teve que responder a várias perguntas para comprovar que era quem ele dizia
ser, os PMs revelaram que o sistema de reconhecimento facial implantado no
estádio o tinha confundido com um foragido.
Indignado, Bastos usou as redes sociais para fazer um
desabafo contra a injustiça sofrida. A repercussão do caso levou o governo de
Sergipe a suspender o uso da tecnologia pela PM - que, segundo notícias da
época, já a tinha usado para deter mais de dez pessoas.
Bastos é negro. Como a maioria das pessoas identificadas
pelos sistemas de vigilância e reconhecimento facial, no Brasil e em outros
países - de acordo com o relatório da DPU e do CESeC, há indicadores de que 70%
das forças policiais do mundo têm acesso a algum tipo de TRF e que 60% dos
países têm reconhecimento facial em aeroportos. No Brasil, “mais da metade das
abordagens policiais motivadas por reconhecimento facial resultaram em
identificações equivocadas, evidenciando o risco de prisões indevidas”.
“As preocupações com o uso dessas tecnologias não são
infundadas”, alertam os especialistas, citando pesquisas internacionais segundo
as quais, em alguns casos, as taxas de erros dos sistemas são
“desproporcionalmente elevadas para determinados grupos populacionais, sendo de
dez a 100 vezes maiores para pessoas negras, indígenas e asiáticas em
comparação com indivíduos brancos”. Essa constatação motivou o Parlamento
Europeu a, em 2021, alertar que “[as] imprecisões técnicas dos sistemas de
Inteligência Artificial [IA], concebidos para a identificação biométrica a
distância de pessoas singulares, podem conduzir a resultados enviesados e ter
efeitos discriminatórios.”
Legislação
Ao tratar dos “desafios institucionais e normativos”, os
pesquisadores lembram que, em dezembro de 2024, o Senado aprovou o Projeto de
Lei n.º 2338/2023, que busca regulamentar o uso de inteligência artificial,
incluindo sistemas biométricos na segurança pública. Para se tornar lei, a
proposta terá que ser aprovada pela Câmara dos Deputados que, no mês passado,
criou uma comissão especial para debater o tema.
Além disso, para os pesquisadores da DPU e do CESeC, embora o
PL proponha a proibição do uso de sistemas de identificação biométrica a
distância e em tempo real em espaços públicos, o texto aprovado pelo Senado
prevê tantas exceções que, na prática, funciona “como uma autorização ampla
para a implementação” desses sistemas.
“As categorias de permissões [no texto aprovado] incluem
investigações criminais, flagrante delito, busca por desaparecidos e recaptura
de foragidos, situações que abrangem um espectro considerável de atividades da
segurança pública. Considerando o histórico de abusos e a falta de mecanismos
eficazes de controle, essa abertura para uso acaba mantendo a possibilidade de
um estado de vigilância e de violação de direitos.”
Recomendações
Os pesquisadores concluem defendendo a urgência de um “debate
público qualificado”, com a participação ativa da sociedade civil, membros da
academia e representantes de órgãos públicos de controle e de organismos
internacionais.
Eles também recomendam o que classificam como “medidas
urgentes”, como a aprovação de uma lei nacional específica para regulamentar o
uso da tecnologia; a padronização de protocolos que respeitem o devido processo
legal e a realização de auditorias independentes e regulares.
Os especialistas também apontam a necessidade de que os
órgãos públicos deem mais transparência aos contratos e às bases de dados
utilizados, garantindo o acesso da população a informações claras sobre os
sistemas de reconhecimento facial e capacitando os agentes públicos que lidam
com o tema. E sugerem a obrigatoriedade de autorização judicial prévia para uso
das informações obtidas com o uso das TRFs em investigações, bem como a
limitação temporal para armazenamento de dados biométricos e o fortalecimento
do controle sobre empresas privadas que operam esses sistemas.
“Esperamos que esses achados possam não só orientar e
subsidiar a tramitação do PL 2338 na Câmara dos Deputados, mas também servir de
alerta para que órgãos reguladores e de controle estejam atentos ao que ocorre
no Brasil. O relatório evidencia tanto os vieses raciais no uso da tecnologia
quanto problemas de mau uso de recursos públicos e falta de transparência na
sua implementação”, afirma, em nota, o coordenador-geral do CESeC, Pablo Nunes.
Agência Brasil
Nenhum comentário