Publicidade
Capa / Curiosidades

Como funciona o reconhecimento facial – e quais os dilemas por trás dele

Voz do Sertão
Redação: Voz do Sertão 18/11/2025 às 12:00 · Atualizado há 22 minutos
Como funciona o reconhecimento facial – e quais os dilemas por trás dele
Foto: Reprodução / Arquivo

Quando foi lançada, em 2010, a instrumento Tag Suggestions do Facebook parecia mágica. Você postava uma foto com amigos e ela logo apontava para o rosto de alguém e checava: “Leste é Fulano?”. Você podia confirmar ou negar (e daí indicar a pessoa correta).

A instrumento funcionou por anos, até entrar na mira de discussões sobre privacidade e uso indevido de dados pessoais. Em 2021, foi descontinuada. A Meta, dona do Facebook, anunciou que apagaria os dados de mais de 1 bilhão de usuários. Era o maior banco de biometria facial do mundo.

Problema resolvido – só que não. Àquela fundura, a Meta já havia usado os dados para gerar o DeepFace, o primeiro sistema de reconhecimento facial a chegar perto de identificar rostos com a mesma precisão de um humano (1).

Hoje, essa tecnologia está por todo lado. Usamos para organizar fotos, desbloquear telas, acessar serviços públicos, autorizar pagamentos e controlar o chegada a condomínios e escritórios por todo o País.

E não é porquê se houvesse muita opção. Mesmo que você nunca tenha postado uma selfie na vida, é quase impossível que uma imagem do seu rosto não esteja armazenada em qualquer lugar, das filmagens de segurança de um supermercado às cópias do seu RG que você compartilhou por aí.

Pela Lei Universal de Proteção de Dados (LGPD), dados biométricos porquê rosto, impressões digitais, DNA e até tom de voz são dados pessoais sensíveis, e existem muitas exigências adicionais de segurança para coletar e armazenar dados desse tipo. Enfim, dá para trocar uma senha em minutos, mas não dá para fazer o mesmo com olhos, ouvidos, boca e nariz.

Diferentemente das impressões digitais e do DNA, a biometria facial pode facilmente ser coletada sem autorização. Entretanto, quase nunca damos um OK expresso para essa coleta – e, se damos, pouco sabemos sobre os termos de uso. Quando você topa ser fotografado para autenticar sua ingresso em um prédio, sabe onde os dados ficarão armazenados, e por quanto tempo? Quem poderá acessar? Para que serão usados?

Continua posteriormente a publicidade
(Cristielle Luise/Getty Images/Montagem sobre reprodução)

Esse é só o início do problema. O reconhecimento facial é um sistema com falhas e vieses – mas que, ainda assim, tem sido cada vez mais usado pela segurança pública, nem sempre da melhor forma. Vamos submergir nessa discussão – mas, primeiro, é preciso entender porquê essa tecnologia funciona.

Face a face

Em uma instrumento de reconhecimento facial, as distâncias entre pontos faciais e as proporções matemáticas entre elas são usadas para produzir um código que representa o seu rosto [veja mais no infográfico abaixo]. Esse tipo de cômputo inicial é o que todos os sistemas têm em geral – do celular às câmeras de rua.

Para desbloquear um app, seu smartphone faz o que se labareda de verificação 1:1. É um processo relativamente simples: o sistema compara a imagem atual com uma pré-cadastrada. Para aplicações mais críticas, porquê bancos e o Gov.br, o sistema ainda aplica fatores de viveza, que tentam conferir se a imagem é de uma pessoa viva e real, e não de uma foto, de um vídeo manipulado ou até de uma pessoa disfarçada de outra.

Infográfico, em fundo roxo, com o rosto de uma jovem e explicações sobre o funcionamento das câmeras de vigilância.
(Cristielle Luise/Getty Images/Montagem sobre reprodução)
Continua posteriormente a publicidade

A verificação 1:1 diz se você é o usuário correto para aquela conta, mas não entra no valor de quem você é. Essa função é mais complexa e se labareda identificação (ou reconhecimento 1:N).

É o que rola quando o padrão de um rosto é comparado com vários outros armazenados em um banco de dados massivo (daí o N, que indica um número indefinido). O algoritmo não dá uma resposta certeira, mas uma verosimilhança de correspondência entre dois rostos.

Por término, existe ainda a estudo (ou classificação), que interpreta as expressões faciais. Em suma, a verificação diz: “Leste rosto corresponde ao rosto autorizado a acessar esta conta”. A identificação diz: “Leste rosto provavelmente pertence ao Fulano de Tal”. E a estudo: “Leste rosto parece ser de um varão e estar rebelde”.

Não é um sistema perfeito, evidente. Com jovens e idosos, por exemplo, cujas mudanças nos rostos são mais acentuadas e constantes, o reconhecimento facial funciona pior do que a média.

Esse, porém, é só um dos muitos vieses dessa tecnologia.

Continua posteriormente a publicidade

A maioria dos modelos foi treinada com bases de dados compostas sobretudo de homens brancos, e isso limita porquê o sistema interpreta traços e tons de pele. Porquê as mulheres também são sub-representadas, a intersecção de mulheres negras, mormente as idosas, enfrenta as maiores taxas de erro (2).

Nos casos de alguns modelos que foram treinados majoritariamente com pessoas asiáticas, a imprecisão também é maior em relação a outros grupos étnicos (2). Isso se labareda efeito outra raça, e não é um fenômeno só das máquinas: a mesma coisa acontece no cérebro humano quando temos dificuldade em diferenciar rostos de outras etnias. São vieses que, nas máquinas, surgem a partir de parâmetros internos e das referências de treinamento; nas pessoas, das nossas experiências e de quem mais enxergamos ao nosso volta.

Existe ainda uma questão óptica em jogo: peles mais escuras refletem menos luz do que peles mais claras – o que os físicos chamam de refletância. Os algoritmos se confundem com as mudanças que isso implica no contraste e na produção da imagem.

Tabela, em fundo roxo, com cinco explicações sobre o funcionamento das câmeras de vigilância.
(Arte/Superinteressante)

Sorria, você está sendo filmado

No início do texto, dissemos que o tratamento de dados biométricos é regido pela LGPD, que exige, entre outros requisitos, o consentimento dos usuários. Há uma grande exceção a essa regra, porém.

Continua posteriormente a publicidade

Sob o guarda-chuva da segurança pública, as câmeras de reconhecimento facial se espalharam pelo País, sem regulamentação específica. Em 2019, cinco estados brasileiros adotaram a tecnologia para encontrar foragidos e desaparecidos em espaços públicos.

A Bahia fez os primeiros testes em multidões no Carnaval. O sistema emitia um alerta ao detectar uma verosimilhança maior que 90% de que um rosto pertencesse a um fugido. A pessoa, logo, era abordada por policiais para verificação. Ao término do primeiro ano, a taxa de prisões bem-sucedidas a partir de abordagens motivadas por reconhecimento facial oscilou entre 0,27% e 3,6%, dependendo do município e do evento (3).

O problema: seis anos posteriormente a expansão da tecnologia, não faltam histórias de pessoas abordadas por ilusão pela polícia – uma experiência que vai desde o constrangimento até violações graves de direitos humanos.

Em 2024, por exemplo, uma jovem negra foi paragem na ingresso de um evento de pré-Carnaval em Aracaju. Policiais à paisana pediram sua identidade para checar se ela era a mulher procurada que o sistema de reconhecimento havia indicado. Duas horas depois, houve uma novidade abordagem – desta vez, com violência. Ela se desesperou, urinou em si mesma e foi levada algemada para um camburão. Ela acabou liberada com um pedido de desculpas quando a checagem confirmou o ilusão pela segunda vez (4).

Um erro de cômputo semelhante fez com que a polícia do Ceará divulgasse o rosto do ator norte-americano Michael B. Jordan – um varão preto e uma das maiores celebridades de Hollywood do momento – na lista de suspeitos de uma chacina que matou cinco pessoas na noite de Natal (5).

Continua posteriormente a publicidade
Colagem feita com a foto de um rapaz de costas e cinco pequenos quadros emolduram imagens focadas no olho, boca, orelha.
(Cristielle Luise/Getty Images/Montagem sobre reprodução)

Desde 2023, a Lei Universal do Esporte tornou o reconhecimento facial obrigatório em estádios e ginásios esportivos com capacidade superior a 20 milénio pessoas. Os objetivos são combater fraudes, cambistas, casos de violência e discriminação.

Em estádios de futebol, uma parceria com a CBF estabelece que os dados colhidos durante a compra de ingressos e o chegada ao estádio sejam cruzados com bases de dados de foragidos, desaparecidos e pessoas envolvidas em violência em jogos anteriores. Entre os torcedores, há quem sinta que a medida torna os estádios mais seguros e apropriados para famílias (6).

Nos dois anos de operação, só no estádio Allianz Parque, em São Paulo, 204 pessoas com mandados de prisão abertos já foram detidas, 130 foram pegas em flagrante descumprindo medidas cautelares e 253 desaparecidos
foram identificados (6).

Os resultados do Allianz são só uma fração dos 471 projetos de monitoramento ativos em todo o país – que, potencialmente, vigiam 87,2 milhões de pessoas, ou 41% da população brasileira (7).

Os contratos de monitoramento são operados por uma miríade de instituições: governos municipais, estaduais, ministérios federais, polícias militares, guardas civis, companhias e clubes de futebol. E cada uma delas precisa contratar uma empresa que forneça a logística e os softwares.

Essas empresas podem tanto oferecer ao cliente o algoritmo que faz o interceptação dos dados quanto identificar a pessoa por meios próprios. É o caso da Clearview, que foi banida e multada em vários países da Europa por edificar seu banco de dados com 3 bilhões de fotos de redes sociais, inclusive de crianças (8).

Apesar disso, no Brasil, o Ministério da Justiça e Segurança Pública, o Ministério Público de Minas Gerais e o Senado Federalista contratam a Clearview para identificar pessoas.

“Nossas imagens muito provavelmente estão nesse banco de dados, sendo utilizadas por uma empresa privada para obter recursos públicos, que nós pagamos com nossos impostos, para operar uma tecnologia que tem todos esses problemas de ordem moral e legítimo”, diz Gabriel Saad Travassos, patrono público federalista e doutorando em ciências criminais na PUC-PR.

Em função do sigilo e das exceções concedidas à segurança pública, é difícil saber exatamente porquê acontecem os contratos e a coleta de dados. O Meio de Estudos de Segurança e Cidadania (CESeC) conduz um projeto próprio sobre o tema, O Panóptico, que monitora todas as iniciativas de reconhecimento facial do País.

Colagem feita com a foto de uma garota segurando um smartphone diante do rosto e três pequenos quadros emolduram imagens focadas no olho, boca e mão.
(Cristielle Luise/Getty Images/Montagem sobre reprodução)

Pablo Nunes, doutor em ciência política e diretor do projeto, explica que a segurança pública brasileira sofre com falta de transparência crônica. É difícil saber informações básicas, porquê as empresas contratadas, os softwares utilizados, onde os dados estão e por quanto tempo eles ficam armazenados.

Do lado das polícias, há ainda menos registros sobre as formas de uso, as taxas de acerto, e informações demográficas sobre os atingidos. Em universal, os casos em que rola um “falso-positivo”, porquê o da mulher de Aracaju, nem sequer entram nos registros oficiais.

Diante da escassez de dados, o Panóptico só conseguiu mapear o dispêndio de 33% das iniciativas de reconhecimento facial do País, que custaram R$ 2,3 bilhões. Mais da metade dos investimentos aconteceu na Bahia e no Rio.

“Em todos os casos estudados, nenhum dos estados tem provas de que o reconhecimento facial significou redução de indicadores de criminalidade”, diz Nunes. Os mais de R$ 671 milhões investidos pelo Rio de Janeiro resultaram em 500 prisões (7) – R$ 1,3 milhão por prisão. Em verificação, há 719 prisões por semana, em média, no estado (9).

Compartilhe essa material via:

 

O Grande Irmão

O nome do projeto do CESeC vem de um concepção proposto no término do século 18 pelo filósofo inglês Jeremy Bentham. “Panóptico” seria a estrutura ideal para maximizar a vigilância em cadeias (mas que também se aplicava para escolas, fábricas ou hospitais).

Eis a teoria de Bentham: o prédio da penitenciária precisaria ser no formato cilíndrico. No meio do recinto principal, haveria uma torre; em volta, as celas iluminadas. O guarda na torre poderia ver todas as pessoas nas celas – mas os presos não seriam capazes de saber quando estariam sendo observados.

O intuito do panóptico, logo, é condicionar o comportamento das pessoas, porquê se estivessem sendo vigiadas o tempo todo. Algumas prisões no mundo chegaram a ser construídas com o princípio em mente.

No século 20, “panóptico” parou de ser unicamente nome de prédio e foi transformado em metáfora pelo filósofo francesismo Michel Foucault. Ele usa o concepção para explicar o controle social – que, segundo ele, não era mais exercido pela violência direta, mas pela vigilância.

Em vez de castigos públicos e visíveis, o controle acontece de forma mais sutil: Foucault defendia que as pessoas se comportavam porquê se estivessem sempre sendo observadas, criando um siso de disciplina interna. E olha que ele formulou essa teoria nos anos 1970, décadas antes da divulgação da internet.

Colagem feita com a foto de um farol e uma grande fachada com diversas janelas.
(Cristielle Luise/Getty Images/Montagem sobre reprodução)

Foucault nem poderia sonhar com a eficiência e a onipresença das ferramentas de vigilância que temos hoje. E Bentham teria adorado o ditado “quem não deve não teme”, que sempre aparece porquê argumento de quem acha que a hipervigilância só é um problema para quem tem problemas com a Justiça.

Mas não é preciso ter culpa no cartório para estar na mira das câmeras de reconhecimento facial. Se hoje você é considerado puro, não quer proferir que vai ser assim para sempre.

“Uma imagem pode ser utilizada a qualquer momento no horizonte”, diz Travassos. “Criminalizar condutas é um processo político: a capoeira já foi transgressão e, hoje, é um recta fundamental.” Mas o inverso também pode ocorrer. “E se, daqui a pouco, as atuais manifestações culturais e políticas que exercemos sofrerem qualquer tipo de represália? Nós seremos identificados?”

Esse dilema não é novo para alguns ativistas. Diante da profusão de smartphones, começaram a surgir novas tentativas de impedir a identificação durante manifestações. Em 2010, o artista Adam Harvey criou um tipo de camuflagem facial chamada CV Dazzle (um tanto porquê “confundidor de visão de computador”), em que maquiagens e penteados inesperados impediam a máquina de reconhecer que ali havia um rosto.

Hoje, com o progressão da tecnologia, não é garantia que os métodos de Harvey ainda funcionem. Mas outras técnicas mais avançadas têm bons resultados, focadas em modificar pequenas partes das imagens para enganar a IA [veja mais no infográfico abaixo].

 

 

Infográfico, em fundo roxo, com três dicas para enganar as câmeras de vigilância.
(Cristielle Luise/Getty Images/Montagem sobre reprodução)
Tabela, em fundo roxo, com três dicas para enganar as câmeras de vigilância.
(Arte/Superinteressante)

 

Chamadas de ataques adversariais, elas levam o jogo do CV dazzle a outro nível: podem fazer a máquina crer que ali há o rosto de outra pessoa. São experimentos teóricos, mas que possibilitam usar acessórios físicos ou ferramentas digitais para convencer uma IA de que você é a Xuxa, a Marina Silva ou o seu gerente. Seja qual for a sua face, e de forma imperceptível para os olhos humanos .

O parecer da ONU é utilizado por dezenas de movimentos mundo afora para ressaltar a sensibilidade dos dados biométricos. Além de todas as problemáticas das aplicações em segurança pública, os grupos argumentam que o próprio armazenamento dessas informações já é um risco, sobretudo nas mãos de governos autoritários ou de pessoas mal-intencionadas.

No Brasil, mais de 50 entidades da sociedade social se reúnem no movimento Tire Meu Rosto da Sua Mira. Eles se articulam com outros movimentos sociais para reivindicar o deportação completo do uso do reconhecimento facial em segurança pública.

O término dessa prática poderia ser instituído por lei (de qualquer instância) ou por uma decisão do STF, se fosse constatado que direitos fundamentais estão sendo violados. E nem precisaria ser um deportação totalidade.

Na União Europeia, por exemplo, há desde o ano pretérito uma regulamentação que proíbe o monitoramento biométrico remoto em tempo real, exceto em casos críticos previamente definidos – porquê ameaças a hospitais e centrais elétricas. No Brasil, daria para usar a tecnologia para proteger terras indígenas de invasores.

As exceções na Europa são amplas, mas ainda é um sistema mais regulamentado e transparente que o brasiliano. Por cá, a tecnologia segue em expansão – mas ainda não dá para saber qual o software usado em 95% dos projetos ativos de monitoramento (7).

Talvez, um dia, seja provável usar ferramentas de reconhecimento facial para aprimorar o trabalho da polícia e descobrir desaparecidos, sem vieses de raça, idade e gênero – e com uma coleta de dados moral. Até lá, melhor retirar o freio, ou a próxima paragem poderá ser a de uma verdade de vigilância ordenado tão estressante quanto o Big Brother, sem um prêmio no final.


Agradecimentos: Augusto Jobim do Amaral, professor das pós-graduações em Ciências Criminais e em Filosofia da PUC-RS; Horrara Moreira, advogada popular, integrante do Juízo Municipal de Proteção de Dados e da Privacidade do Rio de Janeiro e coordenadora da campanha Tire Meu Rosto da Sua Mira; Pedro Saliba, legisperito e sociólogo, pesquisador da Data Privacy Brasil.

Fontes: (1) cláusula “DeepFace: Closing the gap to human-level performance in face verification”; (2) cláusula “Review of demographic fairness in face recognition”; (3) relatório “O sertão vai virar mar: Expansão do reconhecimento facial na Bahia”; (4) reportagem da Missiva Capital “Erros em série expõem fragilidade do reconhecimento facial porquê instrumento de combate ao transgressão”; (5) notícia do g1 “Foto de planeta do cinema Michael B. Jordan aparece em lista de procurados pela polícia do Ceará”; (6) reportagem da Veja “Marcação cerrada: porquê a biometria aumentou as prisões em estádios de futebol”; (7) monitor do projeto O Panóptico – Monitor do reconhecimento facial no Brasil, dados coletados em 7 de novembro; (8) cláusula “Beyond surveillance: Privacy, ethics, and regulations in face recognition technology; 9) notícia do Uol “RJ tem 17,4 milénio presos além da capacidade; menos de 10% estudam”; (10) cláusula “Hidden adversarial attack on facial biometrics – a comprehensive survey”; (11) Solução 48/4 da ONU “Right to privacy in the do dedo age”.

 

 


Comentários (0)

Faça login ou cadastre-se para participar da discussão.

Seja o primeiro a comentar!

Publicidade