top of page

Gestão de Dados Biométricos Digitais e Reconhecimento Facial na Segurança Pública

  • matheusfelipe53
  • 4 de ago.
  • 21 min de leitura
ree

 

Grupo de Estudos em Direito e Tecnologia da Universidade Federal de Minas Gerais – DTEC - UFMG


Data10/06/2025


RelatoresCamila Almeida, Izabela Acorrini e Sabrina Pedrosa Dias


 

Bibliografia Base: (a) Inteligência artificial, viéses algorítmicos e racismo: o lado desconhecido da justiça algorítmica; (b) Racismo Algorítmico - Inteligência Artificial e Discriminação nas Redes Digitais - Capítulo "Necropolítica algorítmica" - págs 117 a 121; (c) Racial Discrimination in Face Recognition Technology; (d) The problem of automated facial recognition technologies in Brazil: Social countermovements and the new frontiers of fundamental rights.


Bibliografia Complementar: (e) Inteligência Artificial Generativa: discriminação e impactos sociais – Páginas 39 a 44; (f) Reconhecimento facial no carnaval – uma rima que exige reflexão; (g) Tecnologias e Segurança Pública: debates sobre policiamento, privacidade, vigilância e controle social; (h) Um Rio de Câmeras com Olhos Seletivos: Uso do reconhecimento facial pela polícia Fluminense; (i) Facial recognition systems in policing and racial disparities in arrests.


ree

 

1.       Inteligência artificial, viéses algorítmicos e racismo: o lado desconhecido da justiça algorítmica

 

a.       Objetivo do texto: O estudo objetiva esclarecer a importância de se voltar uma rigorosa atenção aos dados que são utilizados na construção de modelos de IA, tal como elencar possíveis soluções para reduzir a incidência de algoritmos enviesados e mitigar suas consequências danosas.


b.       Metodologia: exploratória e descritiva, abordando casos práticos e, também, como procedimento técnico, utilizou-se de pesquisa bibliográfica.


c.       Conclusão: A conclusão principal aferida é a de que os algoritmos enviesados produzem nefastas consequências sociais, violando direitos fundamentais e operando como catalisadores, o que aumenta e perpetua preconceitos e segregações inerentes à sociedade na qual se baseiam, contribuindo com a manutenção e intensificação do racismo estrutural que permeia a sociedade e o sistema de justiça criminal.


d.       Autores: Pesquisa acadêmica dos autores que são líderes e pesquisadores do grupo de pesquisa SpinLawLab, vinculado ao CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico) do Ministério da Ciência, Tecnologia e Inovações para incentivo à pesquisa no Brasil.

 

1.1.  Introdução

       O estudo faz parte das pesquisas empreendidas durante o estágio de pós-doutoramento da pesquisadora Bárbara Guasque, com a supervisão do pesquisador Alexandre Morais da Rosa (UNIVALI), e contou com o fomento do CNPq mediante a bolsa de pós-doutorado júnior.


       As novas tecnologias, incluindo o uso de IA, estão cada vez mais presente no setor judiciário, incluindo o judiciário brasileiro, com o intuito de automatizar atividades repetitivas, classificatórias e organizacionais, além de servir de apoio à tomada de decisão judicial, o que pode incrementar a produtividade e angariar eficiência e redução da morosidade processual e da insegurança jurídica. Desta feita, constitui uma grande aliada no aprimoramento do ambiente institucional judicial nacional e traz a esperança de uma justiça mais célere, efetiva e estável.


       A maior parte dos sistemas existentes desenvolvidos nos tribunais brasileiros estão efetuando tarefas simples e repetitivas. Podendo trazer vieses algorítmicos que levantam preocupantes questionamentos de natureza ética.


       O artigo tem natureza exploratória e descritiva, e se justifica para identificar e descrever os impactos negativos que a inteligência artificial e os algoritmos enviesados podem produzir na sociedade e no sistema de justiça, quando não bem desenvolvida e fiscalizada. Ainda, o estudo busca elencar algumas alternativas hábeis para atenuar a possibilidade de enviesamento dos modelos, mitigando as externalidades negativas oriundas de algoritmos enviesados, para que não venham a contribuir com a manutenção e intensificação do racismo estrutural que permeia a sociedade e o sistema de justiça criminal.

 

1.2.  Inteligência Artificial e vieses algorítmicos:

       A IA é um campo da ciência e da engenharia, encarregado de compreender o comportamento inteligente do cérebro humano e, além disso, criar artefatos que simulem dito comportamento de maneira automatizada. As máquinas, em alguma medida, imitam o processo cognitivo humano, após um desenvolvimento de aprendizado baseado em dados que fornecem generalizações sobre dado assunto.


       Os resultados oferecidos pela IA são superiores aos resultados humanos tendo em vista a utilização dos algoritmos que maximizam a filtragem dos dados e otimizam os resultados. Os algoritmos consistem em um caminho que será seguido pela IA em prol do resultado desejado.


       A particularidade desses algoritmos é que eles aprendem por conta própria, fazendo inferências a partir dos dados. Portanto, o aprendizado de máquina é a capacidade destas de aprender com os dados, identificando tendências e padrões em eventos aparentemente aleatórios.

 

-         Exemplos de IA em Tribunais:

 

A.      Victória: Sistema de Inteligência Artificial utilizado no Tribunal de Justiça do Rio de Janeiro para automatizar o rito das execuções fiscais.

B.      Elis: Sistema de Inteligência Artificial utilizado no Tribunal de Justiça de Pernambuco para automatizar o rito das execuções fiscais.

C.       Mandamus: Sistema que utiliza de técnicas de inteligência artificial para auxiliar na automação do processo de elaboração, distribuição e gerenciamento do cumprimento de mandados judiciais.

D.      Victor: Sistema utilizado no Supremo Tribunal Federal com o intuito de otimizar a análise da Repercussão Geral.

 

       Os autores denotam importância ao destacar os efeitos nocivos que o aprendizado de máquina, alimentado com big datas portadores de preconceitos e discriminações, pode gerar na sociedade e no sistema de justiça, catalisando injustiças sociais com a falsa aparência de neutralidade matemática, o que gera, conforme preleciona, O’Neil, “ciclos destrutivos de feedback”. Os vieses algorítmicos se originam quando o algoritmo adquire e reflete os valores humanos, ou seja, ele incorpora os mesmos desvios culturais que estão implícitos nos dados que são utilizados para treinamento do modelo. Isso acaba enviesando o resultado final que é obtido. Algoritmos não são neutros, não são puramente matemáticos.


       Isso acontece porque os modelos algorítmicos são, em grande medida, estatísticos. Então, a princípio, o algoritmo não faz nenhum pré-julgamento, ele não estabelece nenhuma regra, tampouco realiza valoração. Ele somente aprende com os dados mediante análises estatísticas, ou seja, ele aponta o que acontece habitualmente. O algoritmo reflete uma dinâmica social predominante. Portanto, o cerne da questão é impedir que as ferramentas tecnológicas reproduzam limitações, falhas e preconceitos presentes na sociedade e no sistema de justiça. É imperioso, assim, identificar os impactos negativos que os modelos enviesados podem produzir na sociedade e no sistema de justiça se não lançarmos uma atenção rigorosa sobre os dados que serão utilizados para treinamento e validação dos modelos.

 

1.3.  Algoritmos como a perpetuação e massificação de práticas sociais discriminatórias

A.      Modelo de seleção de currículos da Amazon:

Problema: Auferia uma pontuação maior para os currículos masculinos

Razão: A discriminação da ferramenta contra candidatas do sexo feminino acontecia porque os dados utilizados para treinamento do modelo foram currículos enviados para a empresa nos últimos 10 anos, os quais são, em sua imensa maioria, de homens, como acontece na maior parte da indústria de tecnologia.

 

B.      Estudo conduzido pelo National Institute of Standards and Technology (NIST): agência governamental norte-americana, testou 189 algoritmos de 99 desenvolvedores. A constatação foi que a tecnologia de reconhecimento facial é, para a correspondência um para um, entre 10 e 100 vezes menos eficaz para rostos asiáticos e afro-americanos, em comparação com as imagens de caucasianos.


             Apenas 15% dos pesquisadores de IA do Facebook e 10% do Google são mulheres. As mulheres representam somente 18% dos graduados em ciência da computação nos Estados Unidos. Com relação à população negra, essa estatística é ainda menor, correspondendo a apenas 2,5% dos funcionários do Google, 4% do Facebook e da Microsoft e 6% do Twitter. A força de trabalho da Apple contempla 9% de negros, todavia, essa estatística inclui funcionários de varejo. Assim como a Amazon, que tem 26,5% de funcionários negros; no entanto, a maioria ocupa empregos de baixa remuneração e apenas 8,3% deles estão em cargos de gerência.


             Os cientistas da computação constroem e treinam os algoritmos, eles se concentram nas características faciais que são mais visíveis em determinada raça, mas não nas demais. Isso pode acontecer com relação a raças e gêneros, mas também pode ocorrer com determinados contextos e classes sociais que, se não forem bem representados no treinamento do modelo, não terão uma representatividade estatística; formarão um provável ponto cego no modelo, capaz de carrear danosas consequências sociais e violar direitos fundamentais.

 

C.       Software Rekognition: Desenvolvido pela Amazon para identificar pessoas em vídeos e imagens, é utilizado por inúmeros órgãos policiais dos Estados Unidos. Contudo, esse software apresenta falhas graves no reconhecimento de pessoas como falso positivo. Um estudo efetuado pela União Americana pelas Liberdades Civis, em 2018, testou o sistema submetendo fotos dos congressistas norte-americanos. O sistema identificou 28 dos deputados e senadores como criminosos. Ainda, “as falsas correspondências eram desproporcionalmente de pessoas de cor”. Cerca de 40% dos congressistas, erroneamente identificados como criminosos, eram negros, embora eles representassem apenas 20% dos membros do Congresso. Por ser um sistema muito acessível, o Rekognition vem sendo facilmente adquirido e comercializado para segurança pública, o que deve exacerbar o falso reconhecimento positivo de pessoas negras e intensificar o racismo que permeia o nosso sistema penal. O resultado disso é uma catalização de injustiças sociais com a falsa aparência de neutralidade matemática.

 

D.      Compas (Correctional Offender Management Profiling for Alternative Sanctions): Sistema utilizado nos EUA. O Perfil de Gerenciamento Corretivo de Infratores para Sanções Alternativas, em português, é uma ferramenta desenvolvida e comercializada pela Northpointe, foi elaborada com o intuito de prever a reincidência criminal de condenados, auxiliando os juízes na definição de quais programas de tratamento ou de condicional o réu teria, com base nas in formações extraídas pelo sistema. Quando os réus são autuados na prisão, eles respondem a um questionário. Suas respostas são inseridas no Compas e geram uma pontuação, incluindo previsões de “risco de reincidência” e “risco de reincidência violenta”. O primeiro grande problema dessa circunstância é que a utilização desse algoritmo para justificar um aumento de pena solapa importantes garantias fundamentais, como a legalidade e o devido processo legal.


             Nessa conjuntura, o réu tem sua liberdade condicional negada, assim como a sua pena-base aumentada, não por circunstâncias legais ou por causa do crime praticado, mas devido ao seu local de moradia, suas relações de amizade, seus familiares etc. Por meio da pontuação determinada pelo algoritmo, os réus são julgados por serem quem são e pelo meio em que vivem, e não pela conduta praticada.


             Esse enviesamento acontece porque os sistemas algorítmicos inferem qual será a próxima resposta com base em dados anteriores. Consequentemente, eles não prospectam um futuro diferente. Acontece que, além de os registros históricos certamente contemplarem preconceitos inerentes à sociedade e ao sistema de justiça, eles também podem não refletir os valores de hoje e não permitem a modificação. Isso quer dizer que transformar dados coletados em informações para treinamento dos modelos de IA torna difícil afastar-se do racismo e de outras injustiças históricas. Enviesamento atual, os policiais muitas vezes não registram as queixas de determinadas áreas ou afins e a desigualdade do sistema de justiça.


             Diante dessas circunstâncias, os presídios estão repletos de condenados por crimes sem vítimas (crimes de perturbação), sendo a maioria provenientes de bairros de baixa renda, negros ou imigrantes hispânicos. Enquanto isso, os crimes de fraude contra o mercado imobiliário e o mercado de ações — que trouxeram profundas repercussões nefastas para milhares de pessoas que perderam suas casas, empregos e planos de saúde na crise financeira de 2008 — não preenchem os relatórios policiais nem as estatísticas do PredPol. Consoante O’Neil, “criminalizamos a pobreza, acreditando o tempo todo que nossas ferramentas não são apenas científicas, mas justas”.

  

1.4.  Alternativas hábeis para atenuar a possibilidade de enviesamento dos modelos

       Segundo o texto, se queremos melhorar o resultado, livrá-lo o máximo possível de enviesamentos humanos, precisamos fiscalizar e controlar os dados utilizados para treinamento e validação dos modelos. Dentre as possíveis ações em prol de combater a otimização dos vieses estão a remoção de todos os atributos sensíveis presentes nos dados. Atributos como raça, gênero, posição social, religião, bem como indicativos que forneçam esses atributos, devem ser extirpados do treinamento do modelo. É preciso ter atenção com os dados e variáveis que serão selecionados para treinar o algoritmo. A escolha equivocada pode resultar em um padrão enviesado.


       Outro critério que deve ser observado é a promoção da máxima transparência do modelo. Essa transparência deve abranger os dados que foram utilizados, os resultados obtidos, a equipe desenvolvedora, o nível de acurácia etc. Ademais, é pungente a importância de garantir a participação das mulheres e das minorias para o desenvolvimento de modelos de IA. É preciso ampla publicidade para que os usuários estejam inequivocadamente cientes de que estão diante de um sistema de IA. A publicidade também permite maior controle por parte de agentes externos. Ademais, as vítimas de preconceitos, ou qualquer outro tipo de violações cometidas por sistemas IA, somente poderão ter ciência, contestar e provar a violação se tiverem acesso aos dados.


       Não é suficiente uma rigorosa supervisão humana em decisões sensíveis, que interferem de maneira contundente em direitos fundamentais dos cidadãos. Há que se ter prudência e evitar o desenvolvimento de modelos que possam aprofundar as já abissais mazelas sociais do preconceito e da segregação.

 

1.5.  Conclusão

       A partir da leitura do texto é possível apresentar alguns modelos que vêm sendo utilizados e que estão chegando ao Brasil, e demonstrar de que maneira contribuem para a manutenção do racismo, do sexismo e da segregação. Na seara penal, que constitui o ponto nevrálgico da temática, principalmente em relação aos direitos fundamentais, o artigo 23º da Resolução 332 (Conselho Nacional de Justiça, 2020) prevê expressamente essa preocupação. O referido dispositivo estipula que a utilização de modelos de IA em matéria penal não deve ser estimulada, sobretudo com relação à sugestão de modelos de decisões preditivas.

 

2.       Racismo Algorítmico – Inteligência Artificial e Discriminação nas Redes Digitais

 

      O capítulo “Necropolítica Algorítmica” (p. 117-121), extraído da obra Racismo Algorítmico – Inteligência Artificial e Discriminação nas Redes Digitais, de Tarcízio Silva, tem como objetivo aprofundar a compreensão das formas como tecnologias digitais e sistemas algorítmicos têm sido mobilizados para reproduzir estruturas de opressão, especialmente no contexto da necropolítica.


      O autor parte da teoria de Achille Mbembe sobre necropolítica, conceito que designa o poder de ditar quem pode viver e quem deve morrer, para demonstrar como as tecnologias digitais se tornaram novas ferramentas de controle e eliminação simbólica ou material de populações marginalizadas. A proposta de Silva é compreender como esse poder se manifesta nos algoritmos, de maneira automatizada e muitas vezes invisível.


      O capítulo evidencia que a necropolítica não se limita ao campo das armas ou da violência física direta, mas também se expressa por meio do “abandono” e da negação de acesso a direitos básicos como saúde, mobilidade e dignidade. Algoritmos que regulam, por exemplo, quem é priorizado para atendimento médico, ou que definem padrões de comportamento suspeito com base em dados enviesados, operam dentro dessa lógica necropolítica.


      Em vez de soluções neutras e técnicas, os sistemas algorítmicos carregam consigo os preconceitos estruturais da sociedade. Isso ocorre tanto na etapa de construção dos modelos, com dados históricos enviesados, quanto na aplicação dos sistemas em contextos marcados por desigualdades raciais, de classe e de gênero. O resultado é a amplificação de processos discriminatórios sob uma fachada de racionalidade tecnológica.


      Silva destaca que há uma concentração geográfica e política dos centros de produção de tecnologias de vigilância e inteligência artificial. Enquanto empresas e governos do Norte global desenvolvem e comercializam essas ferramentas, suas consequências mais letais são vivenciadas em territórios do Sul global e em populações periféricas. Essa dinâmica evidencia o colonialismo tecnológico embutido nas lógicas algorítmicas.


      O texto também ressalta a ausência de responsabilização efetiva das empresas e instituições que utilizam esses sistemas. A linguagem técnica e a complexidade dos algoritmos dificultam que vítimas de discriminação digital compreendam e questionem os mecanismos por trás das decisões que impactam suas vidas. Esse cenário contribui para a naturalização das desigualdades reproduzidas por sistemas automatizados.


      No âmbito da segurança pública, são exemplificadas práticas como o policiamento preditivo e o uso de câmeras inteligentes, que têm sido aplicadas de forma desproporcional em áreas racializadas e empobrecidas. A inteligência artificial, nesses casos, funciona como ferramenta de reforço do racismo institucional, legitimando abordagens e ações violentas sob o pretexto de eficiência e prevenção.


      O autor convida o leitor a reconhecer a urgência de políticas públicas e ações coletivas voltadas à justiça algorítmica. Isso inclui o desenvolvimento de marcos regulatórios robustos, a construção de alternativas tecnológicas baseadas em princípios éticos e inclusivos, e a valorização de epistemologias do Sul e de saberes historicamente marginalizados.


Resistir à necropolítica algorítmica, segundo Silva, não se limita à crítica teórica. Exige articulação política, engajamento comunitário e protagonismo das populações afetadas. A tecnologia precisa deixar de ser vista como um fim em si mesmo e passar a ser pensada como ferramenta de emancipação coletiva, construída de forma democrática.


      Diante do avanço das tecnologias de vigilância e controle, torna-se fundamental promover o debate sobre direitos digitais, equidade algorítmica e o papel da sociedade civil na fiscalização e transformação dessas práticas.

 

3.       “Racial Discrimination in Face Recognition Technology”


Autor: Alex Najibi

Harvard Griffin GSAS Science Policy Group, 2020


3.1.  Resumo

      O artigo examina de maneira crítica o modo como sistemas de reconhecimento facial reproduzem e ampliam desigualdades raciais. Além de ser a tecnologia de reconhecimento biométrico com menor acurácia de todas, seu uso traz à tona preocupações de cunho ético e legal, em relação à proteção de dados. Metodologicamente, o trabalho adota métricas de desempenho divididas por raça e gênero para revelar disparidades que permanecem invisíveis quando se considera apenas a acurácia agregada da tecnologia. No plano conceitual, o texto introduz o termo "discriminação algorítmica estrutural" para afirmar que vieses não podem ser entendidos como simples falhas técnicas: eles são o produto de relações sociopolíticas que moldam tanto a coleta de dados (escolha do dataset) quanto as decisões de engenharia e código da tecnologia. Assim, mitigar desigualdades requer intervenções que combinem ciência de dados, ciências sociais e direito.

 

3.2.  Inequity in face recognition algorithms

      A partir de uma revisão sistemática de estudos técnicos, como Gender Shades e FRVT 2019 do NIST, de documentos de políticas públicas e de casos de uso governamentais, o texto demonstra que as taxas de erro podem ser até cem vezes maiores para pessoas negras do que para pessoas brancas, sobretudo no que diz respeito a falsos positivos. Estes estudos trazem à tona a falácia de alta acurácia desta tecnologia: a equivalência das taxas de falso‑positivo entre grupos marginalizados é altíssima.


      Uma vez que métricas tradicionais de medição de acurácia são suplementadas por outros indicadores, que consideram, por exemplo, diferenciação de gênero e cor de pele, a pior taxa de acurácia encontrada é em relação a mulheres negras de pele escura entre 18 e 30 anos de idade, e a maior taxa de acurácia é performada em relação a homens de pele branca.

 

3.3.  Face recognition in racial discrimination by law

      Outro grande problema do uso de tecnologias de reconhecimento facial se apresenta quando consideramos a herança racista de autoridades governamentais que exercem poder de polícia. O estudo analisa que nos Estados Unidos, pessoas negras tendem mais a ser encarceradas por crimes de menor potencial ofensivo em relação a pessoas brancas, o que torna o banco de dados policial uma ferramenta com representação majoritária de pessoas negras, sendo que, tal banco de dados é usado para alimentar tecnologias de reconhecimento facial, criando um ciclo vicioso de racismo estrutural.


      Essa disparidade de resultado é atribuída a conjuntos de dados desbalanceados, a priorização da acurácia média em detrimento da equidade e ao contexto de aplicação da tecnologia para reforçar o poder de polícia e controle migratório nos Estados Unidos, o que tende a intensificar os efeitos discriminatórios. Por exemplo, análise do grupo Algorithmic Justice League denuncia uso de tecnologias de reconhecimento facial para exercer poder de vigilância estatal sobre ativistas do movimento Black Lives Matter, monitorando e censurando suas atividades.

 

3.4.  Building a more equitable face recognition landscape

      No plano conceitual, o texto introduz o termo "discriminação algorítmica estrutural" para argumentar que vieses não podem ser entendidos como simples falhas técnicas: eles são o produto de relações sociopolíticas que moldam tanto a coleta de dados quanto as decisões de engenharia. Assim, mitigar desigualdades requer intervenções que combinam ciência de dados, ciências sociais e direito.


      Como recomendações, o autor propõe auditorias periódicas com divulgação pública de métricas estratificadas, a adoção de marcos regulatórios baseados no princípio da precaução, como moratórias temporárias sobre o uso policial em tempo real, a diversificação dos conjuntos de dados que são usados para treinamento da tecnologia e a participação ativa das comunidades afetadas em todas as etapas do ciclo.


      Em síntese, o artigo conclui que respostas puramente técnicas são insuficientes. Para enfrentar a discriminação algorítmica de forma efetiva, é imprescindível articular avanços técnicos a reformas institucionais e legais, de modo a assegurar que os benefícios da tecnologia não se construam às custas de grupos historicamente marginalizados.

 

4.       The Problem of Automated Facial Recognition Technologies in Brazil: Social Countermovements and the New Frontiers of Fundamental Rights


Autores: Michel R. O. Souza; Rafael A. F. Zanatta

Latin American Human Rights Studies, v. 1 (2021)


4.1.  Resumo

      Os autores propõem uma análise das características da tecnologia de reconhecimento facial automático (AFRTs) no Brasil e respostas das organizações da sociedade civil em relação à ação da referida tecnologia. O texto endereça dois argumentos principais:  o argumento do viés endêmico (endemic bias argument), que busca corrigir consequências injustas e potencialmente racistas da tecnologia de reconhecimento facial; e o argumento da opressão endêmica (endemic oppression argument), que identifica um conjunto de facilitadores de violação sistemática de direitos fundamentais presentes nesta tecnologia. Os autores apresentam o conceito de contramovimentos sociais (countermovements) para argumentar sobre a possibilidade de contestação jurídica da disseminação da referida tecnologia, posicionando-se no sentido de que o reconhecimento facial pode migrar rapidamente da lógica de um viés endêmico para opressão endêmica, defendendo a possibilidade de mudança da legislação a fim de banir o uso da tecnologia em casos específicos.

 

4.2.  Introdução

A.      O argumento do viés endêmico / The endemic bias argument

             Souza e Zanatta (2021, 2) iniciam a construção do artigo pontuando como a tecnologia de reconhecimento facial automático, desde sua popularização, vem enfrentando problemas de cunho ético e jurídico. Um dos argumentos mais fortes contra a tecnologia, seria o argumento do viés endêmico, conectado à ausência de diversidade nos datasets que são usados no treinamento das atividades de reconhecimento facial. Nos Estados Unidos, por exemplo, pesquisas do National Institute of Standards and Technology demonstram que em relação a acurácia da tecnologia de reconhecimento facial, resultados falsos positivos são maiores em relação a pessoas negras e asiáticas comparado a resultados de pessoas brancas.


             Segundo os autores, o argumento do viés endêmico, per se, seria o suficiente para ocasionar o banimento da tecnologia de reconhecimento facial automático, no nível em que é operada hoje, pelo impacto que se causa em relação ao racismo sistêmico, especialmente em países de história escravocrata, discriminação racial, e brutalidade policial como é o caso dos EUA e também do Brasil. Ademais, Souza e Zanatta pontuam que este tipo de tecnologia é uma ferramenta poderosa para operacionalizar o poder de vigilância estatal (surveillance). Apenas advogar pela regulação da tecnologia e correção de seus vieses intrínsecos não seria suficiente, pois o reconhecimento facial automático seria incompatível com direitos fundamentais do ser humano.

 

B.      O argumento da opressão endêmica / The endemic oppression argument

             Souza e Zanatta utilizam da bibliografia de Hans Jonas e Hannah Arendt para argumentar que, quando nós como sociedade permitimos a existência de tais tecnologias, nós nos tornamos “menos humanos e mudamos fundamentalmente o comportamento social”. Segundo os autores, o reconhecimento facial automático apresenta incompatibilidade com direitos e liberdades civis na sociedade, por ser uma ferramenta poderosa de vigilância Estatal.

 

4.3.  Understanding how Automated Facial Recognition Technologies Works

      No primeiro capítulo, Souza e Zanatta detalham tecnicamente como funciona o fluxo computacional dos AFRTs: captura da imagem, extração vetorial de traços, comparação em banco de dados e decisão algorítmica. Destaca-se o papel das redes neurais convolucionais e do deep learning na elevação de acurácia, embora os autores lembrem que a pesquisa em reconhecimento facial remonta aos anos 1960, com marcos na década de 1990. A seção enfatiza ainda a difusão cotidiana desses sistemas, desde smartphones a catracas corporativas, e retoma a tese de Kelly Gates de que o 11/9 foi ponto de inflexão para legitimar a vigilância biométrica como “solução de alta tecnologia” para a segurança nacional.

 

4.4.  The debate about facial recognition today: the impact of global discussions in Brazil

      Após o nivelamento teórico, os autores passam a conectar o avanço dos AFRTs a um programa neoliberal mais amplo de “cidades inteligentes”, cuja lógica é descentralizar serviços públicos e abrir novos nichos de mercado para empresas de tecnologia. Em resposta, cresce a oposição de acadêmicos e ONGs. Cartas abertas da Coalizão Direitos na Rede, por exemplo, vinculam o uso policial de reconhecimento facial à erosão de direitos como privacidade, liberdade de associação e igualdade, destacando que, em 2019, 90 % das prisões feitas com a tecnologia no Brasil foram de pessoas negras.


      Os autores destacam que, no entanto, o diálogo internacional que inclui petições europeias por banimento dos AFRTs e ações de Autoridades de Proteção de Dados para frear a tecnologia não chegou ao Brasil. No contexto doméstico, movimentos sociais focam em desenvolver uma análise crítica da população em relação à tecnologia com foco no argumento de viés endêmico. Tal análise, segundo Souza e Zanatta, se inicia em 2019 após casos notórios de prisões de pessoas negras reconhecidas erroneamente pela tecnologia: segundo a Rede de Observatórios de Segurança Pública, em 2019 151 pessoas foram presas no Brasil com apoio de tecnologias de reconhecimento facial automático, sendo que entre elas 90% eram negras e 88% homens, uma questão intrinsecamente ligada ao racismo estrutural.

 

4.5.  Between data protection as a fundamental right, biometrics and facial recognition

      Neste ponto os autores exploram a arena legislativa, pontuando interseções entre proteção de dados como direito fundamental, leitura biométrica, reconhecimento facial e projetos de lei para regulação destas tecnologias. Souza e Zanatta demonstram como projetos de lei sobre biometria (PL 12/2015, PL 3558/2012) e sobre AFRTs (PL 4612/2019, PL 13709/2018) atribuem ao Executivo ampla competência para detalhar regras, ao passo que a LGPD (2018) exclui de seu alcance o tratamento de dados para segurança pública, criando uma lacuna regulatória.


      Paralelamente, a PEC 17/2019 e, sobretudo, a decisão do STF nas ADIs contra a MP 954/2020 consolidam a proteção de dados como direito fundamental autônomo. Para os autores, o teste de proporcionalidade defendido pelo ministro Barroso – finalidade legítima, mínima coleta necessária e segurança da informação – pode municiar contestações futuras a usos desproporcionais de AFRTs. Ademais, com a proteção de dados alçada a direito fundamental, Souza e Zanatta acreditam ser possível o desenvolvimento de novas discussões no campo legislativo para o banimento de tecnologias de reconhecimento facial.

 

4.6.  Countermovements in Brazil: understanding the dynamic nature of society and socio-technical structures

      Ancorado nos trabalhos de Julie Cohen e Mireille Hildebrandt, o quarto capítulo apresenta os countermovements como reações sociais à mercantilização, comodificação e supressão de direitos. A doutrina de Cohen e Hildebrandt dialogam no sentido do conceito de “direitos como affordances”, situando o processo de contestação social como um elemento de codeterminação de como podemos ser lidos pelos computadores (HILDEBRANDT, 2015; COHEN, 2017). Esse conceito está profundamente ligado aos contramovimentos.


      Souza e Zanatta trazem casos nacionais emblemáticos que ilustram a teoria e demonstram como contramovimentos têm crescido no Brasil nos últimos anos e como este crescimento é importante em face da necessidade de reafirmação de direitos fundamentais em contraponto a expansão de tecnologias de reconhecimento facial: A ação civil do Idec contra a ViaQuatro, em 2018, obteve liminar para suspender câmeras que analisavam expressões de usuários do Metrô de São Paulo para fins publicitários, debatendo anonimização, consentimento, direitos constitucionais e direitos do consumidor.


      Ainda sobre o Metrô de São Paulo, em 2020, o Idec cobrou da entidade informações sobre contratos de reconhecimento facial, questionando como os dados biométricos dos passageiros seriam utilizados e quais medidas de segurança seriam implementadas para proteção destes. Devido a insuficiência de respostas por parte do Metrô, uma ação de produção de provas foi ajuizada pelo Idec em parceria com os advogados públicos de São Paulo e do Brasil e com as ONGs Intervozes, Artigo 19 Brasil e CADHu, denunciando riscos da operação. Demandas semelhantes atingiram a varejista Hering e outras empresas, agora sob a ótica de proteção do consumidor e direitos da personalidade. Após denúncia do Idec, o Senacon aplicou sanção administrativa à Hering por uso de tecnologias de reconhecimento facial sem consentimento dos consumidores.

 

4.7.  Reports and critiques from social movements in Brazil

      Neste ponto, Souza e Zanatta adentram o universo das redes, coletivos e centros de pesquisa que vêm mapeando e denunciando a adoção de reconhecimento facial no país. O texto conta como, a partir de 2018, surge um “ecossistema de vigilância crítica” que combina investigações de campo, relatórios técnicos, campanhas de mídia e ações pedagógicas. O caso paradigmático é o Projeto Panóptico do CESeC, que compila e monitora a adoção de tecnologias de reconhecimento facial na esfera pública brasileira. O Projeto busca ainda conscientizar a população em relação aos riscos e vieses que as ARFTs apresentam, argumentando que problemas de violência e racismo estrutural são reforçados pelo uso destas tecnologias.


      Ademais, dossiês do AqualtuneLab, Coding Rights, e relatórios como “Mal de Ojo” (Derechos Digitales), demonstram que o fio condutor do discurso dos contramovimentos sociais é a constatação de que o erro estatístico não é um acidente, mas um sintoma de matrizes coloniais de dados, afinal, os bancos de imagens são alimentados, em grande parte, por pessoas que nunca consentiram em participar de experimentos de vigilância.

 

4.8.  Discussion about the cases: countermovements, affordances and fundamental rights

      Aproximando-se do final do artigo, os autores passam a ligar os pontos do artigo e montar um quadro teórico que explique a força transformadora dos contramovimentos. Souza e Zanatta recorrem a Karl Polanyi para descrever as iniciativas de ViaQuatro, Metrô de São Paulo, Hering e outras como contramovimentos: momentos em que a sociedade, percebendo a mercantilização de um bem vital (dados biométricos) age para reequilibrar o jogo. Em diálogo com Julie Cohen e Mireille Hildebrandt, direitos fundamentais são apresentados como affordances, isto é, capacidades práticas que só existem se o ambiente sociotécnico permitir.


      Vistos por essa lente, os processos judiciais e administrativos deixam de ser meras disputas sobre autorização ou não de uma câmera; eles passam a desenhar, na prática, o limite de inteligibilidade algorítmica a que cada corpo poderá ser submetido. Quando um juiz concede liminar proibindo a captação de expressões faciais para fins publicitários, não está apenas protegendo a imagem do consumidor; está redefinindo a própria topologia do espaço urbano, criando zonas onde a máquina não tem direito de leitura. Inversamente, cada licitação que avança sem transparência aprofunda a affordance da vigilância, tornando-a mais barata e, portanto, mais tentadora para estados e empresas.


      Desse debate emerge a tese central do artigo: quanto mais robustos são os contramovimentos – isto é, quanto mais articulam dados empíricos, argumentos jurídicos e vozes afetadas – maior a chance de deslocar o discurso público do eixo “corrigir o viés” para o eixo “banir a opressão estrutural”. Nessa virada, a LGPD e a recente consagração constitucional da proteção de dados funcionam como solo fértil onde “direitos-como-affordances” podem germinar. Afinal, se a lei reconhece que o tratamento de dados é matéria de dignidade, qualquer tecnologia que torne a dignidade improvável perde legitimidade. A subseção encerra, portanto, com o horizonte político de um banimento seletivo: não de toda tecnologia que utiliza dados biométricos, mas das aplicações que, pela própria arquitetura, inviabilizam o exercício pleno de liberdades civis.

 

4.9.  Conclusão

      No desfecho os autores retomam a distinção entre viés endêmico, centrado em falhas algorítmicas que prejudicam principalmente a população negra; e opressão endêmica, que denuncia a erosão do devido processo legal e da presunção de inocência. No Brasil, o primeiro continua predominante, mas sinais de transição indicam que demandas de banimento ganham terreno. Segundo os autores, a força desses countermovements dependerá tanto de sua articulação teórica – como o direito de “codeterminar” como somos legíveis à tecnologia – quanto da persistência do discurso político de crise de segurança que legitima a vigilância.


REFERÊNCIAS


NAJIBI, Alex. Racial Discrimination in Face Recognition Technology. Science in the News – Harvard Kennedy School SciencePolicy, 24 out. 2020. Disponível em: https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-face-recognition-technology/. Acesso em: 10 jun. 2025.


ROSA, Alexandre Morais da; GUASQUE, Bárbara. Inteligência artificial, vieses algorítmicos e racismo: o lado desconhecido da justiça algorítmica. Opinión Jurídica, [S.l.], v. 23, n. 50, jul.–dez. 2024, p. 1‑23. DOI: 10.22395/ojum.v23n50a49. Disponível em: https://dialnet.unirioja.es/descarga/articulo/10245564.pdf. Acesso em: 10 jun. 2025.


SILVA, Tarcízio. Racismo algorítmico: inteligência artificial e discriminação nas redes digitais. Coleção Democracia Digital. São Paulo: Edições Sesc São Paulo, 2022.


SOUZA, Michel R. O.; ZANATTA, Rafael A. F. The problem of automated facial recognition technologies in Brazil: social countermovements and the new frontiers of fundamental rights. Latin American Human Rights Studies, vol. 1, 30 jun. 2021. Disponível em: https://revistas.ufg.br/lahrs/article/view/69423. Acesso em: 10 jun. 2025.


__________________________________________________________________________________


O DTec UFMG (Grupo de Estudos em Direito & Tecnologia da Faculdade de Direito da UFMG) é um grupo de estudos registrado junto à Faculdade de Direito da UFMG e ao NIEPE/FDUFMG. O DTec realiza encontros quinzenais remotos para debater temas afetos à sua área e o DTIBR cede espaço no site e nas suas redes sociais para divulgar as atas de reuniões e editais de processo seletivo do grupo de estudos.


Por outro lado, o Centro de Pesquisa em Direito, Tecnologia e Inovação - DTIBR é uma associação civil de direito privado, dotada de personalidade jurídica própria e sem finalidade econômica. Não possui vínculo com a UFMG e, por isso, participantes do grupo de estudos DTec não são membros do DTIBR. Para maiores informações, acesse nosso FAQ.

 

 

 
 
 

Comments


bottom of page