Tecnologias de Visão Computacional e Racismo Algorítmico
- matheusfelipe53
- 27 de abr.
- 17 min de leitura
Grupo de Estudos em Direito e Tecnologia da Universidade Federal de Minas Gerais – DTEC - UFMG
Data: 15/04/2025
Relatores: Camila Nascimento; João Doreto e Rodrigo Peva.
1. Aspectos teóricos iniciais
O encontro do grupo de pesquisa foi realizado no dia 15 de abril de 2025, às 11:30, por meio da plataforma Zoom.
A abertura foi realizada pelo monitor acadêmico Matheus Santos e, após breves cumprimentos aos integrantes, os relatores iniciaram a exposição da temática: “Tecnologias de Visão Computacional e Racismo Algorítmico”, com o apoio de slides para a apresentação visual do conteúdo.
A relatora Camila Nascimento foi a primeira a discorrer sobre o tema, trazendo considerações iniciais baseadas em textos de leitura obrigatória do encontro: "Race and Computer Vision", de Alexander Monea e “Racismo Algorítmico: inteligência artificial e discriminação nas redes digitais”, de Tarcízio Silva.
Partindo do artigo de Monea (2019), apresentou-se uma análise introdutória sobre como o autor articula os conceitos de Frantz Fanon e de Omi & Winant para refletir sobre a interseção entre raça e visão computacional. Para compreender esses conceitos, é necessário, como nos propõe o autor, entender o modo como a tecnologia enxerga — ou falha em enxergar — a diferença racial:
Sobre a Epidermalização de Frantz Fanon: em "Pele Negra, Máscaras Brancas", primeiro livro de Frantz Fanon e um dos textos mais influentes dos movimentos de luta antirracista desde sua publicação, o autor introduz a ideia de "epidermalização" para descrever como a sociedade impõe a identidade racial sobre os indivíduos, transformando a cor da pele em um marcador de inferioridade. Essa imposição afeta a percepção que o indivíduo tem de si mesmo e sua interação com o mundo. Stuart Hall sintetiza essa ideia ao afirmar que é a "inscrição literal da raça na pele".
Sobre a Corporeidade Ocular: Os sociólogos Michael Omi e Howard Winant desenvolveram a teoria da formação racial, que considera a raça uma construção social. Nessa teoria, os autores discutem como a sociedade atribui significados específicos às características físicas, especialmente as faciais, reforçando estereótipos e desigualdades raciais. Assim, ao aplicar essa teoria, Alexander Monea (2019) observa que a visão computacional tende a enfatizar características fenotípicas, como tom de pele e traços faciais, perpetuando estereótipos raciais e marginalizando indivíduos cujas características não se encaixam nos padrões predominantes.
Ao longo de seu artigo, Monea (2019) propõe que a análise da visão computacional deve considerar essas dimensões sociais e históricas da raça, reconhecendo que a tecnologia não é neutra e pode reforçar desigualdades existentes. Ao compreender esses conceitos, podemos questionar os sistemas de classificação e reconhecimento facial utilizados, visando uma representação mais justa e precisa de todas as identidades raciais.
Após essa conceituação, seguimos para o ponto em que estudamos a história da fotografia e como ela foi racialmente enviesada. Para isso, trazemos um exemplo, os Shirley Cards da Kodak (Monea, 2019). Mas o que eram os Shirley Cards?
Nos anos 1940 até os 1990, a Kodak usava cartões de referência chamados Shirley Cards para calibrar a cor nas impressões fotográficas. Esses cartões traziam a imagem de uma mulher branca, geralmente com pele clara, cabelos castanhos e roupas coloridas e era usada como padrão para ajustar o equilíbrio de cores nas câmeras e nos processos de revelação de fotos. O primeiro cartão utilizado trazia uma modelo chamada Shirley e então o nome ficou atrelado ao procedimento, mesmo quando passaram a usar outras modelos. Podemos entender que esse padrão centrado na pele branca tinha no mínimo 3 implicações técnicas e sociais graves:
Subexposição de peles negras retintas: câmeras e filmes calibrados para tons de pele brancos/claros tinham dificuldades em captar com precisão os tons de pele de pessoas negras retintas;
Baixo contraste e perda de detalhes: fotos de pessoas negras frequentemente saíam com pouca definição facial, falta de brilho ou sombras excessivas.
Invisibilização técnica: os corpos negros não eram tratados como referência padrão, nem mesmo como possibilidade de qualidade visual ideal.


Amostras dos Shirley Cards[1].
Apenas nos anos 1990 a Kodak passou a diversificar os Shirley Cards, incluindo modelos com diferentes tons de pele. Curiosamente, essa mudança não veio por pressão social, inicialmente, mas por reclamações da indústria de móveis e doces: eles alegavam que as câmeras Kodak não capturavam bem as diferenças entre madeiras escuras e chocolates, o que exigiu melhorias da fabricante para representar melhor tons escuros.
Sendo assim, a mudança da Kodak não iniciou por letramento ou preocupação com justiça racial, mas por questões comerciais. Esse histórico nos mostra como as tecnologias, falsamente tidas como “neutras”, internalizam preconceitos raciais, muitas vezes de forma singela ou invisível.
Esse viés técnico também se reflete ainda hoje nos sistemas de visão computacional e na inteligência artificial, como Monea (2019) discute no artigo objeto de nosso estudo. Sabemos que se os dados usados no treinamento dessas tecnologias seguirem padrões históricos excludentes e as equipes envolvidas no desenvolvimento não forem diversificadas, os sistemas também acabarão, por padrão, reproduzindo essas exclusões.
Buscando compreender o cenário da racialização da visão computacional, nos deparamos com a provocação de Tarcízio Silva (2022), em forma de crítica à neutralidade tecnológica, que dialoga com o conceito de "dupla opacidade". Isto porque esse conceito descreve como grupos hegemônicos promovem a tecnologia como sendo neutra, ocultando as relações de poder que a moldam e, ao mesmo tempo, evitam discussões sobre racismo e supremacia branca.
Silva (2022) argumenta que o desenvolvimento de tecnologias algorítmicas reflete e perpetua estruturas sociais existentes, como o patriarcado e o colonialismo, disfarçadas sob uma “fachada” de neutralidade, tanto pela falta de transparência nos processos de criação quanto na implementação desses sistemas, o que dificulta a identificação e correção de vieses raciais incorporados.
Dessa forma, para combater a opacidade da tecnologia, Silva (2022) sugere que empresas de tecnologia adotem compromissos antirracistas, promovendo isonomia, transparência e explicabilidade em seus modelos, além de promover internamente a valorização do conhecimento experiencial de comunidades afetadas, garantindo que suas perspectivas sejam consideradas no desenvolvimento tecnológico.
Simplificando, podemos entender a crítica de Tarcízio Silva à neutralidade tecnológica e ao conceito de dupla opacidade da seguinte forma:
A dupla opacidade é uma forma de entender como o racismo algorítmico se esconde atrás de duas camadas de invisibilidade, sendo:
i) Opacidade técnica: a primeira camada que reflete a dificuldade técnica de entender como os sistemas de aprendizado de máquina funcionam. Algoritmos de visão computacional são verdadeiras “caixas-pretas”, ou seja, até mesmo especialistas têm dificuldade para explicar por que o sistema tomou determinada decisão. Isso torna quase impossível para o público em geral (e até para alguns desenvolvedores) identificar e corrigir vieses embutidos nos dados e nos modelos.
ii) Opacidade social / epistêmica da branquitude: a segunda camada é ideológica: a crença de que tecnologia é neutra e que a branquitude é um padrão universal. Isso significa que a sociedade não questiona as decisões automatizadas, porque confia cegamente na assertividade e na “objetividade” da tecnologia. Além disso, os sistemas são muitas vezes treinados com dados não filtrados e que refletem e reforçam a centralidade dos tons de pele “claros”, porém essa centralidade não é bem nomeada e se apresenta como sendo o “normal”, o “padrão”, para todo o mundo.
Foram utilizados, como exemplo, fotografias e imagens públicas incluídas nos slides da apresentação, referentes a povos originários e minorias étnicas. As imagens foram selecionadas pela relatora Camila, no âmbito de sua pesquisa pessoal[2]:




Pelo exposto em seu artigo, Silva (2022) nos mostra que a neutralidade tecnológica parece ser um mito e que não basta tornar os sistemas mais “transparentes” no sentido técnico, é preciso desnaturalizar que a branquitude seja sempre a referência tecnológica para confrontar certas ideologias raciais que são comumente incluídas nas tecnologias.
Nessa primeira parte da exposição dos estudos ao grupo, buscamos introduzir as noções de que historicamente as tecnologias visuais têm desempenhado um papel central na construção e naturalização das hierarquias raciais. Longe de serem ferramentas neutras de registro da realidade, câmeras, filmes e algoritmos foram historicamente “calibrados”, treinados para priorizar e normatizar alguns em detrimento de outros – minorias raciais e étnicas -, marginalizando-os ou distorcendo as suas representações corporais. Vemos como certas técnicas e procedimentos foram moldados por pressupostos raciais implícitos, reproduzindo desigualdades visuais mesmo antes da era digital e que continuam a se perpetuar na visão computacional atual.
Com a ascensão de tecnologias aprimoradas e da visão computacional, essas hierarquias não apenas persistem, como ganham novas formas de expressão, através de sistemas, ferramentas e bancos de dados enviesados, que muitas vezes invisibilizam ou criminalizam pessoas negras ou de minorias étnicas.
Em seguida, iniciou-se a exposição do relator João Doreto, conforme abaixo apresentado.
2. A falácia da neutralidade algorítmica
A fala teve início com uma crítica contundente à crença de que algoritmos seriam sistemas racionais, objetivos e neutros. Essa visão, ainda amplamente disseminada em discursos técnicos e acadêmicos, desconsidera o fato de que algoritmos são construções sociais e políticas, moldadas por valores, ideologias e estruturas de poder.
Nesse sentido, Silva (2020) destaca que o racismo estrutural impregna os sistemas tecnológicos — inclusive os de comunicação e processamento de dados — evidenciando que a suposta neutralidade técnica é, muitas vezes, cúmplice de lógicas históricas de opressão. O algoritmo, portanto, não é um ente autônomo ou imparcial: é uma forma de organização do olhar que herda e reforça desigualdades sociais, especialmente as raciais.
A partir de uma citação de David Oppenheimer (Srivastava et al., 2022) discutiu-se que a reprodução da discriminação racial por sistemas algorítmicos não exige, necessariamente, má-fé ou intenção preconceituosa por parte de seus desenvolvedores. Basta que o sistema aprenda com os padrões sociais existentes para replicar desigualdades já naturalizadas.
Nesse contexto, foi apresentada a noção de “data violence”, desenvolvida por Anna Lauren Hoffmann, como chave para compreender os danos estruturais causados por dados aparentemente neutros (Srivastava et al., 2022). A forma como os dados são coletados, curados e aplicados pode perpetuar injustiças, sobretudo quando determinadas populações são representadas de maneira estigmatizada — ou mesmo ignoradas — pelos sistemas de coleta algorítmica.
A despolitização da técnica foi criticada como uma das estratégias mais eficazes para ocultar as violências algorítmicas. Ao revestir decisões políticas e corporativas com uma aparência de precisão científica, os algoritmos acabam por operar como oráculos infalíveis — acima de qualquer questionamento — mesmo quando erram, e especialmente quando esses erros recaem, repetidamente, sobre os mesmos grupos historicamente marginalizados.
A conclusão dessa parte da exposição reforçou que o racismo algorítmico não pode ser compreendido como um simples “defeito” de programação. Trata-se, antes, de um sintoma de um projeto estrutural, que exige não apenas a correção de bugs, mas a desnaturalização dos pressupostos que sustentam o próprio sistema.
3. Codificação do Racismo nos Dados – análise do caso UTKFace
O segundo bloco da apresentação abordou a materialidade do viés racial presente nos datasets utilizados para treinar sistemas de visão computacional, com ênfase no estudo de Srivastava et al. (2022) sobre o conjunto de dados UTKFace.
O UTKFace é um dos bancos de imagens mais utilizados na área, contendo 23.708 fotografias rotuladas com informações sobre idade, gênero e raça. Essas imagens foram extraídas de plataformas públicas como Google Imagens e Pinterest, o que, por si só, já revela uma origem enviesada: essas plataformas refletem — e amplificam — as desigualdades raciais existentes no ambiente digital.
O estudo de Srivastava et al. (2022) evidenciou uma super-representação de pessoas brancas no dataset, em contraste com a sub-representação de pessoas negras, asiáticas, indianas e de outras etnias racializadas. Essa desproporção impacta diretamente o processo de aprendizado das redes neurais, influenciando negativamente o desempenho dos modelos em relação aos grupos minorizados.
Ao treinar uma rede neural convolucional (CNN) para prever o gênero com base nas imagens faciais, os autores observaram que o modelo apresentou desempenho significativamente superior nas imagens de pessoas brancas, em comparação às de pessoas negras. Essa disparidade revela um caso claro de discriminação algorítmica, enraizada nos próprios dados de entrada.
A análise destacou que o problema não reside apenas no código, mas na maneira como os dados carregam uma visão de mundo em que a branquitude é tratada como norma, e qualquer desvio em relação a esse padrão é percebido como exceção.
Reiterou-se, ainda, a crítica à leitura puramente técnica do viés: não se trata apenas de "melhorar a acurácia" dos modelos, mas de reconhecer que a sub-representação de determinados grupos é fruto de uma lógica política mais profunda — uma lógica que define quem é visto, quem é reconhecido e quem permanece invisibilizado.
Por fim, ressaltou-se que, em contextos sensíveis como segurança pública, crédito e vigilância, os erros algorítmicos deixam de ser meros equívocos estatísticos para se tornarem erros existenciais: eles deslegitimam corpos racializados, com consequências concretas e muitas vezes devastadoras.
4. Tecnopolítica do Dado – Coleta, Rotulação e Interesses
Esta parte da apresentação propôs uma análise mais estrutural da cadeia produtiva dos dados, a partir da abordagem da tecnopolítica do dado, conforme sugerido por Silva (2022).
Destacou-se que os dados não são elementos neutros ou espontâneos: eles resultam de decisões humanas e institucionais sobre o que será coletado, como será rotulado, por quem e com qual finalidade. Nesse contexto, a coleta massiva de dados é predominantemente realizada por grandes corporações tecnológicas — como Google, Facebook, Microsoft e Amazon — cujas equipes de desenvolvimento, segundo relatórios de diversidade, são compostas majoritariamente por pessoas brancas e de classe média-alta.
Essa homogeneidade de perfil se reflete também nas equipes encarregadas da rotulação dos dados, que operam a partir de um imaginário racial normativo e eurocentrado. Como destaca Silva (2019, p.49), trata-se de um processo de “construção algorítmica” de representações sociais ancorado em epistemologias excludentes.
Ademais, foi ressaltado que os dados, em sua maioria, não são organizados com o objetivo de promover justiça ou equidade, mas sim de alimentar modelos comerciais orientados à vigilância e à monetização, como o marketing preditivo, os sistemas policiais, igualmente preditivos, e as estratégias de retenção de atenção em plataformas digitais.
Nesse sentido, destacou-se o seguinte trecho de Silva (2022, p. 12):
A coleta massiva de informações [...] tem efeitos devastadores para inúmeros direitos das populações, sendo as populações negras particularmente mais afetadas pelas operações discriminatórias dos sistemas algorítmicos.
Evidenciou-se, assim, o paradoxo fundamental: os grupos mais vigiados são justamente aqueles que têm menos representatividade nos espaços de decisão sobre dados e algoritmos.
A tecnopolítica do dado, portanto, foi apresentada como uma engrenagem digital do racismo estrutural, com impactos diretos sobre os corpos e os direitos de populações historicamente vulnerabilizadas.
5. Hipervisibilidade e Invisibilidade
Abordou-se a teoria proposta por Alexander Monea sobre a dialética entre hipervisibilidade e invisibilidade racial nos sistemas algorítmicos.
A hipervisibilidade foi caracterizada como a exposição excessiva e estereotipada de corpos negros em datasets e sistemas de inteligência artificial. Quando representados, esses corpos frequentemente o são por meio de marcadores fenotípicos exacerbados, reforçando estigmas associados à agressividade, periculosidade ou desconfiança.
Monea (2019, p. 192) cunha o termo 'epidermalização digital', apresentado anteriormente pela relatora Camila, e inspirado em Frantz Fanon, para descrever como a raça é inscrita e amplificada na superfície dos dados — seja por vetores, pixels ou métricas empregadas pela visão computacional.
Por outro lado, a invisibilidade se manifesta na sub-representação ou rotulação inadequada de pessoas negras nos conjuntos de dados, tornando-as ininteligíveis para os sistemas algorítmicos. Essa opacidade algorítmica resulta em falhas graves, como os falsos positivos em sistemas de reconhecimento facial — a exemplo do caso de Robert Williams, preso injustamente por erro de identificação.
Essa “dialética notória” entre hipervisibilidade e invisibilidade da negritude (Monea, p. 190) foi apresentada como eixo central da crítica: os sistemas ora expõem corpos negros como ameaça, ora os apagam enquanto sujeitos reconhecíveis.
A fala foi concluída com a ênfase de que não basta apenas diversificar os dados ou aperfeiçoar os modelos. É necessário reconstruir as epistemologias que moldam o olhar técnico, questionando quem define o que é ver, o que é reconhecer, o que é representar.
Essa crítica foi, por fim, apresentada como um chamado à descolonização do olhar algorítmico e à construção de um novo horizonte de justiça epistêmica.
6. Inteligência Artificial: da técnica à política
Na terceira e última parte da apresentação, o relator Rodrigo Peva aprofundou os aspectos técnicos do estudo conduzido por Srivastava et al. (2022), em complemento à exposição anterior feita por João Doreto. O foco recaiu sobre a utilização da base de dados UTKFace — composta por imagens rotuladas com informações de idade, gênero e raça — para o treinamento de uma Rede Neural Convolucional (CNN).
O processamento de dados foi dividido em duas etapas principais. A primeira consistiu na coleta das imagens do conjunto UTKFace. Em seguida, foi realizado o pré-processamento das imagens, dividido em três subetapas: (i) o redimensionamento das imagens para um tamanho fixo, necessário ao funcionamento das redes neurais; (ii) a normalização dos valores dos pixels, ajustando-os geralmente para a faixa entre 0 e 1, a fim de favorecer a eficiência do aprendizado; e (iii) a divisão do conjunto de dados em subconjuntos de treinamento e teste, garantindo a avaliação da precisão do modelo (Srivastava et al., 2022).
A CNN foi estruturada em cinco tipos de camadas: (a) camadas convolucionais, que aplicam filtros para identificar características como bordas e texturas nas imagens; (b) camadas de pooling, que reduzem a dimensionalidade dos dados, mantendo apenas as informações mais relevantes e ajudando a evitar o overfitting (quando o modelo se ajusta muito aos dados de treinamento a ponto de não funcionar bem em novos dados); (c) camadas densas, responsáveis pelas decisões finais de classificação (no caso, identificar o gênero); (d) camadas de ativação, que introduzem não-linearidade ao modelo por meio de funções como a ReLU (Rectified Linear Unit), já que as relações entre entradas (imagens) e saídas (gênero) não são lineares; e (e) camada de saída, que gera o resultado final da rede (Srivastava et al., 2022).
O modelo treinado previu o gênero, a partir de imagens da UTKFace com 88,6% de precisão, de modo que o número de erros na classificação das imagens foi relativamente equilibrado entre homens e mulheres (Srivastava et al., 2022).
Os autores da pesquisa, ao realizarem testes adicionais separando os dados entre imagens de indivíduos brancos e não brancos, observaram uma acurácia inferior da CNN nas previsões em relação à raça se comparado ao gênero. Isso sugere que as disparidades na precisão das previsões indicam a presença de viés racial, com a CNN sendo menos precisa para grupos não brancos (Srivastava et al., 2022).
O estudo enfatizou, assim, a necessidade de considerar e mitigar esses vieses na coleta de dados e no desenvolvimento de modelos de aprendizagem de máquina.
Na sequência, foi apresentada uma reflexão sobre como a inteligência artificial — com ênfase na visão computacional — tem reproduzido e, em alguns casos, ampliado desigualdades raciais historicamente enraizadas, afetando especialmente pessoas negras e de pele mais escura.
A exposição teve como ponto de partida o artigo Race and Computer Vision, que discute a tensão entre a hipervisibilidade e a invisibilidade da negritude em sistemas visuais mediados por algoritmos. De um lado, pessoas negras são frequentemente retratadas de maneira estereotipada. De outro, são ignoradas ou mal reconhecidas por sistemas que, embora projetados sob a premissa de neutralidade, refletem vieses preexistentes (Monea, 2019).
Diversos casos ilustram essa problemática. Foi citado o exemplo do banco de dados ImageNet, amplamente utilizado por empresas como o Google, que continha imagens racistas — como representações em blackface e do personagem “Zwarte Piet” —, contaminando os dados de treinamento (Monea, 2019). Outro caso emblemático foi analisado por Grush (2015), Simonite (2018) e Kayser-Bril (2022), no qual o Google Photos rotulou erroneamente fotos de um engenheiro negro como “gorila”, evidenciando o viés racial incorporado nos sistemas (MONEA, 2019).
Também foram mencionadas falhas em sensores de reconhecimento facial, como os do Xbox Kinect, que apresentavam dificuldades em detectar rostos negros, e em sensores de veículos autônomos, menos eficazes em identificar pedestres de pele escura (Monea, 2019). A explicação é alarmante: os algoritmos foram majoritariamente treinados com imagens de pessoas brancas.
Para ilustrar, trouxemos o exemplo real e pessoal de Joy Buolamwini, compartilhado em uma palestra no TEDx (Silva, 2022). Ela contou que, ao testar um software de reconhecimento facial, o sistema simplesmente não reconhecia seu rosto — por mais que tentasse, nada acontecia. Foi só ao colocar uma máscara branca que o sistema finalmente funcionou. Esse episódio marcou profundamente sua trajetória e a levou a dedicar sua carreira à luta por uma tecnologia que funcione para todos — e não apenas para alguns.
Aqui entra o conceito de visão computacional, enquanto área da IA que permite que máquinas “vejam” e interpretem imagens — para reconhecimento facial, biometria ou detecção de objetos. Mas para isso, os sistemas precisam ser treinados com milhões de imagens.
O pesquisador André Mintz (2016) nos ajuda a compreender como esse processo ocorre. Segundo ele, a visão computacional atua em dois níveis:
1. Localização-acionamento: representado pelas câmeras que detectam a presença de alguém no espaço.
2. Reconhecimento-conexão: representado pelo sistema que identifica um rosto ou objeto previamente registrado.
O terceiro nível, chamado por Joy de 'Transformação-alimentação', representa o momento em que a imagem capturada é editada, rotulada e transformada em novos dados — que, por sua vez, retornam aos sistemas para alimentá-los novamente (Silva, 2022).
Pensem nos filtros de beleza, nas edições automáticas, nas imagens de rejuvenescimento ou que simulam causas e posicionamentos. Tudo isso alimenta os algoritmos — e reforça padrões específicos do que é visível, aceitável, desejável.
Esses três modos se combinam na criação de uma estética algorítmica, que está longe de ser neutra. Pelo contrário: ela carrega valores, normas culturais, marcas raciais e políticas.
E como Tarcizio Silva (2022) nos alerta, esse processo pode resultar em invisibilidades, hipervisibilidades, estereótipos — ou até no embranquecimento literal de indivíduos.
Na área da saúde, destacou-se a menor precisão dos oxímetros (que medem a oxigenação do sangue) em pacientes negros, já que a pigmentação da pele não foi considerada no desenvolvimento desses dispositivos (Monea, 2019). Segundo Gichoya et al., (2022)[3], modelos de IA podem classificar erroneamente grupos raciais, levando a diagnósticos atrasados e tratamentos inadequados. Como forma de melhorar a precisão dos modelos de IA, sugere-se que sejam utilizados dados de treinamento, que reflitam uma ampla gama de grupos demográficos, considerando variações em idade, sexo, raça e status socioeconômico (Gichoya et al., 2022).
Observa-se que a chamada “neutralidade algorítmica” é, em muitos casos, ilusória, pois os algoritmos inferem marcadores raciais indiretamente, mesmo quando a variável "raça" é retirada dos dados. Diante disso, foram apontadas algumas propostas, sem a pretensão de esgotá-las, para mitigar tais efeitos, como:
Garantia de transparência nos conjuntos de dados utilizados para treinamento;
Implementação de técnicas de detecção e mitigação de vieses durante o processo de desenvolvimento do modelo;
Realização de auditorias independentes;
Diversidade nas equipes técnicas;
Educação dos usuários de IAs;
Incentivo financeiro privado em P&D (Pesquisa e Desenvolvimento); e
Supervisão regulatória e realização de testes abrangentes de modelos de IA em diferentes grupos demográficos antes de aprovação para uso.
Por fim, a reflexão enfatizou que a construção de tecnologias justas depende de uma abordagem crítica e ética, centrada na diversidade e nos direitos humanos. Foi proposta uma indagação final aos presentes: “Você se sentiria seguro sabendo que a tecnologia que você usa pode não reconhecer você adequadamente? quem a está programando? Com quais dados? Para quais corpos? E com quais valores?”.
Esta apresentação procurou mostrar que a inteligência artificial vai além de uma questão técnica — ela é, acima de tudo, uma questão política e humana.
7. DEBATE
Após a exposição, os membros presentes do grupo de estudos iniciaram as discussões e destacaram os seguintes tópicos:
(i) a bolha em que a tecnologia está inserida para fins de consumo, que exclui determinados grupos, tanto para fins de acesso, quanto para fins de desenvolvimento e treinamento;
(ii) criticidade dos entraves técnicos que ainda dificultam a mitigação dos vieses tecnológicos e a necessidade de empregar técnicas na visão computacional que promovam a diversidade e inclusão;
(iii) os desafios da tecnologia e dos sistemas de reconhecimento facial em função de características fenotípicas e de costume e tradição não identificadas na visão computacional e a baixa volumetria de dados para treinamento da IA; e
(iv) A urgência no desenvolvimento de IAs que considerem as especificidades étnicas, raciais, demográficas e culturais da sociedade brasileira (e do mundo).
REFERÊNCIAS
CASTRO, Haroldo. Época - Globo. O disco labial é uma decoração que sublinha a beleza feminina ou é uma mutilação do co2025. Época, 2017. Disponível em: https://epoca.globo.com/sociedade/viajologia/noticia/2017/08/o-disco-labial-e-uma-decoracao-que-sublinha-beleza-feminina-ou-e-uma-mutilacao-do-corpo.html. Acesso em: 10 abr. 2025.
DELBARCO, Mandalit. How Kodak's Shirley Cards Set Photography's Skin-Tone Standard. KUOW, 13 nov. 2014. Disponível em: https://www.npr.org/2014/11/13/363517842/for-decades-kodak-s-shirley-cards-set-photography-s-skin-tone-standard. Acesso em: 10 abr. 2025.
GICHOYA, Judy Wawira et al. AI recognition of patient race in medical imaging: a modelling study. The Lancet Digital Health, [S.l.], v. 4, n. 6, p. e406–e414, 2022. DOI: https://doi.org/10.1016/S2589-7500(22)00063-2.
GORDON, Rachel. Artificial intelligence predicts patients’ race from their medical images. MIT News, 20 maio 2022. Disponível em: https://news.mit.edu/2022/artificial-intelligence-predicts-patients-race-from-medical-images-0520. Acesso em: 13 abr. 2025.
GRUSH, Loren. GOOGLE engineer apologizes after Photos app tags two black people as gorillas. The Verge, 1 jul, 2015. Disponível em: https://www.theverge.com/2015/7/1/8880363/google-apologizes-photos-app-tags-two-black-people-gorillas. Acesso em: 12 abr. 2025.
KAYSER-BRIL, Nicolas. GOOGLE apologizes after its Vision AI produced racist results. AlgorithmWatch, 2022. Disponível em: https://algorithmwatch.org/en/google-vision-racism/. Acesso em: 13 abr. 2025.
LES albinos victimes de crimes rituels en Afrique australe. BBC NEWS Afrique. 2019. Disponível em: https://www.bbc.com/afrique/region-49419979. Acesso em: 10 abr. 2025.
MINTZ, André. Máquinas que veem: visão computacional e agenciamentos do visível. In: MENOTTI, Gabriel; BASTOS, Marcus; MORAN, Patrícia (org.). Cinema apesar da imagem. São Paulo: Intermeios, 2016.
MONEA, Alexander. Race and Computer Vision. In: SUDMANN, Andreas (Org.). The democratization of artificial intelligence: Net politics in the era of learning algorithms. Bielefeld: transcript, 2019. p. 189–208. DOI: https://doi.org/10.25969/mediarep/13540.
MULHER faz história ao apresentar telejornal com tatuagem no rosto pela 1ª vez. MARIE CLAIRE, 2021. Disponível em: https://revistamarieclaire.globo.com/Noticias/noticia/2021/12/mulher-faz-historia-ao-apresentar-telejornal-com-tatuagem-no-rosto-pela-1-vez.html. Acesso em: 10 abr. 2025
QUASE tatuagem: na África, as pessoas fazem arte na própria pele. PORTAL GELÉDES, 2014. Disponível em: https://www.geledes.org.br/quase-tatuagem-na-africa-as-pessoas-fazem-arte-na-propria-pele/. Acesso em: 10 abr. 2025.
SILVA, Tarzício. Racismo Algorítmico: inteligência artificial e discriminação nas redes digitais. São Paulo: Edições Sesc, 2022. p. 72–80 e 86–97.
______. Visão Computacional e Racismo Algorítmico: Branquitude e Opacidade no Aprendizado de Máquina. Observatório da Branquitude, 2 fev. 2020. Disponível em: https://observatoriobranquitude.com.br/visao-computacional-e-racismo-algoritmico-branquitude-e-opacidade-no-aprendizado-de-maquina/. Acesso em: 10 abr. 2025.
SIMONITE, Tom. WHEN it comes to gorillas, Google Photos remains blind. Wired, 2018. Disponível em: https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/. Acesso em: 13 abr. 2025.
SUSTAINABLE SoundWaves Podcast. The Impact of Algorithms on Sound Perception. YouTube, 2023. Disponível em: https://www.youtube.com/watch?v=7EOZ4MR-aXA&ab_channel=SustainableSoundWavesPodcast. Acesso em: 10 abr. 2025.
[1] Disponível em: https://www.npr.org/2014/11/13/363517842/for-decades-kodak-s-shirley-cards-set-photography-s-skin-tone-standard. Acesso em 10 Abr. 2025.
[2] Disponível em: https://www.bbc.com/afrique/region-49419979. Acesso em 10 Abr. 2025.
Disponível em: https://www.youtube.com/watch?v=7EOZ4MR-aXA&ab_channel=SustainableSoundWavesPodcast. Acesso em 10 Abr. 2025.
Disponível em: https://revistamarieclaire.globo.com/Noticias/noticia/2021/12/mulher-faz-historia-ao-apresentar-telejornal-com-tatuagem-no-rosto-pela-1-vez.html. Acesso em 10 Abr. 2025.
Disponível em: https://epoca.globo.com/sociedade/viajologia/noticia/2017/08/o-disco-labial-e-uma-decoracao-que-sublinha-beleza-feminina-ou-e-uma-mutilacao-do-corpo.html. Acesso em: 10 abr. 2025. Disponível em: https://www.geledes.org.br/quase-tatuagem-na-africa-as-pessoas-fazem-arte-na-propria-pele/.
[3] Artigo publicizado no MIT News: Disponível em: https://news.mit.edu/2022/artificial-intelligence-predicts-patients-race-from-medical-images-0520. Acesso em: 13 abr. 2025.
__________________________________________________________________________________
O DTec UFMG (Grupo de Estudos em Direito & Tecnologia da Faculdade de Direito da UFMG) é um grupo de estudos registrado junto à Faculdade de Direito da UFMG e ao NIEPE/FDUFMG. O DTec realiza encontros quinzenais remotos para debater temas afetos à sua área e o DTIBR cede espaço no site e nas suas redes sociais para divulgar as atas de reuniões e editais de processo seletivo do grupo de estudos.
Por outro lado, o Centro de Pesquisa em Direito, Tecnologia e Inovação - DTIBR é uma associação civil de direito privado, dotada de personalidade jurídica própria e sem finalidade econômica. Não possui vínculo com a UFMG e, por isso, participantes do grupo de estudos DTec não são membros do DTIBR. Para maiores informações, acesse nosso FAQ.
Comments