Discriminação Algorítmica: Moderação de Conteúdo
- matheusfelipe53
- há 11 minutos
- 14 min de leitura

Grupo de Estudos em Direito e Tecnologia da Universidade Federal de Minas Gerais – DTEC - UFMG
Data: 27/05/2025
Relatores: Camila Arantes, Hellen Divan, Joel Chaves e Leonardo Lacerda Alves
Bibliografia básica: (a) Content Moderation with Opaque Policies (b) More Speech and Fewer Mistakes (c) Moderação de conteúdo e redes sociais: o que esperar (de velho) no ano novo? (d) Bias in Social Media Content Management: what do human rights have to do with it? (e) Comparing the Perceived Legitimacy of Content Moderation Processes: Contractors, Algorithms, Expert Panels, and Digital Juries
Bibliografia complementar: (f) Has Facebook become a forum for misogyny and racism? (g) Inside Facebook’s Secret Rulebook for Global Political Speech (h) Desafios na moderação de conteúdo envolvendo racismo (i) Reclamações sobre o procedimento de moderação de conteúdo nas redes sociais: o que pensam os usuários? (j) The oversight of content moderation by AI: Impact assessments and their limitations
Proposta de organização da discussão: Considerações iniciais | 1. Debate sobre os conceitos a partir do primeiro texto-base | 2. Debate sobre os estudos de casos apresentados pelas próprias empresas e os textos-base segundo e terceiro | 3. Debate sobre direitos humanos e as inclinações na moderação a partir do quarto texto-base | 4. Debate sobre procedimentos metodológicos de pesquisa com participantes e sobre a legitimidade percebida de diferentes métodos de moderação.
CONSIDERAÇÕES INICIAIS
A moderação de conteúdo é o conjunto de práticas adotadas por plataformas digitais para restringir, remover, rotular ou reduzir a visibilidade de publicações consideradas ofensivas, falsas, perigosas ou inadequadas às suas diretrizes. Essa atuação tem se tornado cada vez mais central no ambiente digital contemporâneo, em que o volume de informações e a velocidade de disseminação de conteúdos impõem desafios éticos, técnicos e jurídicos.
É importante distinguir moderação de recomendação de conteúdo: enquanto a moderação atua ex post, filtrando ou limitando conteúdos após sua publicação (ou impedindo sua exibição), a recomendação atua ex ante, organizando e promovendo certos conteúdos com base em algoritmos de personalização e interesse do usuário. Ambas influenciam profundamente o que circula nas redes, mas enquanto a recomendação molda o que vemos, a moderação define o que pode ou não pode ser visto. Essa diferença é crucial para entender os impactos sociais, políticos e cognitivos das decisões tomadas por plataformas.
Analisaremos a seguir interessantes papers que tratam sobre moderação de conteúdo a partir de diferentes abordagens.
1. MODERAÇÃO DE CONTEÚDO: QUANDO A TRANSPARÊNCIA IMPORTA E IMPACTA
Texto-base: SHAPIRO, Jesse M.; KOMINERS, Scott Duke. Content Moderation with Opaque Policies. Working Paper Series, nº. 32156, February 2024.
O artigo Content Moderation with Opaque Policies, de Jesse M. Shapiro e Scott Dukec Kominers, oferece uma análise teórica e instigante sobre os desafios enfrentados pelas plataformas digitais ao moderarem conteúdos em um ambiente de baixa transparência.
Os autores propõem um modelo com três agentes para explicar a tese defendida no artigo: um emissor (sender), um moderador (moderator) e um receptor (receiver).
O emissor observa o “estado do mundo” e envia um sinal sobre esse estado, isto é, cria ou compartilha algum conteúdo em uma determinada plataforma digital. O moderador (plataforma) analisa o sinal (realiza a moderação do conteúdo) e pode bloqueá-lo ou não antes que chegue ao receptor. O receptor, então, age com base na mensagem recebida (conteúdo compartilhado pelo usuário emissor afeta direta ou indiretamente o usuário receptor), colhendo algum tipo de resultado.
O estudo distingue entre dois tipos de moderação: a transparente, na qual o receptor compreende e confia na política do moderador, e a opaca, em que há incerteza quanto aos critérios e às motivações por trás do bloqueio.
Em contextos transparentes, a moderação que bloqueia sinais falsos ou prejudiciais tende a melhorar os resultados para os usuários. No entanto, em contextos opacos – situação comum nas grandes plataformas hoje –, essa mesma prática pode se tornar contraproducente: ao perceber um conteúdo bloqueado, o usuário pode interpretar esse ato como censura motivada por interesses escusos e, ironicamente, reforçar sua confiança no conteúdo original, mesmo que este seja falso ou perigoso.
A análise se torna ainda mais precisa ao diferenciar dois tipos de conteúdo prejudicial:
Conteúdo que induz crenças falsas (ex: desinformação sobre vacinas ou mudanças climáticas).
Conteúdo que habilita ações prejudiciais diretas, como a convocação para atos violentos ou a divulgação de informações pessoais (doxxing).
Segundo os autores, o segundo tipo é mais facilmente moderado de forma efetiva, mesmo em ambientes de opacidade. Isso porque, ao bloquear o “dado-chave” (como a hora e local de um ataque), o moderador impede diretamente a ação nociva, ainda que o receptor desconfie de suas intenções. Já no primeiro tipo, o bloqueio pode ser interpretado como manipulação da verdade, intensificando a desconfiança e alimentando teorias conspiratórias.
Ao longo de sua argumentação matemática e conceitual, o artigo oferece fundamentos para uma questão urgente: qual o limite da eficácia da moderação quando a confiança é frágil e os critérios são invisíveis? E mais: será possível combater a desinformação apenas com filtros algorítmicos, sem construir relações de confiança pública nas instituições que moderam?
Ao final, os autores reconhecem que seu modelo é intencionalmente simplificado para destacar os paradoxos centrais, mas sugerem caminhos futuros. A confiança nas plataformas pode ser recuperada com o fortalecimento de mecanismos reputacionais, maior clareza na aplicação das políticas e, possivelmente, o uso de tecnologias que garantam auditabilidade (como blockchains). No entanto, lembram que a transparência efetiva exige mais do que publicar regras: ela exige que os usuários compreendam, confiem e percebam justiça na moderação aplicada.
Perguntas provocativas para reflexão:
Como construir transparência em um ambiente de extrema polarização e desconfiança?
A ausência de um sinal pode ser mais perigosa do que a presença de um conteúdo falso?
Em quais casos a moderação deve priorizar prevenir ações, mesmo que arrisque reforçar crenças equivocadas?
O texto nos convida a repensar o papel das plataformas não apenas como mediadoras técnicas, mas como atores políticos e éticos, cuja atuação – ou omissão – molda diretamente o debate público e a coesão social.
2. CASOS PARA CONTEXTUALIZAÇÃO DA MODERAÇÃO DE CONTEÚDO
A Meta anunciou, em janeiro de 2025, o fim de seu programa de verificação de fatos por terceiros, substituindo-o por um modelo de Notas da Comunidade. A empresa afirma estar priorizando a liberdade de expressão, com menos restrições a discursos, especialmente em tópicos relacionados a discursos dominantes, como imigração e identidade de gênero, especialmente quando pautados em questões políticas ou religiosas, mantendo a moderação a conteúdos ilegais ou de gravidade elevada. A mudança inclui uma abordagem mais personalizada ao conteúdo político, com reforço desses temas nos feeds.
A justificativa inclui argumentos como a limitação da liberdade de expressão reforçar instituições e estruturas de poder em vez de empoderar as pessoas; a moderação excessiva leva a restrições indevidas, que demoram a ser revogadas; especialistas de instituições independentes de checagem de veracidade das informações possuem viés que estavam afetando a debates e discursos políticos legítimos; é incoerente restringir conteúdos permitidos em ambientes como o Congresso ou a TV, além de que poderá usar IAs de LLMs para fornecer uma segunda opinião sobre algum conteúdo antes de tomar medidas.
Por outro lado, a análise da medida feita por Fernanda Rodrigues evidencia o alinhamento do discurso da Meta com a “nova política” dos EUA, capitaneadas por Trump e Musk, salientando que a priorização quase absoluta do direito à liberdade de expressão costuma ter um preço bem caro para grupos vulnerabilizados.
É destacado que instituições governamentais e da sociedade civil já estão se posicionando face às violações e potenciais violações de direitos em decorrência dessas novas posturas, inclusive sob a perspectiva judicial, fator que leva à própria menção, por Zuckerberg, a “tribunais secretos de censura” na América Latina, além de que o discurso se afigura eminentemente retórico, ante a possibilidade de adoção de medidas alternativas que possam suprir as reclamações dos usuários sem agravar o risco a direitos individuais e coletivos.
Aprofundando-se nos casos relacionados a moderação, observou-se que as novas diretrizes da Meta passaram a autorizar alegações de doença mental ou anormalidade quando baseadas em gênero ou orientação sexual sob a alcunha de discursos políticos e religiosos sobre transgenerismo e homossexualidade, bem como o uso comum e não literal de termos como “esquisito”. Essa posição, no entanto, contraria declarações da Organização Mundial da Saúde (de que não se tratam de doenças) e do Conselho Federal de Psicologia do Brasil (que não permite qualquer associação da sexualidade como patologia).
Por sua vez, a hashtag “SkinnyTok” possui mais de 53 milhões de visualizações no TikTok, estando associada a conteúdos virais incentivando distúrbios alimentares, inclusive com direcionamento para menores de idade. Embora o TikTok se posicione contrariamente à prática e alegue remover conteúdos por violação à política, vários conteúdos online que tratam as questões indiretamente, ou sob codinomes, ou mesmo de forma legítima, criticando a prática e sem contrariar a política da plataforma, podem servir como gatilho.
Nas Américas, organizações da sociedade civil pró-aborto que orientam mulheres que buscam aborto tiveram suas contas no WhatsApp Business bloqueadas, mesmo em países onde o aborto é descriminalizado (como no México, p. e.). Suspeita-se de mudança de procedimentos ou políticas internas, ou de se tratar de movimento de grupos antiaborto que denunciam reiteramente a conta vinculada a essas organizações, levando a bloqueios indevidos.
Finalmente, o caso relacionado ao Pinterest versa sobre banimentos em massa de contas causados por um “erro interno”. Embora a empresa não confirme, usuários suspeitam de erro na IA de moderação.
3. VIÉS NA GESTÃO DE CONTEÚDO DE REDES SOCIAIS: QUAL A RELAÇÃO COM OS DIREITOS HUMANOS?
Texto-base: ENDRES, D.; HEDLER, L.; WODAJO, K. Bias in Social Media Content Management: What Do Human Rights Have to Do with It? AJIL Unbound, v. 117, p. 139–144, 2023. DOI: https://doi.org/10.1017/aju.2023.23.
O ponto de partida das autoras é a constatação de que a liberdade de expressão nas plataformas digitais, embora formalmente protegida por princípios dos direitos humanos, é exercida de forma desigual. Isso ocorre porque as normas de moderação, especialmente em grandes plataformas como o Facebook, tendem a reproduzir os valores, os costumes e as sensibilidades das culturas dominantes, marginalizando práticas culturais, identidades e discursos que fogem desse padrão.
Um exemplo emblemático apresentado no artigo é o da Fundação Nacional dos Povos Indígenas do Brasil, que teve sua conta suspensa após publicar uma imagem de dois indígenas Waimiri Atroari em trajes tradicionais, imagem que contrariava as políticas da plataforma sobre nudez. O paradoxo é evidente quando comparamos esse caso à tolerância com representações erotizadas de mulheres brancas ocidentais, como nos trajes do Oktoberfest. O que se vê aqui não é simplesmente uma aplicação neutra de regras, mas a imposição de uma lógica ocidentalizada sobre o que é “aceitável” ou “civilizado”.
Essa assimetria evidencia o que as autoras chamam de viés estrutural na moderação de conteúdo. As regras das plataformas são supostamente neutras, mas aplicadas sem atenção ao contexto sociocultural. A consequência disso é que grupos já marginalizados na sociedade são obrigados a justificar seus modos de vida, suas práticas e suas linguagens para ter o mesmo direito de expressão garantido a outros.
Um segundo ponto que merece destaque é a crítica ao modelo de negócios das plataformas. O texto argumenta que os direitos humanos não são prioridade para empresas como a Meta. Pelo contrário, seu interesse central está em manter o máximo de conteúdo online, o famoso “mais engajamento, mais lucro”. Essa lógica comercial colide com qualquer tentativa séria de proteger os direitos das comunidades mais vulneráveis. Como apontado, mesmo após episódios como a crise de violência em Mianmar, a Meta continuou priorizando algoritmos que amplificam discursos divisionistas, apesar dos riscos claros de violação de direitos humanos.
O artigo ainda revela as limitações do próprio arcabouço dos direitos humanos quando aplicado à moderação de conteúdo. A tradição liberal em que se baseiam os direitos humanos tende a supervalorizar as liberdades individuais, em detrimento dos direitos sociais, econômicos e culturais. Isso enfraquece a capacidade desses instrumentos para lidar com as raízes profundas das desigualdades digitais, como o racismo algorítmico, a invisibilização de povos originários ou a censura de movimentos sociais.
Apesar de todas essas críticas, as autoras adotam uma postura propositiva. Elas reconhecem que os direitos humanos, mesmo com suas limitações, ainda possuem um potencial emancipatório. Quando apropriados estrategicamente pelos próprios grupos marginalizados, os direitos humanos podem servir como linguagem de denúncia, de articulação e de pressão por mudanças. O exemplo do movimento Black Lives Matter é ilustrativo: ainda que enfrentem censura, esses movimentos também encontram nas redes sociais uma arena global para mobilização.
Nesse sentido, as autoras sugerem que as plataformas devem incorporar os direitos humanos de maneira mais profunda e sistemática em seus processos de decisão. Isso se dá, por exemplo, criando diretrizes mais sensíveis à diversidade cultural, incluindo mecanismos de escuta das comunidades afetadas e fortalecendo instâncias independentes de revisão.
Apesar da riqueza teórica e das ilustrações empíricas, o artigo tem algumas limitações. Um dos pontos fracos é a concentração quase exclusiva na Meta, sem explorar experiências de outras plataformas como TikTok, Reddit ou mesmo alternativas descentralizadas. Além disso, embora a crítica ao modelo algorítmico seja pertinente, falta aprofundamento técnico sobre como esses sistemas operam e por que falham em capturar o contexto dos conteúdos analisados.
4. COMPARAÇÃO DA LEGITIMIDADE PERCEBIDA ENTRE CONTRATADOS, ALGORITMOS, PAINÉIS DE ESPECIALISTAS E JÚRIS DIGITAIS
Texto-base: PAN, Christina A. et al. Comparing the perceived legitimacy of content moderation processes: Contractors, algorithms, expert panels, and digital juries. Proceedings of the ACM on Human-Computer Interaction, v. 6, n. CSCW1, p. 1-31, 2022.
O artigo de Pan et al. (2022) busca responder a uma pergunta essencial para o campo da governança digital: quais processos de moderação de conteúdo são percebidos como mais legítimos pelos usuários? Os autores conduzem um estudo empírico para medir a legitimidade percebida de quatro modelos amplamente discutidos: moderadores contratados, algoritmos, painéis de especialistas, e júris digitais. A originalidade da pesquisa reside na tentativa de quantificar esse tipo de legitimidade a partir de respostas de usuários comuns do Facebook diante de decisões de moderação previamente estabelecidas.
O conceito central do estudo é o de legitimidade percebida, compreendida como a aceitação da autoridade de uma instituição por aqueles que são por ela afetados. A definição é tomada na sua acepção descritiva, conforme utilizada por Gibson e Tyler, que relacionam a legitimidade à confiança, neutralidade e suporte difuso de uma população diante de decisões institucionais (PAN et al., 2022, p. 5). A legitimidade percebida não se refere, portanto, à legitimidade normativa (fundada em valores ou princípios jurídicos), mas à percepção empírica dos usuários quanto à justiça, imparcialidade e aceitabilidade dos procedimentos adotados por uma plataforma de moderação (PAN et al., 2022, p. 4-6).
A pesquisa foi conduzida por meio de um experimento online com usuários norte-americanos do Facebook, recrutados via Amazon Mechanical Turk. Os participantes avaliaram decisões de remoção de conteúdo, sendo informados que tais decisões teriam sido tomadas por um dos quatro modelos de moderação investigados: algoritmos, contratados pagos, júris digitais ou painéis de especialistas. Cada participante respondeu a múltiplas avaliações, permitindo comparação entre processos (PAN et al., 2022, p. 8-9). Os posts utilizados eram reais, coletados de fontes públicas, abrangendo temas controversos como racismo, vacinação, discurso de ódio e violência (PAN et al., 2022, p. 9).
Importa ressaltar uma limitação metodológica crítica: as decisões de moderação apresentadas aos participantes foram geradas de forma aleatória e não corresponderam a julgamentos reais feitos por algoritmos, especialistas ou jurados, o que compromete a validade ecológica das percepções relatadas (PAN et al., 2022, p. 9-10). Esse ponto será retomado na crítica final.
Os autores identificam quatro principais determinantes da legitimidade percebida com base na literatura: transparência e independência; participação pública; aderência a princípios legais; e defesa de direitos individuais. A partir desses determinantes, eles estabeleceram algumas hipóteses que o estudo procuraria testar.
Pelos determinantes transparência e independência, decisores independentes (como júris e especialistas) seriam percebidos como mais legítimos, em analogia ao sistema judiciário, por operarem de forma mais neutra frente às pressões institucionais (PAN et al., 2022, p. 6). Pelo determinante de participação pública, os júris digitais seriam defendidos por sua aderência a princípios democráticos de deliberação, proporcionando legitimidade pelo envolvimento direto da comunidade (PAN et al., 2022, p. 6-7). Pelo determinante de aderência a princípios legais, processos alinhados a normas e procedimentos jurídicos são mais bem aceitos, sendo o painel de especialistas apresentado como o mais próximo de um modelo pericial e regulado (PAN et al., 2022, p. 7). E pelo determinante de defesa de direitos individuais, A moderação que respeita liberdades fundamentais tenderia a ser percebida como mais justa (PAN et al., 2022, p. 6).
Como consequência, o artigo apresenta um interessante contraste entre dois fundamentos de autoridade: a legitimidade democrática, representada pelos júris digitais, e a legitimidade por expertise, atribuída aos painéis de especialistas. Hipoteticamente, os júris digitais seriam preferidos por sua conexão com normas comunitárias e participação popular (PAN et al., 2022, p. 7), enquanto os especialistas trariam a confiabilidade associada ao conhecimento técnico e jurídico. Os autores esperavam que o modelo deliberativo dos júris superasse os especialistas em termos de legitimidade percebida (hipótese H1.3, PAN et al., 2022, p. 7).
Porém, os resultados refutam essa expectativa.
Os dados demonstraram que os painéis de especialistas apresentaram a maior legitimidade percebida entre os quatro modelos, superando algoritmos e júris digitais (PAN et al., 2022, p. 14). Este achado contraria a hipótese H1.3, segundo a qual os júris teriam maior aceitação popular. Os participantes atribuíram mais confiança aos especialistas, mesmo que o nível de expertise não lhes fosse detalhado (PAN et al., 2022, p. 14-15).
Além disso, algoritmos e contratados pagos foram percebidos como igualmente legítimos, sem diferenças estatisticamente significativas (PAN et al., 2022, p. 14).
Adicionalmente, o fator mais determinante para a percepção de legitimidade não foi o processo, mas o alinhamento do resultado da moderação com a opinião do participante. Em outras palavras, se o usuário concordava com a decisão tomada, ele tendia a considerar o processo mais legítimo, independentemente de quem a tomou (PAN et al., 2022, p. 15-16).
Esses achados reforçam o peso da cognição motivada. Isso é, o desejo de ver confirmadas as próprias crenças afeta diretamente o julgamento institucional, relativizando o impacto de mecanismos como transparência ou independência.
Apesar da robustez estatística, o estudo possui limites importantes, reconhecidos pelos próprios autores. O mais grave é o fato de que as decisões de moderação não foram efetivamente tomadas pelos processos atribuídos a elas, o que pode ter induzido os participantes a atribuírem legitimidade com base em suposições ou estereótipos sobre esses processos (PAN et al., 2022, p. 9-10). Isso compromete parcialmente a validade externa dos achados, uma vez que não se pode afirmar que as percepções se manteriam diante de decisões reais oriundas de cada mecanismo.
Outro limite do trabalho de Pan et al. (2022) é o viés de amostragem. Afinal, os participantes são usuários do Facebook nos EUA, recrutados por uma plataforma de trabalho remoto, o que pode não representar adequadamente o público global e seus diferentes referenciais culturais sobre autoridade e moderação (PAN et al., 2022, p. 17).
O estudo de Pan et al. (2022) representa um avanço importante na análise empírica da legitimidade percebida nos processos de moderação de conteúdo. Ao testar modelos contrastantes (técnico, democrático, automatizado e corporativo) os autores fornecem dados valiosos para plataformas e reguladores. Sua principal contribuição é demonstrar que, mesmo com limitações, o modelo baseado em expertise foi o mais legitimado pelos usuários, desafiando a suposição de que deliberação comunitária e democrática gera maior confiança.
Porém, a construção experimental artificial, com decisões aleatórias e sem julgamentos reais, impõe cautela na interpretação dos resultados. Para futuras pesquisas, seria desejável combinar experimentos com dados etnográficos ou análises em contextos reais de disputa e apelação de decisões de moderação.
5. DEBATES ORAIS DO GRUPO
Algumas das questões discutidas no debate de todos os participantes do encontro foram: a existência em redes sociais de termos para distúrbios alimentares e outros, como, por exemplo, o uso de “Ana” e “Mia” para produzir conteúdo sobre anorexia e bulimia, que procuram vencer as limitações de moderação. Também foi debatida a necessidade de se observar o contexto para ocorrer a moderação e a dificuldade do algoritmo em entender o contexto. Além disso, foi avaliada a mudança na perspectiva dos ouvintes, de uma ideia juridicamente estrita, pautada centralmente na liberdade de expressão, para uma ideia de instrumentalização adequada de mecanismos de moderação.
REFERÊNCIAS
CHINMAN, Luke. Mark Zuckerberg’s New Facebook and Instagram Policy Allows Users to Call LGBTQ+ People Mentally Ill: "It’s time to get back to our roots around free expression on Facebook and Instagram," Zuckerberg said when he announced the controversial changes to Meta's content moderation policy. 10 jan. 2025. Disponível em: https://people.com/meta-new-policy-lgbtq-people-mental-illness-8772793.
ENDRES, D.; HEDLER, L.; WODAJO, K. Bias in Social Media Content Management: What Do Human Rights Have to Do with It? AJIL Unbound, v. 117, p. 139–144, 2023. DOI: https://doi.org/10.1017/aju.2023.23.
KAPLAN, Joel. More Speech and Fewer Mistakes. 07 jan. 2025. Disponível em: https://about.fb.com/news/2025/01/meta-more-speech-fewer-mistakes/.
PAN, Christina A. et al. Comparing the perceived legitimacy of content moderation processes: Contractors, algorithms, expert panels, and digital juries. Proceedings of the ACM on Human-Computer Interaction, v. 6, n. CSCW1, p. 1-32, 2022.
RODRIGUES, Fernanda. Moderação de conteúdo e redes sociais: o que esperar (de velho) no ano novo? 16 jan. 2025. Disponível em: https://irisbh.com.br/moderacao-de-conteudo-e-redes-sociais-o-que-esperar-de-velho-no-ano-novo/
SHAPIRO, Jesse M.; KOMINERS, Scott Duke. Content Moderation with Opaque Policies. Working Paper Series, nº. 32156, February 2024.
TENBARGE, Kat. Eating Disorder Content Is Infiltrating TikTok. Some Creators Are Going Viral Debunking It: As “SkinnyTok” posts advise people to suck up their hunger, some creators are using blunt humor to dissuade young people from pro-eating-disorder messaging. 21 maio 2025. Disponível em: https://www.wired.com/story/eating-disorder-content-is-infiltrating-tiktok-some-creators-are-going-viral-debunking-it/
VERZA, María. Abortion-rights groups denounce censorship on Meta-owned apps in Latin America and beyond. 15 maio 2025. Disponível em: https://apnews.com/article/mexico-abortion-tech-whatsapp-censorship-meta-instagram-ef425bc0e77fcd279be09559c35b1663
WEATHERBED, Jess. Pinterest says mass account bans were caused by an ‘internal error’: Accounts that were mistakenly suspended are now being restored. 15 maio 2025. Disponível em: https://www.theverge.com/news/667837/pinterest-response-mass-account-bans-outrage
__________________________________________________________________________________
O DTec UFMG (Grupo de Estudos em Direito & Tecnologia da Faculdade de Direito da UFMG) é um grupo de estudos registrado junto à Faculdade de Direito da UFMG e ao NIEPE/FDUFMG. O DTec realiza encontros quinzenais remotos para debater temas afetos à sua área e o DTIBR cede espaço no site e nas suas redes sociais para divulgar as atas de reuniões e editais de processo seletivo do grupo de estudos.
Por outro lado, o Centro de Pesquisa em Direito, Tecnologia e Inovação - DTIBR é uma associação civil de direito privado, dotada de personalidade jurídica própria e sem finalidade econômica. Não possui vínculo com a UFMG e, por isso, participantes do grupo de estudos DTec não são membros do DTIBR. Para maiores informações, acesse nosso FAQ.
コメント