Ata DTEC: Privacidade, Proteção de Dados e Sistemas Autônomos



I. Como a “democratização” dos robôs pode impactar a privacidade


Estamos vivendo um processo de expansão da utilização de robôs (máquinas autônomas com a capacidade de sentir, processar e interagir fisicamente com o mundo) similar à expansão de Computadores Pessoais ocorrido na década de 70 nos Estados Unidos. Esse fenômeno de ‘democratização’ da utilização de robôs, mormente considerando aqueles incorporados às residências, pode impactar de forma substancial valores sociais relacionados à privacidade (compreendida de forma ampla como o direito de “ser deixado sozinho”)


Os efeitos desses impactos podem ser divididos, segundo Ryan Calo, em três grandes categorias: (i) Vigilância Direta; (ii) Acesso Ampliado e (iii) Significado Social. Sendo importante ressaltar que essas categorias interagem, maximizando seus possíveis efeitos.


1) Vigilância Direta: Dada a variedade de tamanhos e formatos, bem como a sofisticação de sensores e velocidade de processamento dessas máquinas, há um aumento exponencial da capacidade de observação. Isso pode gerar um cenário de diminuição das garantias constitucionais de privacidade, inclusive mudando as expectativas de privacidade do cidadão.


2) Acesso Ampliado: As inovações tecnológicas, quando incorporadas as residências, possibilitam pontos de acesso a espaços tradicionalmente protegidos, tanto do ponto de vista real como do ponto de vista legislativo e jurisprudencial. Os robôs domésticos se caracterizam por permitir o acesso potencial (seja pelo governo, pelo setor privado ou por hackers) “a objetos e espaços ao invés de pastas e arquivos”.


Apesar de preocupantes, as categorias anteriores indicam um caminho claro para sua mitigação: leis e regulamentações melhor elaboradas somadas a práticas de engenharia adequadas à uma ética da privacidade. Todavia, a terceira categoria, abaixo indicada, representa maior desafio tanto para o direito quanto para a tecnologia.


3) Significado Social ou Dimensão Social dos robôs: A maneira como as pessoas reagem a tecnologias fortemente antropomórficas pode impactar os valores relacionados à privacidade de forma ainda mais contundente: a) redução das já esparsas oportunidades de autorreflexão; b) aumento da vulnerabilidade à privacidade doméstica; c) acesso a novos tipos de informações pessoais, advindas do mapeamento acerca da forma como os humanos interagem com (e programam) seus robôs domésticos, permitindo acesso a dados hipersensíveis que deixariam psicólogos com inveja.

Estudo publicado em março deste ano pelo European Parliamentary Research Service também apresenta preocupações acerca do impacto que a interação mais frequente com a Inteligência Artificial pode ter sobre a psicologia humana, mormente diante dos laços emocionais que os seres humanos podem formar em relação a essas máquinas antropomorfizadas.


II. Impactos da Proteção de Dados Pessoais por Ataques Cibernéticos


A temática acerca da confidencialidade dos dados de treinamento em aprendizado de máquina tem recebido bastante atenção nos últimos tempos. Muito se tem questionado sobre a vulnerabilidade dos sistemas de aprendizado de máquinas a ataques cibernéticos e, também, sobre a possibilidade de dados de treinamento utilizados no aprendizado de máquina serem considerados dados pessoais.

O aprendizado de máquina vem sendo cada vez mais utilizado. Grandes empresas, como Google e Amazon vendem machine learning as a service para diversos clientes, ajudando-os a melhorar o marketing e a publicidade, compreender melhor os dados gerados por suas operações, ou recomendar serviços e produtos aos usuários.

Em todos esses cenários, as atividades de usuários individuais - suas compras e preferências, dados de saúde, transações online e off-line, fotos que tiram, comandos que falam em seus telefones celulares, locais para os quais viajam - são usadas como dados de treinamento.

No artigo “Algorithms that Remember: Model Inversion Attacks and Data Protection Law”, os autores apresentam alguns conceitos de ataques cibernéticos:


  1. Model stealing: quando um hacker utiliza o acesso de API para replicar um modelo de aprendizado de máquina. O impacto principal é relacionado à propriedade intelectual e não a privacidade propriamente.


  1. Model Inversion: transforma a jornada dos dados de treinamento em um modelo aprendido por máquina, de mão única para modelo bidirecional, permitindo com que os dados de treinamento sejam estimados com vários graus de acurácia.

Neste tipo de ataque, um controlador de dados que inicialmente não tem acesso direto a um banco de dados A, é capaz de recuperar algumas variáveis no conjunto de treinamento de A, se receber acesso a outros bancos de dados (exemplo – banco de dados B). Considerando que as variáveis se conectam entre si, como consequência, é possível identificar as variáveis do banco de dados A.


  1. Membership inference: ataque cibernético onde o hacker recupera informações para saber se os dados de um determinado indivíduo estavam presentes no conjunto de aprendizado ou não. Não recupera os dados do aprendizado de máquina.

Imagine uma situação em que um hacker descobre que um registro clínico de um determinado paciente foi usado para treinar um modelo associado a uma doença para, por exemplo, determinar a dosagem apropriada de um medicamento. Isto pode revelar que o paciente tem esta doença.

Como resultado, pode causar um impacto negativo na proteção de privacidade da sociedade em geral, já que as correlações e os dados nos quais o modelo se baseia, e as inferências que essas correlações permitem, valem para toda a população, e os seus titulares nem sabem que seus dados foram utilizados para a criação destes modelos.


III. Implicações dos Modelos como Dados Pessoais


O potencial de dano na quebra de confidencialidade decorrente dos ataques cibernéticos é enorme. Isto porque a maioria dos dados de treinamento são dados considerados pseudoanonimizados.

De acordo com o artigo 4º, (5), do GDPR (“General Data Protection Regulation”), o dado pseudoanonimizado não pode mais ser atribuído a um titular de dados específico sem a utilização de informações adicionais. Tais informações adicionais devem ser mantidas separadamente e estarem sujeitas a medidas técnicas e organizacionais para garantir que os dados pessoais não sejam atribuídos a uma pessoa identificada ou identificável.


Embora o dado pseudoanonimizado não consiga identificar um indivíduo sem informações adicionais, tal dado continua sendo considerado dado pessoal, e um vazamento de dados pseudoanonimizados pode ser considerado um incidente de segurança sob a ótica do GDPR.

Neste contexto, surgem os debates sobre o exercício de direitos pelos titulares de dados pessoais, dentre eles:

  • Direito de Acesso (art 15, GDPR): titular deseja acessar o modelo e saber de onde ele se originou e quem são as partes que realizam o tratamento do dado

Impactos: ocorrer quebra de privacidade em relação aos dados de outros usuários, exceção GDPR (art 14. (5) (b): o fornecimento de tais informações se mostra impossível ou envolveria um esforço desproporcional, pelo controlador.

  • Direito de Eliminação (art. 17, GDPR) ("right to be forgotten"): titular deseja eliminar seus dados de um determinado modelo. 

Impactos: custos energia altos, tempo e custo operacional. Além disso, traria pouco impacto para os padrões construídos pelo modelo.

  • Direito de Oposição (art. 21, GDPR) ao tratamento do dado em um modelo futuro.

Impactos: o exercício deste direito torna-se possível se o titular consultar todo o banco de dados, e não apenas os seus dados pessoais, o que tornaria tal exercício desproporcional.


Obviamente que a utilização de robôs também pode trazer diversos benefícios para a sociedade e para os indivíduos, mas é necessário que a regulamentação legal e as práticas tecnológicas estejam atentas as possíveis consequências de sua adoção, especialmente no que concerne à privacidade e à proteção de dados pessoais.


Bibliografia Básica:

  • CALO, Ryan. Robots and Privacy. LIN, BEKEY; ABNEY (Eds.) ROBOT ETHICS: THE ETHICAL AND SOCIAL IMPLICATIONS OF ROBOTICS. Cambridge: MIT Press, 2011. Available at SSRN: www.ssrn.com/abstract=1599189




Bibliografia Complementar:

  • DARLING, Kate. “Who's Johnny?”: Anthropomorphic Framing in Human-Robot Interaction, Integration, and Policy. BEKEY; ABNEY; JENKINS (Eds.). ROBOT ETHICS 2.0. Oxford University Press, 2017, Forthcoming, Available at SSRN: www.ssrn.com/abstract=2588669



  • M. BARRENO, B. NELSON, R. SEARS, A. D. JOSEPH, and J. D. TYGAR. Can machine learning be secure? In PROCEEDINGS OF THE 2006 ACM SYMPOSIUM ON INFORMATION, COMPUTER AND COMMUNICATIONS SECURITY, pages 16--25. ACM, 2006.


  • Y. TAIGMAN, M. YANG, M. RANZATO and L. WOLF. DeepFace: Closing the Gap to Human-Level Performance in Face Verification. In: 2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. Columbus, OH, 2014, pp. 1701-1708, doi: 10.1109/CVPR.2014.220.

Centro DTIBR - Direito, Tecnologia e Inovação

Avenida João Pinheiro, 146, 10º andar, Lourdes

Belo Horizonte/MG, Brasil

CEP 30.130-927

CNPJ 32.727.924/0001-80

Clique aqui para nossa localização