Inteligência Artificial e Responsabilidade Civil (PARTE 01)



Por Giovana Figueiredo Peluso Lopes


A responsabilidade civil extracontratual tem por objetivo colocar a pessoa prejudicada na posição em que estaria se a violação do dever geral de não causar danos a outros não tivesse ocorrido. É possível, portanto, que o dever de reparação surja também em favor de indivíduos prejudicados por suas interações com um agente artificial.


No que diz respeito à imputação em casos de danos causados por agentes autônomos de inteligência artificial, duas peculiaridades fazem com que a aplicação das teorias tradicionais sobre responsabilidade civil seja dificultada: a imprevisibilidade de suas ações e a existência de agência causal sem uma correspondente agência legal[1] - pelo menos até o presente momento, em que não são considerados como sujeitos pelo ordenamento jurídico. Significa dizer, em linhas gerais, que tais agentes são capazes de produzir ações danosas sem que, correspondentemente, sejam responsabilizados por elas.


A potencialidade dos danos causados por uma inteligência artificial não é trivial. Como exemplos particularmente alarmantes têm-se os sistemas de controle de baterias de mísseis, pilotos automáticos, sistemas de controle de trens e softwares de controle de medicina nuclear, que podem causar mortes e ferimentos graves se operarem incorretamente. Na esfera econômica, quebras de sistemas de negociação e aconselhamento equivocados de sistemas especialistas podem causar perdas significativas para seus usuários.[2]

A análise da responsabilidade civil por danos causados por uma inteligência artificial perpassa, ainda, duas questões relevantes. A primeira delas diz respeito às hipóteses em que o dano causado pela IA seja resultado direto de um erro humano, ou seja, através de um comportamento negligente, por falha de um dever de cuidado, de um defeito de fabricação ou manutenção, do fornecimento inadequado ou insuficiente de orientações sobre o seu uso seguro e apropriado.


Atualmente, por mais sofisticados e inovadores que sejam, a grande maioria das tecnologias de inteligência artificial possui um característica comum fundamental para a análise da responsabilidade: é possível identificar, por trás de seu agir, as diretivas humanas responsáveis por determinado funcionamento ou tomada de decisão, rastreando-a diretamente de volta à programação do software, design da máquina, ou dados que lhe foram alimentados ao longo do processo de aprendizagem.[3]


Onde o envolvimento humano na tomada de decisão é evidente, não há necessidade de se reexaminar modelos existentes de responsabilidade. Qualquer ser humano (ou entidade personificada) que tem um papel no desenvolvimento da inteligência artificial e ajuda a mapear sua tomada de decisão é potencialmente responsável por atos ilícitos - negligentes ou intencionais - cometidos ou envolvendo a IA.


Nesses casos, a aplicação de modalidades já existentes de responsabilidade civil pode ser feita a uma inteligência artificial autônoma da mesma forma como o é para outra máquina ou ferramenta utilizada por um ser humano, talvez com a exceção de se considerar um padrão mais elevado de cuidado quando da análise de um dano.[4]


Na medida em que sistemas artificiais passem a ser capazes de atuar de maneira verdadeiramente autônoma, independentemente de um input humano direto e baseando-se em informações que o próprio sistema adquire e analisa, será possível que eles executem determinadas ações não antecipadas por seus criadores, muitas delas com consequências danosas.


Assim, a segunda questão adquire relevância se, e somente se, uma IA totalmente autônoma causar danos de maneiras impassíveis de serem rastreadas ou atribuídas a um ser humano.


Nessas hipóteses, questiona-se qual deveria ser o regime de responsabilidade adotado, especialmente quando se tem em mente que, baseados no princípio da solidariedade, grande parte dos sistemas de responsabilidade civil não está disposta a deixar que uma pessoa que sofreu um dano sem ter contribuído para o mesmo tenha que suportar sozinha o fardo que lhe foi imposto. A pergunta, então, passa a ser quem deverá arcar com os custos associados a um incidente envolvendo um agente artificial autônomo[5].

Em geral, os usuários e operadores de uma inteligência artificial têm o dever de empregar um certo grau de cuidado para impedir que ela cause danos a outros indivíduos ou suas propriedades. O padrão de conduta exigido é aquele que um homem médio, ou seja, um indivíduo diligente, teria nas mesmas circunstâncias, e proporcional ao perigo envolvido na atividade.


Esse entendimento é atualmente aplicado a robôs industriais com mobilidade limitada, e que se comportam de maneiras relativamente previsíveis. Devido à sua potencialidade lesiva é que tais máquinas costumam ter suas proximidades intransponíveis aos demais operários, de modo a evitar a responsabilidade de seus operadores por falhas em manter os demais fora de perigo.[6]


Agentes artificiais também podem ser manuseados de forma descuidada ou perigosa; um operador pode não tomar o devido cuidado ao programar ou configurar um agente antes de disponibilizá-lo aos usuários em uma rede pública.[7] É possível ainda que usuários empreguem uma IA como meio de cometer ações danosas a terceiros, ou então que alimentem um sistema de aprendizado de máquina com conteúdo inapropriado, gerando, por exemplo outputs racistas.[8] Ademais, conforme destacado por Kurki, os programadores e/ou proprietários podem também ser responsabilizados caso tenham intencionalmente criado uma inteligência artificial com o intuito de cometer ilícitos.[9]


Uma IA para certa finalidade específica pode, ademais, causar danos ao tentar alcançá-la, através de algum desenvolvimento imprevisível. Nesse sentido, ilustra-se a hipótese com o exemplo de uma torradeira inteligente que queima a casa em busca de otimizar seus resultados[10], ou então com o famoso experimento mental proposto por Nick Bostrom de uma máquina cujo objetivo é produzir o maior número possível de clipes de papel (“paperclip maximizer”).


Em contextos como esse, Ryan Abbot propõe que, caso o desenvolvedor de uma IA consiga demonstrar que a mesma é efetivamente mais segura do que um homem médio, o mesmo deveria ser responsabilizado de forma subjetiva, e não objetiva, pelos danos por ela causados, ainda que no âmbito de uma relação de consumo.[11]


A análise da negligência, contudo, fundamenta-se no conceito de previsibilidade, e levanta questões como: “era possível antever o dano?” e “quais tipos de danos eram de fato previsíveis?”. Conforme bem destaca Turner, é extremamente provável que as ações de uma IA irão se tornar cada vez mais imprevisíveis. Como consequência, responsabilizar um ser humano por toda e qualquer ação da IA mudaria o foco da culpa do agente para um sistema de responsabilidade objetiva.[12]


Nesse contexto enquadra-se a teoria que compreende que a inteligência artificial constitui mera ferramenta ou instrumentalidade nas mãos de seres humanos (“AI-as-tool”), podendo representar apenas uma fonte de responsabilidade para outros agentes, seguindo a regra geral de que o operador de uma ferramenta é responsável pelos resultados obtidos pelo seu uso, vez que a mesma não possui volição independente própria.[13] Segundo Pagallo, tal teoria implica na atribuição objetiva de responsabilidade à pessoa física ou jurídica em nome de quem ela age, independentemente de seu comportamento ter sido planejado ou antevisto[14].


A teoria da inteligência artificial como ferramenta traça um paralelo com a chamada responsabilidade vicária, utilizada no sistema contemporâneo de responsabilidade extracontratual na common law, e que designa a responsabilidade do superior hierárquico pelos atos dos seus subordinados ou, em um sentido mais amplo, a responsabilidade de qualquer pessoa que tenha o dever de vigilância ou de controle pelos atos ilícitos praticados pelas pessoas a quem deveriam vigiar [15].


No ordenamento pátrio, seriam os casos de responsabilidade pelo fato de terceiro, derivada de um dever de guarda, vigilância e cuidado, nos termos do art. 932 do Código Civil, e a responsabilidade dos pais pelos atos dos filhos menores que estiverem sob o seu poder e em sua companhia; do tutor e curador pelos pupilos e curatelados; e do patrão pelos atos dos seus empregados.[16] Assim, para que reste configurada, deve haver uma relação entre o agente causador do dano e o indivíduo a quem o mesmo será imputado, dentro das categorias reconhecidas, e o ato ilícito deve ocorrer dentro do escopo desse relacionamento.[17]


Para Chopra e White, haveria uma justificativa para se imputar a responsabilidade objetiva aos proprietários e usuários de uma IA, sob o fundamento de que ela poderia representar riscos a terceiros. Assim, esse regime de responsabilidade incentivaria os indivíduos que empregassem agentes artificiais em suas atividades a apenas fazê-lo quando os benefícios superassem os custos sociais.[18]


O fato de que a responsabilidade vicária é normalmente limitada a determinada esfera de atividades realizadas pelo agente representa tanto uma vantagem quanto uma desvantagem. Isso porque nem todo ato de uma IA seria necessariamente atribuível ao seu proprietário ou operador, de tal modo que, quanto mais o seu comportamento desviasse da sua gama de tarefas delineadas, maior a probabilidade de haver uma lacuna de responsabilidade. No curto a médio prazo, porém, em se tratando de agentes que continuam operando dentro de faixas muito limitadas (narrow AI), essa preocupação é menos premente[19].


Similarmente à hipótese de responsabilidade objetiva por ato de terceiros, é possível vislumbrar também a responsabilidade objetiva dos usuários ou operadores de uma IA em analogia à responsabilidade do dono do animal pelo fato deste. Neste caso, quando um agente artificial for potencialmente perigoso e seja provável que um dano ocorra caso ele escape de seus limites físicos ou virtuais, a pessoa em custódia do agente poderia ser responsabilizada, mesmo na ausência de negligência comprovada.[20]


A escolha de responsabilizar o usuário ou o operador de um agente de IA dependeria do nível relativo de controle exercido por cada um deles, sendo, a princípio, o operador a pessoa mais adequada a prevenir danos na maioria dos casos. A falta de conhecimento do potencial de perigo apresentado por um agente artificial poderia também ser relevante no caso de agentes altamente sofisticados, cujo funcionamento interno não é transparente para seus guardiões ou quando o agente exibir um comportamento inesperado, seja como resultado de seu aprendizado ou de algum defeito[21].


Em última instância, porém, a responsabilização do proprietário ou usuário de uma IA não representa uma solução ideal, uma vez que eles seriam as vítimas mais prováveis de danos não antecipados e porque os fabricantes estariam, em princípio, na melhor posição para aprimorar a segurança do produto e pesar os riscos e benefícios da criação e disponibilização de novas tecnologias.[22]


Verifica-se, portanto, que, a depender do caso, os danos causados por uma inteligência artificial poderão atrair as disposições sobre a responsabilidade pelo produto, sobretudo se o fabricante não informar suficientemente o consumidor acerca dos riscos associados ao uso da tecnologia em questão, ou se os sistemas de segurança desta forem deficientes a ponto de não oferecerem a segurança esperada.


Desse modo, a recuperação pelo dano pode ser inviabilizada ou reduzida caso ele tenha sido integral ou parcialmente causado pelo modo de utilização do agente, em especial pelo usuário: ignorando os avisos ou instruções do fornecedor, usando o agente em um contexto novo ou inesperado, imputando-lhe dados ou lhe dando instruções inadequados, ou deixando de exercer discrição ao depender fielmente do output apresentado.[23]

Čerka et. al chamam atenção para o fato de que, na maioria dos casos, seria difícil a aplicação da responsabilidade pelo fato do produto, pois o ônus da prova seria extremamente gravoso a quem incumbisse, tendo em vista a dificuldade em se provar um defeito na fabricação da IA e, principalmente, que esse defeito já existia quando ela deixou as mãos dos desenvolvedores. Como um sistema de autoaprendizagem, pode ser impossível traçar a linha tênue entre os danos resultantes desse fato e o defeito preexistente de fabricação do produto.[24]


Referências

[1] ASARO, Peter M. The Liability Problem for Autonomous Artificial Agents. AAAI Spring Symposium Series, 2016. Disponível em: https://www.aaai.org/ocs/index.php/SSS/SSS16/paper/view/12699. Acesso em: 09 abr. 2020.

[2] Por todos, ver CHOPRA, Samir; LAWRENCE, White. A Legal Theory for Artificial Autonomous Agents. Ann Arbor: University of Michigan Press, 2011, p. 119.

[3] VLADECK, David C. Machines Without Principles: Liability Rules and Artificial Intelligence. Washington Law Review, v. 89, n. 01, p. 117-150, 2014.

[4] Id., p. 127.

[5] Id., p. 128.

[6] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory … Op. cit., p. 126.

[7] Id., p. 127.

[8] Idem.

[9] KURKI, Visa A. J. A Theory of Legal Personhood. Oxford: Oxford University Press, 2019, p. 181.

[10] TURNER, Jacob. Robot Rules: Regulating Artificial Intelligence. Nova York: Palgrave Macmillan, 2019.

[11] ABBOTT, Ryan. The Reasonable Computer: Disrupting the paradigm of tort liability. The George Washington Law Review, v. 86, n. 1, 2018, p. 1-45.

[12] TURNER, Jacob. Op. cit., p. 90-91.


[13] ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by artificial intelligence. Computer Law & Security Review, v. 31, n. 3, 2015, p. 376-389.


[14] PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013.

[15] PIRES, Thatiane; SILVA, Rafael. A Responsabilidade Civil pelos Atos Autônomos da Inteligência Artificial: Notas iniciais sobre a resolução do Parlamento Europeu. Revista Brasileira de Políticas Públicas, v. 7, n. 3, 2017, p. 239-254.

[16] Id., p. 248.

[17] Idem.

[18] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory … Op. cit., p. 129.

[19] Turner, p. 101.

[20] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory … Op. cit., p. 130.

[21] Id., p. 131.

[22] ABBOTT, Ryan. Op. cit., p. 31.

[23] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory … Op. cit., p. 138.

[24] ČERKA, Paulius. Op. cit., p. 386.


Centro DTIBR - Direito, Tecnologia e Inovação

Rua dos Timbiras, nº 1925, Sala 903, Lourdes

Belo Horizonte/MG, Brasil

CEP 30140-069

CNPJ 32.727.924/0001-80

Clique aqui para nossa localização