top of page

Inteligência Artificial e Responsabilidade Civil (PARTE 02)



Por Giovana Figueiredo Peluso Lopes



Quando um agente artificial autônomo causar um dano através de ações não diretamente rastreáveis a uma pessoa, uma abordagem possível para solucionar a lacuna da responsabilidade seria a inferência de um defeito, baseando-se na teoria de que o acidente em si já constituiria prova da sua existência.[1]


Um defeito pode ser razoavelmente presumido quando, ocorrendo uma falha em determinado produto, ainda que seus engenheiros não sejam aptos a identificar aquilo que a causou, esta mesma falha pode ser vislumbrada com certa frequência, seguindo um padrão comum também em outros produtos. Nessas circunstâncias, aplica-se rotineiramente a teoria res ipsa loquitor, concluindo que deve haver um defeito no produto, e não na atuação do usuário ou da vítima.[2]


Um exemplo recente diz respeito aos inúmeros casos envolvendo a Toyota em que se alegou que alguns veículos fabricados pela marca estariam propensos a acelerar subitamente, sem nenhuma ação correspondente do motorista, e sem a possibilidade de interrupção dessa aceleração por ele, desengatando o pedal do acelerador ou aplicando os freios.[3]


Não obstante a extensiva investigação realizada, os engenheiros da marca foram incapazes de identificar com precisão qualquer defeito que causasse a aceleração repentina. Ainda assim, devido ao número substancial de reclamações e às características comuns entre elas, a Toyota decidiu não contestar a sua responsabilidade pelos danos causados, pagando o equivalente a U$1.3 bilhões de dólares aos proprietários dos veículos afetados.[4]


Para Vladeck, o exemplo da empresa Toyota deixa claro que o regime de responsabilidade objetiva aplicado às relações de consumo é adequado para lidar com casos em que as evidências sugerem fortemente um defeito, mas a tecnologia existente não é capaz de determinar a sua causa.[5]


Entretanto, na hipótese de um agente artificial autônomo causar um dano como resultado de sua atuação normal, dentro daquilo para o qual foi programado a fazer, não é possível falar na existência de um defeito ou de presunção de um defeito. Uma vez que esses agentes têm como características essenciais a autonomia e a capacidade de autoaprendizagem com base em suas experiências, seria virtualmente impossível distinguir uma ação gerada por uma falha daquela decorrente do próprio processo de aprendizado[6].


Nos casos em que danos sejam causados sem que seja possível atribuí-los diretamente a um comportamento humano, caberá ao ordenamento jurídico optar pela resposta que melhor atenda aos interesses coletivos das partes afetadas. Nesse sentido, a adoção de um regime de responsabilidade objetiva, desacoplado de noções de falhas ou defeitos do produto, parece ser a alternativa mais viável.


Nesse contexto, David Vladeck destaca argumentos favoráveis à adoção de um regime de responsabilidade civil objetiva para casos em que danos sejam causados por uma inteligência artificial autônoma. Em primeiro lugar, o autor destaca que garantir a reparação para pessoas que sofrem um dano sem ter tido qualquer contribuição para a sua ocorrência é, por si só, um valor fundamental. A ideia de que pessoas devam arcar com danos e perdas que simplesmente lhe ocorrem, mesmo que seja impossível explicar causalmente uma falha ou defeito, contraria noções básicas de justiça compensatória e distribuição de riscos entre a sociedade.[7]


Poder-se-ia, claro, permitir o desenvolvimento e a aplicação de agentes artificiais autônomos e simplesmente aceitar os riscos e custos a nível social, sem desenvolver uma estrutura mais adequada para regular a sua autonomia. Essa abordagem permissiva permitiria, em um primeiro momento, muitas aplicações benéficas de IAs avançadas, mas também muitas outras prejudiciais, incluindo-se inúmeros danos pelos quais ninguém poderia ser responsabilizado, e cujas vítimas restariam sem qualquer tipo de compensação. Como efeito secundário, porém, provavelmente haveria uma reação geral contra tais usos avançados da tecnologia, vez que ela passaria a ser vista como prejudicial e oferecendo poucas opções para a restituição em caso de acidentes.[8]


O segundo argumento favorável a um regime de responsabilidade objetiva consiste no fato de que, ao contrário da parte lesada, os desenvolvedores da inteligência artificial estão em melhor posição de prevenir a ocorrência de danos e de absorver os custos associados, redistribuindo o ônus da perda através da definição do preço do produto. Afinal, é apenas razoável que os custos de acidentes inexplicáveis sejam suportados, ao menos em parte, por aqueles que se beneficiam de inovações redutoras de risco.[9]


Finalmente, um esquema de responsabilidade que garanta a previsibilidade pode ser melhor em estimular a inovação do que um sistema menos previsível e dependente de uma análise detalhada para posterior atribuição de culpa. O sistema de responsabilidade civil adotado para agentes artificiais autônomos não deverá ser um empecilho à inovação, mas sim incentivar o seu desenvolvimento de maneira responsável. A estabilidade fornecida por um regime de responsabilidade civil objetiva, juntamente com uma abordagem de disseminação de custos, serviria a esse objetivo melhor do que um sistema de responsabilidade incerto baseado na análise de elementos subjetivos.[10]


Similarmente, Turner destaca que, do ponto de vista dos desenvolvedores e fornecedores de uma inteligência artificial, a certeza da sua responsabilização na ocorrência de um dano poderia representar uma vantagem, pois permitiria a realização de cálculos atuariais mais precisos. O risco de danos poderia, desse modo, ser precificado no custo final dos produtos, bem como antecipado nas previsões contábeis das empresas e na divulgação, aos investidores, como um fator de risco em determinado prospecto.[11]


Em um regime de responsabilidade civil subjetiva, por outro lado, como o ofensor apenas responde se agir culposamente, o ônus do dano necessariamente recairá sobre a vítima. Ou seja, o incentivo para que as vítimas adotem níveis de precaução é maior, pois, caso venham a sofrer algum tipo de prejuízo, elas mesmas deverão suportá-los.[12]


Nesse ponto, Steven Shavell aponta para a dificuldade de se valer de um padrão de negligência (“negligence rule”) quando os tribunais desconhecem o que efetivamente caracterizaria a culpa em razão da natureza técnica da atividade. Assim, acabam por estabelecer padrões de comportamento errôneos, permitindo que as vítimas permaneçam sem a devida reparação.[13]


Por fim, cumpre ressaltar que, embora à primeira vista o comportamento imprevisível de um agente autônomo de IA possa sugerir a aplicabilidade de responsabilidade objetiva em sua versão agravada[14], isto é, fundamentando-se apenas na análise de ocorrência do dano, com a eliminação do requisito do nexo causal, existem empecilhos a serem considerados para a qualificação de um agente artificial autônomo como atividade de risco.


Na responsabilidade objetiva agravada, para que haja a imputação, exige-se que o dano possua estreita conexão com a atividade exercida pelo responsável, devendo este ser considerado inerente, característico ou típico daquela. Ainda, tal modalidade exige que o dano ocorrido afete a integridade física ou psíquica de uma pessoa, não bastando, para que haja o agravamento, que o evento danoso tenha atingido apenas objetos ou bens.[15]


A responsabilidade agravada justifica-se pelo objetivo econômico da atividade normalmente desenvolvida. Em outras palavras, aquele que se beneficia de uma atividade lícita e que seja potencialmente perigosa adquire o ônus de arcar com as eventuais consequências danosas inerentes ao processo produtivo ou distributivo.


Através da definição, em lei, de atividades consideradas intrinsecamente de risco, impõe-se a responsabilidade objetiva agravada às atividades que não podem ser prevenidas, de maneira viável, pelo cuidado do ator ou por possíveis alterações comportamentais das vítimas. Isso porque, segundo Posner, novas atividades tendem a ser perigosas por haver pouca experiência em lidar com quaisquer riscos que elas apresentem, implicando, por vez, que existem bons substitutos para elas. O melhor método de controle de acidentes, nesse caso, encontrar-se-ia na redução de escala da atividade em questão.[16]


Entretanto, a qualificação da pesquisa e desenvolvimento de agentes de inteligência artificial autônomos como atividade inerentemente de risco é, no mínimo, problemático, pelo simples fato de que na grande maioria das vezes eles desempenharão suas tarefas de forma mais segura do que seus correspondentes humanos, e serão menos perigosos do que os produtos que virão a substituir.


Além disso, o agravamento da responsabilidade objetiva impediria, em qualquer instância, a possibilidade de que desenvolvedores dessa tecnologia pudessem se eximir de arcar com qualquer dano ocorrido, alegando, por exemplo, a culpa exclusiva da vítima ainda que ela fizesse uso de maneira completamente inapropriada do agente, ou fortuito externo.

Uma vez que determinado ordenamento jurídico opte pela adoção de um regime de responsabilidade civil baseado em elementos objetivos, o principal questionamento passa a ser quem deve arcar com os custos. O ônus da responsabilidade deve recair sobre o desenvolvedor, o distribuidor, o operador, o usuário ou, ainda, todos eles?


A mera imputação da responsabilidade ao fabricante da IA, permitindo-lhe, posteriormente, buscar a compensação das outras partes potencialmente responsáveis, pode constituir em nada mais do que um gesto vazio. Se de fato for impossível identificar a causa do acidente, o fabricante provavelmente não terá argumentos razoáveis para fundamentar uma ação de regresso, ficando, desse modo, incumbido de arcar inteiramente com os custos de reparação à vítima.


Tal alternativa faz apenas sentido caso o fabricante esteja na melhor posição para suportar as perdas. Caso contrário, a opção mais justa pode ser a partilha da responsabilidade entre todas as partes que participaram da criação e manutenção do agente artificial, sob a justificativa de que os custos associados ao dano são melhor distribuídos entre todas as partes potencialmente responsáveis ou entre as partes que poderiam, de maneira mais eficiente, arcar com ou segurar as perdas.[17]


Nesse ponto, é interessante a abordagem pela teoria deep pocket (literalmente, “bolso profundo”), conforme a denominação cunhada no direito norte-americano. Segundo ela, toda pessoa envolvida em atividades que apresentam riscos, mas que, ao mesmo tempo, são lucrativas e úteis para a sociedade, tem a obrigação de compensar os danos causados, como uma espécie de moeda de troca pelo lucro obtido.


Seja o criador da IA, o fabricante de produtos que empregam IA, uma empresa ou profissional faz uso dela em sua atividade, mesmo não estando diretamente inserido na cadeia produtiva (como as empresas que utilizam robot traders para otimizar transações na bolsa de valores). Em suma: aquele que tem o “bolso profundo” e aproveita os lucros dessa nova tecnologia deve ser o garantidor dos riscos inerentes à sua atividade[18].


Regimes existentes de responsabilidade solidária objetiva permitem, com base nessa teoria, que os prejudicados obtenham indenizações nos bolsos mais profundos entre as partes que compartilham uma parcela da responsabilidade, sobretudo em se tratando de uma grande corporação ou do governo, que possuem capacidade para arcar especialmente com danos de valor elevado.[19]


Similarmente, David Vladeck levanta a possibilidade de aplicação da “common enterprise liability”, teoria segundo a qual cada entidade dentro de um conjunto de empresas interconectadas pode ser responsabilizada objetiva e solidariamente pelas ações de outras empresas integrantes do grupo. A aplicação da teoria, porém, exigiria algumas adaptações, como a não exigência de que as empresas funcionassem, necessariamente, em conjunto, mas tendo como requisito apenas que elas trabalhem rumo a um objetivo comum – no caso, projetar, programar e fabricar uma inteligência artificial autônoma e seus vários componentes.[20]


Além disso, a teoria da forma como é comumente aplicada serve para garantir que, uma vez estabelecida a responsabilidade, todos os transgressores sejam responsabilizados, porém não seria possível falar em uma transgressão, no sentido de culpabilidade, na hipótese tratada. Em vez disso, haveria uma inferência de responsabilidade operacionalizada normativamente para resguardar uma parte inocente (a vítima), fazendo com que outras pessoas suportem os custos do dano.


O ponto principal, inobstante, permaneceria o mesmo: a “common enterprise liability” permite que a lei imponha uma responsabilidade conjunta sem ter que lidar com os detalhes de analisar e atribuir todos os aspectos do ocorrido a uma parte envolvida ou outra, sendo suficiente que, no esforço para alcançar um objetivo comum, as partes tenham ocasionado um dano.


Tal princípio poderia, segundo o autor, ser incorporado em um novo regime de responsabilidade objetiva para lidar com os danos que podem ser incutidos aos seres humanos por agentes autônomos de IA, quando é impossível ou impraticável atribuir falhas a uma pessoa específica. Da maneira por ele vislumbrada, essa responsabilidade comum serviria como uma forma de seguro obrigatório imposto pelos tribunais: o grupo indenizaria conjuntamente eventuais vítimas na impossibilidade de se determinar, ou menos ainda partilhar, falhas ocorridas.[21]


Referências

[1] VLADECK, David C. Machines Without Principles: Liability Rules and Artificial Intelligence. Washington Law Review, v. 89, n. 01, p. 117-150, 2014.

[2] Id., p. 142.

[3] CARTY, Sharon. Toyota’s Sudden Acceleration Problem May Have Been Triggered By Tin Whiskers. Huffpost, jan. 2012. Disponível em: https://www.huffpostbrasil.com/entry/toyota-sudden-acceleration-tin-whiskers_n_1221076?ri18n=true. Acesso em: 20 dez. 2020.

[4] DYE, Jessica. Toyota Acceleration Case Settlement Gets Final OK. Insurance Journal, jul. 2013. Disponível em: https://www.insurancejournal.com/news/national/2013/07/22/299154.htm. Acesso em: 20 dez. 2020.

[5] VLADECK, David. Op. cit., p. 143.

[6] ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by artificial intelligence. Computer Law & Security Review, v. 31, n. 3, 2015, p. 376-389.

[7] VLADECK, David. Op. cit., p. 146.

[8] ASARO, Peter M. The Liability Problem for Autonomous Artificial Agents. AAAI Spring Symposium Series, 2016. Disponível em: https://www.aaai.org/ocs/index.php/SSS/SSS16/paper/view/12699. Acesso em: 28 dez. 2020.

[9] VLADECK, David. Op. cit., p. 146-147.

[10] Idem.

[11] TURNER, Jacob. Robot Rules: Regulating Artificial Intelligence. Nova York: Palgrave Macmillan, 2019, p. 95.

[12] MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael. Novas Perspectivas sobre Ética e Responsabilidade de Inteligência Artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (Orgs.). Inteligência Artificial e Direito: Ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2019, p. 119-120.

[13] SHAVELL, Steven. Foundations of Economic Analysis of Law. Cambridge: Harvard University Press, 2004.

[14] No Código Civil brasileira, a responsabilidade objetiva agravada está preceituada na parte final do parágrafo único do artigo 927: Haverá obrigação de reparar o dano, independentemente de culpa, nos casos especificados em lei, ou quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem (BRASIL, 2002).

[15] NORONHA, Fernando. Responsabilidade Civil: Uma tentativa de ressistematização. Revista de Direito Civil, Imobiliário, Agrário e Empresarial. São Paulo, ano 17, n. 64, abr./jun. 1993, p. 7-47.

[16] POSNER, Richard. Economic analysis of law. New York: Wolters Kluwer Law and Business, 2014, p. 180.

[17] VLADECK, David. Op. cit., p. 128-129.

[18] PIRES, Thatiane. Op. cit., p. 251.

[19] ASARO, Peter. Op. cit., p. 193. Para o autor, uma possível consequência negativa da aplicação da teoria seria que os fabricantes de tecnologias de inteligência artificial que provavelmente teriam que arcar com o ônus da responsabilidade buscariam formas de limitar a capacidade dos consumidores e usuários de modificar, adaptar ou personalizar seus produtos, a fim de manter maior controle sobre como eles são utilizados. Isso também desaceleraria o processo de inovação proveniente de comunidades de hackers, código aberto e DIY. Estas, embora sejam uma fonte poderosa de inovação, teriam meios limitados para compensar indivíduos prejudicados por seus produtos, não apenas aqueles que optaram por fazer uso dos mesmos.

[20] VLADECK, David. Op. cit., p. 149.

[21] Idem.


bottom of page