top of page

Ata DTEC: Análise Econômica do Direito, Contratos e Sistemas Autônomos

Grupo de Estudos em Direito e Tecnologia da Universidade Federal de Minas Gerais – DTec UFMG

Data da Reunião: 01.12.2020

Relatores: Izabella Camargo, José Augusto Scalea e Mers Benevides


Breve histórico da Análise Econômica do Direito



A Análise Econômica do Direito (AED) surge efetivamente como disciplina na década de 1960 nos Estados Unidos e tem como expoentes iniciais e nomes mais relevantes naquele momento Ronald Coase, Guido Calabresi e Gary Becker. Outros acadêmicos relevantes no campo da AED que podem ser citados são Richard Posner, Cass Sunstein, Richard Thaler e até Amartya Sen.


Coase e Calabresi trataram em seus primeiros trabalhos da alocação de direitos de propriedade sob uma ótica mais voltada para a Economia e não apenas para o Direito, utilizando-se, por exemplo de conceitos como o Ótimo de Pareto e a Eficiência de Kaldor-Hicks, noções de alocação de recurso que permitiram uma visão mais eficiente do mundo jurídico e novas formas de solução de controvérsias. Gary Becker, por outro lado, desenvolveu seus estudos nas mais diversas áreas, desde controle de porte de armas a divórcios.


Inicialmente, desde Bentham e John Stuart Mill, tanto economistas como juristas entendiam o ser humano como racional e maximizador da utilidade de suas decisões em busca do bem-estar. Entretanto com o avanço da disciplina sendo fortemente influenciada por pesquisas empíricas foram observadas diversas inconsistências no comportamento humano contrárias e este entendimento.


Vale destacar que um dos “pais” da Inteligência Artificial também é considerado um dos principais responsáveis pela evolução da disciplina, Herbert Simon, que cunhou o termo “Racionalidade Limitada”, desenvolvido posteriormente por diversos acadêmicos, inclusive Daniel Kahneman e Amos Tversky ganhadores do Prêmio Nobel por seu trabalho que demonstrou a existência de diversos “vieses” no comportamento humano que servem até hoje

de base para a elaboração de políticas públicas e sistemas de incentivos legais. Tais “vieses” atualmente são discutidos inclusive no campo da Inteligência Artificial como vimos em discussões anteriores que trataram sobre a discriminação algorítmica.


Como visto, a disciplina da Análise Econômica do Direito está fortemente conectada e por vezes se confunde com a Economia Comportamental e com a Psicologia, sendo assim um campo bastante atraente para profissionais de diversas áreas de formação e com interesse em pesquisas principalmente empíricas.


Contratos Incompletos e Alinhamento da Inteligência Artificial



De acordo com o autor Ian R. Macneil na obra The Many Futures of Contracts publicada em 1974: “nunca pode haver comunicação completa entre duas pessoas; uma promessa feita e uma promessa ouvida são duas coisas diferentes... Assim, [promessas] nunca podem ser uma base completa para lidar com o futuro.” Assim como é assumida a incompletude dos contratos, percebemos que os mercados também não estão completos e nem são perfeitamente competitivos, nem todas as negociações possíveis podem ser feitas, ao contrário da ideia do primeiro dos dois teoremas fundamentais do bem-estar.


A razão mais comumente citada de que os contratos estão incompletos é porque a integridade é praticamente impossível ou cara, são citadas na obra algumas das várias possibilidades, como haver incompletude não intencional devido à racionalidade limitada dos designers de contrato; economia em cognição e elaboração dispendiosas na qual os designers de contrato optam por não descobrir, avaliar e redigir os termos do contrato para cobrir todas circunstâncias; economia nos custos de execução quando os designers de contrato deixam de fora termos que são caros para aplicar; e a não contratualidade, pois algumas contingências e/ou ações são deixadas de fora porque não podem ser observadas ou, mesmo se observáveis, eles não podem ser verificados pelos executores a um custo razoável. Essas razões para incompletude parecem razoavelmente traduzidas para o contexto da IA.


Quando é projetado e implantado um agente de IA, é especificado o que é desejado que ele faça. Na aprendizagem por reforço, por exemplo, especifica-se uma função de recompensa. Algoritmos, então, geram comportamento de IA que funciona bem de acordo com esta função de recompensa que informa ao agente o valor de todos os estados e combinações de ações.

O problema de alinhamento de IA surge devido às diferenças entre a função de recompensa específica e quais humanos relevantes (designer, usuário, outros afetados pelo comportamento do agente) realmente valorizam. Os pesquisadores de IA pretendem que suas funções de recompensa dêem as recompensas corretas de modo a alcançar os objetivos dos humanos relevantes. Mas muitas vezes funções de recompensa de IA são - não intencionalmente e inevitavelmente - especificadas incorretamente. Elas podem refletir com precisão as recompensas humanas nas circunstâncias em que o designer pensou, mas falhou em especificar com precisão como os humanos as valorizam.


Tal problema é novo para cientistas da computação, mas tem um análogo no problema do agente humano há muito estudado por economistas e estudiosos do direito. Por várias décadas, economistas e estudiosos do direito reconheceram que escrever contratos completos é rotineiramente impossível. Estados do mundo podem ser não contratáveis: não observáveis ou, se observáveis, não verificável pelos aplicadores do contrato. Pode ser muito caro escrever de uma maneira que possa ser aplicada com razoável custo. Contratos em relacionamentos humanos são geralmente, e talvez necessariamente, incompletos.


No artigo, a análise de contratos incompletos desenvolvidos por pesquisadores da lei e de economia pode fornecer uma estrutura útil para compreender o problema de alinhamento de IA e ajudar a gerar uma abordagem sistemática para encontrar soluções.


Primeiro, é dada uma visão geral da literatura de contratos incompletos e explorar paralelos entre eles e o problema de alinhamento de IA. Hadfield destaca alguns aspectos da literatura econômica sobre contratos incompletos que podem fornecer insights para pesquisadores de alinhamento de IA. A principal contribuição do autor é trazer a visão que os economistas absorveram de estudiosos do direito e outros cientistas sobre o fato de que a contratação humana é sustentada por quantidades substanciais de estrutura externa que podem fornecer termos implícitos para preencher as lacunas em contratos incompletos.


O alinhamento de agentes com inteligência artificial aos objetivos e valores humanos é um desafio fundamental na pesquisa de IA. Ao reconhecer paralelos entre o desafio dos contratos incompletos no cenário humano e o desafio da especificação incorreta nas funções de recompensa do robô, este artigo fornece aos pesquisadores de IA uma estrutura diferente para o problema de alinhamento. Essa estrutura incentiva os pesquisadores a ver a especificação incorreta da recompensa como fundamental e não apenas o resultado de engenharia deficiente. O que gera percepções tanto para a análise dos atuais sistemas, fracamente estratégicos de IA, e potenciais sistemas, fortemente estratégicos.


O autor traz como a afirmação mais importante o fato de que o alinhamento de robôs com humanos irá inevitavelmente exigir a construção de ferramentas técnicas para permitir que a IA faça o que os agentes humanos fazem naturalmente: importar para sua avaliação de recompensas, os custos associados à realização de ações marcadas como erradas por comunidades humanas. Essas são as lições aprendidas por economistas e juristas ao longo das últimas décadas no contexto de contratos incompletos. São lições disponíveis também para pesquisadores de IA.


As Leis dos Robôs: Crimes, Contratos e Atos ilícitos


Inicialmente, Pagallo aborda o conceito de risco, apresentando 3 principais conceitos sobre tal instituto. Uma evolução baseada na troca de informações, ajuda mútua visando minimizar/reduzir a complexidade do ambiente humano e permitir a evolução da sociedade.

Outra, mais moderna de Ulrich Beck tratando da sociedade do risco e a mudança de paradigma sendo que antes na indústria clássica a lógica da produção da riqueza dominava a lógica do risco e posteriormente nessa sociedade do risco houve a inversão, agora a produção do risco é que pauta a produção da riqueza.


Por fim, a abordagem metodológica consiste resumidamente em determinar o nível de risco com base em avaliações quantitativas e qualitativas de fatores de segurança, probabilidades, engenharia de riscos, etc.


As duas últimas abordagens, em especial a metodológica, estão mais relacionadas à Análise Econômica do Direito.


O autor destaca ainda no conceito metodológico a abordagem de Frank Knight em seu texto Risk, Uncertainty and Profit, de onde se extrai basicamente que: "risco cobre duas coisas, risco propriamente dito, possível de ser mensurado ou incerteza quantificável, e risco difícil ou impossível de quantificar ou incerteza propriamente dita.”

O problema limite da análise de riscos é a falta ou a incompletude de dados, que no atual estado da arte eventualmente pode não ser mais um problema. Outro problema pode ser dado pelo comportamento imprevisível, que no caso dos sistemas autônomos ou robôs, também poderia ser mitigado.


O comportamento humano é bastante imprevisível, sendo objeto de diversas discussões no campo da Psicologia, Economia e do Direito.


Na sequência, Pagallo apresenta o caso do cirurgião robô denominado Da Vinci e dos veículos autônomos (ou não tripulados) de forma introdutória discorrendo brevemente sobre suas vantagens e desvantagens e como o aumento da sua autonomia pode afetar conceitos básicos relacionados à responsabilidade civil.


Quanto ao “médico artificial” Da Vinci, o autor destaca ainda que não vê problemas para o enquadramento da responsabilidade civil de acordo com o sistema jurídico vigente e traz o caso de Mracek X Bryn Mawr Hospital e Intuitive Surgical (fabricante do Da Vinci).


Vale destacar a diferença do sistema jurídico norte-americano neste caso onde o autor perdeu sua ação por não ter produzido prova pericial produzida por um expert que comprovasse que o dano sofrido poderia ser atribuído ao cirurgião robô.


Enfim, no caso de equipamentos/sistemas como o Da Vinci, a opinião do autor é que se tratam de meras ferramentas, por mais sofisticadas que sejam, e portanto o sistema jurídico tem solução para eventuais controvérsias sem a necessidade de qualquer inovação ou criação de legislação nova.


Na sequência ele passa a analisar os robôs traders, desenhados para efetuar negociações como ofertas e lances em mercados que tem um único impedimento, perder dinheiro deliberadamente.


Nesse cenário o autor apresenta a necessidade de uma nova abordagem quanto às regras de responsabilidade civil de tais sistemas ou robôs. Para ele, eventualmente, as regras

tradicionais de responsabilidade podem ser aplicadas, mas em alguns casos seria mais interessante e adequado a criação de novas regras, em especial ele destaca o peculium digital. Inspirado no sistema da Roma antiga onde alguns escravos detinham certa autonomia, a proposta seria atribuir aos robôs determinada quantia ou bens que limitassem a responsabilidade de seus donos/titulares/mandantes e ao mesmo tempo assegurar aos terceiros o cumprimento das obrigações.


Nas palavras do autor, seria algo semelhante a uma empresa de responsabilidade limitada, que assim garantiria a segurança das partes envolvidas em eventuais negociações.


Por fim o autor retorna a análise dos veículos não tripulados (ou autônomos) discorrendo sobre as novas interações sociais que podem decorrer da utilização de tais sistemas e as consequências no campo da responsabilidade civil que daí podem surgir. A abordagem, de 2013, parece um pouco desatualizada em relação ao texto de Casey – Amoral Machines, mas vale pelas reflexões, por exemplo, acerca da utilização da ideia de peculium e de responsabilidade objetiva (Aquiliana) para acidentes com tais veículos.



Máquinas amorais ou Como os roboticistas podem aprender a parar de se preocupar e amar a lei


Casey introduz o texto apresentando o dilema moral em torno da “decisão” que carros autônomos enfrentam em situações em que têm que escolher entre oferecer riscos ao(s) passageiro(s) ou a pedestre(os). Em seguida, ele apresenta o posicionamento que Christoph von Hugo, gerente do sistema de assistência ao motorista da Mercedes-Benz: “If you know you can save at least one person, at least save that one. Save the one in the car.”


Esse posicionamento foi objeto de tantas críticas, que recebeu uma resposta da empresa, no sentido que o comentário de Von Hugo teria sido mal interpretado e que a Mercedes-Benz continuava aderente ao princípio de fornecer o mais alto nível de segurança a todos os usuários da estrada. Entre as reações ao comentário de Von Hugo, o autor destaca as críticas dos estudiosos de um novo campo do conhecimento que está se formando em torno das discussões éticas subjacentes ao avanço no desenvolvimento e uso da robótica, o “machine ethics”. Para os adeptos desta corrente, é preciso incorporar diretrizes éticas ao “código da máquina” para que eles façam a “coisa certa”. Ou seja, para que situações como aquela

enfrentada pelos carros autônomos, os engenheiros seriam responsáveis por incluir um input com diretrizes morais extraídas da coesão de todo construto ético e moral humano, e expressas através de um sistema de valores claros e consistentes.


Para o autor, a maior problemática dessa corrente, é que ela ignora todo o sistema jurídico, que fornece uma base formal, com regras claras e consistentes, em especial, para a questão subjacente à questão ética, a da responsabilidade pelos danos. E, tendo em vista que, as empresas que desenvolvem tais máquinas são orientadas pela óptica de maximização dos lucros, a solução mais provável é que as empresas orientem as máquinas a agirem buscando a situação jurídica que seja menos onerosa economicamente. Sob essa perspectiva, o input deveria ser o sistema jurídico, e as discussões éticas e morais seriam incluídas através do processo democrático.


O autor, com base na AED em seu viés, afirma que o sistema jurídico, por suas características, oferece uma estrutura de incentivo mais vantajosa para as empresas que desenvolvem os “robôs” (e visam maximizar o lucro) e, portanto, é economicamente previsível que os algoritmos que instruem as máquinas o integre.



BIBLIOGRAFIA:



HADFIELD-MENELL, Dylan. HADFIELD, Gillian K. Incomplete Contracting and AI Alignment. Center for Law and Social Science, 2018.


PAGALLO, Ugo. The Laws of Robots; Crimes, Contracts and Torts. Capítulo 4. University of Torino, Torino Law School, 2013.


CASEY, Bryan. Amoral Machines, or: How Roboticists Can Learn to Stop Worrying and Love the Law. Northwestern University Law Review, 2017.

Comments


bottom of page