top of page

Como Regular a Inteligência Artificial (por Oren Etzioni)


Em coluna publicada no New York Times, Oren Etzioni, diretor executivo do Instituto Allen de Inteligência Artificial, apresenta sugestões de três regras básicas para regulação de Inteligência artificial, elucidando contrapontos a visões alarmistas sobre o impacto dessas tecnologias na sociedade, com foco especial para o contexto norte-americano.


Segue a tradução:

"O empresário de tecnologia Elon Musk recentemente incitou governadores a regularem a inteligência artificial "antes que seja tarde demais". Musk insiste que a inteligência artificial representa uma "ameaça existencial à humanidade", visão essa alarmista que confunde a ciência com a ficção científica. No entanto, mesmo os pesquisadores em I.A. reconhecem que há preocupações válidas sobre o seu impacto, como em questões bélicas, de empregos e de privacidade. É natural perguntar se devemos desenvolvê-la em absoluto.

Acredito que a resposta seja sim. Mas não deveríamos tomar medidas para, pelo menos, retardar o progresso da I.A., por cautela? O problema é que, se o fizermos, nações como a China nos alcançarão. O cavalo da I.A. já saiu do celeiro, e nossa melhor aposta é tentar guiá-lo. Ele não deve ser armado, e qualquer I.A. deve ter um "interruptor de desliga" inexpugnável. Além disso, devemos regular o impacto tangível da I.A. em determinados sistemas (por exemplo, a segurança de veículos autônomos) ao invés de tentar definir e controlar o campo amorfo e de rápido desenvolvimento.

Eu proponho três regras para sistemas de inteligência artificial que são inspiradas, e desenvolvem, as “três leis da robótica” que o escritor Isaac Asimov introduziu em 1942: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal; um robô deve obedecer às ordens dadas por seres humanos, exceto quando tais ordens entrem em conflito com a lei anterior; e um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com as duas leis anteriores.

Essas três leis são elegantes, mas ambíguas: o que, exatamente, constitui dano quando se trata de I.A.? Sugiro uma base mais concreta para evitar o dano, baseado em três regras minhas.

Primeiro, o sistema deve estar sujeito a toda a gama de leis que se aplicam ao seu operador humano. Essa regra abrangeria sistemas privados, corporativos e governamentais. Nós não queremos que a I.A se envolva em cyberbullying, manipulação de ações ou ameaças terroristas; ou que o F.B.I. permita o uso de sistemas que levam as pessoas a cometer crimes. Não queremos veículos autônomos que atravessem sinais vermelhos, ou pior, armas que violam tratados internacionais.

Nossa legislação deve ser alterada para que não possamos afirmar que a A.I. fez algo que não pudemos entender ou antecipar. Simplificando, “minha I.A. fez isso" não deve desculpar o comportamento ilegal.

Minha segunda regra é que um sistema de I.A. deve divulgar claramente que não é humano. Como vimos no caso dos bots - programas de computador podem envolver-se em um diálogo cada vez mais sofisticado com pessoas reais - a sociedade precisa de garantias de que esses sistemas são claramente rotulados como tal. Em 2016, um bot conhecido como Jill Watson, que serviu como assistente de ensino para um curso on-line na Georgia Tech, enganou os alunos para pensar que era humano. Um exemplo mais sério é o uso generalizado de bots políticos pró-Trump nas mídias sociais nos dias que antecederam as eleições de 2016, de acordo com pesquisadores de Oxford.

Minha regra garantiria que as pessoas soubessem quando um bot está se passando por alguém. Já vimos, por exemplo, @DeepDrumpf - um bot que personificava com humor Donald Trump no Twitter. Esses sistemas não produzem apenas tweets falsos; produzem também vídeos de notícias falsas. Pesquisadores da Universidade de Washington divulgaram recentemente um vídeo falso do ex-presidente Barack Obama no qual ele, convincentemente, parecia estar falando palavras que haviam sido retiradas de um outro vídeo no qual dizia sobre algo totalmente diferente.

Minha terceira regra é que um sistema de I.A. não pode reter ou divulgar informações confidenciais sem a aprovação explícita da fonte. Devido à sua capacidade excepcional para extrair automaticamente, gravar e analisar informações, tais sistemas estão em uma posição privilegiada para adquirir informações confidenciais. Pense em todas as conversas que o Amazon Echo - um “alto-falante inteligente” presente em um número crescente de residências - está a par, ou a informação que seu filho pode inadvertidamente divulgar para um brinquedo, como um I.A. Barbie. Até mesmo robôs aparentemente inofensivos criam mapas de sua casa. Esse é o tipo de informação que você quer ter certeza de controlar.

Minhas três regras são, creio eu, sólidas, mas longe de serem completas. Eu os apresento aqui como ponto de partida para discussão. Quer você concorde ou não com a visão do Sr. Musk sobre a taxa de progresso dessas tecnologias e seu impacto final na humanidade (eu não), está claro que o I.A. está vindo e a sociedade precisa se preparar."

Oren Etzioni é o diretor executivo do Instituto Allen de Inteligência Artificial.

Você pode ler o original no link abaixo.

bottom of page