top of page

InteligĂȘncia Artificial e Cibersegurança

  • Foto do escritor: DTIBR
    DTIBR
  • 10 de nov. de 2021
  • 11 min de leitura

Grupo de Estudos em Direito e Tecnologia da Universidade Federal de Minas Gerais -

DTEC/UFMG


Data: 19/10/2021

Relatores: Giovanni Carlo Batista Ferrari, Giulia Zanon de Castro, Lucas de Oliveira Ribeiro




Cibersegurança


Segundo a Kasperski [1] , uma das principais companhias desenvolvedoras de sistemas de segurança informåtico, a cibersegurança pode ser conceituada como a proteção de sistemas de computador contra roubo ou danos ao hardware, software ou dados eletrÎnicos, bem como a interrupção ou desorientação dos serviços que fornecem. A cibersegurança busca proteger ativos de informação tais como sistemas, computadores e servidores, contra ameaças cibernéticas ou ataques maliciosos. A segurança cibernética, dentro de uma organização, deve ser trabalhada em vårios níveis, desde a segurança das redes físicas e dos aplicativos até a educação do usuårio final.


Tipos de ameaças na cibersegurança


Segundo o ComitĂȘ Gestor da Internet (CGI-BR), os principais riscos cibernĂ©ticos de sistemas informĂĄticos, quando comprometidos sĂŁo: invasĂŁo de privacidade, furto de identidade, vazamento de informaçÔes, perda de dados, perdas financeiras e ficar sem acesso ao computador. AlĂ©m disso, o computador infectado pode ser utilizado para atividades maliciosas, como: infectar, invadir e atacar outros computadores; aplicar golpes em outros usuĂĄrios, servir de repositĂłrio para dados fraudulentos, propagar cĂłdigos maliciosos, disseminar spam, esconder a real identidade e localização de um atacante.


Principais ameaças cibernéticas na IoT

Segundo Jaime Ibarra, as principais ameaças contra dispositivos de IoT são:

● Sniffing: os dados sĂŁo coletados em tempo real nos dispositivos, microcontroladores e smartphones atravĂ©s de uma rede. Isso pode permitir que atacantes interceptem a privacidade do usuĂĄrio e a confidencialidade dos dados, sem perturbar a transmissĂŁo. Em ambientes domĂ©sticos inteligentes, ameaças de injeção de cĂłdigo estĂŁo presentes, causando um impacto na privacidade e confidencialidade do usuĂĄrio, incluindo a capacidade de invasores para acessar o sistema, incluindo operaçÔes prejudiciais, como roubo de dados pessoais.


● Man in the Middle (MitM): um invasor pode se passar por um legĂ­timo dispositivo dentro da rede que pode roubar, inserir, modificar ou descartar pacotes. De acordo com Ibarra (2021), o MitM Ă© realizado pelas seguintes etapas: primeiro, o atacante aguarda uma solicitação de autenticação de um dispositivo legĂ­timo (por exemplo, aplicativo de casa inteligente) a fim de roubar o pedido enviado. Em segundo lugar, MitM cria um protocolo “tunelizado” para autenticação por meio de um servidor back-end enviando a mensagem roubada para o servidor. Uma vez que o tĂșnel entre o MitM e o servidor Ă© configurado, o MitM começa a encaminhar mensagens legĂ­timas de autenticação do cliente atravĂ©s do tĂșnel. Finalmente, o MitM desembrulha as mensagens recebidas do servidor back-end e as encaminha para o cliente legĂ­timo. Por exemplo, um invasor pode usar essa tĂ©cnica para afetar sistemas, como resposta de sensor, uso de dispositivos que podem aumentar a conta custos. Os ataques MitM podem ocorrer entre servidores dentro da nuvem, entre a nuvem e a internet, bem como dentro de casa entre o controlador e o ponto de acesso. AlĂ©m disso, ataques desse tipo podem ser realizados entre estaçÔes rĂĄdio-base e a Internet, aproveitando as redes 4G e 5G.


● Man in the browser: Um invasor pode alavancar o uso de um programa malicioso para assumir o controle dos dados inseridos pelo cliente ou recuperados do servidor que normalmente Ă© exibido em um navegador da web. Isso pode mostrar dados falsos em relação ao consumo de energia, por exemplo, e nĂŁo leituras legĂ­timas por um sensor inteligente.


● Denial of Service: visa parar a disponibilidade de serviços, bem como dos recursos de comunicação. Consiste em inundar a rede domĂ©stica com grande nĂșmero de solicitaçÔes num curto perĂ­odo de tempo. Considerando os limites de hardware de um microcontrolador (CPU e memĂłria baixas), nĂŁo pode gerenciar um grande nĂșmero de solicitaçÔes, interrompendo a comunicação entre dispositivos domĂ©sticos, bem como o controle de acesso do usuĂĄrio.


Para a proteção de dispositivos IoT em relação a essas ameaças, tĂ©cnicas de InteligĂȘncia Artificial (IA) tĂȘm sido empregadas. Entretanto, a IA tambĂ©m apresenta vulnerabilidades que tambĂ©m sĂŁo alvos de ataques e constituem desafios de cibersegurança.


InteligĂȘncia Artificial


A maioria das definiçÔes de InteligĂȘncia Artificial descrevem esse campo como sendo a capacidade das mĂĄquinas e softwares de apresentarem um comportamento considerado inteligente do ponto de vista do ser humano. Entretanto, como as mĂĄquinas nĂŁo imitam verdadeiramente a habilidade humana na execução de tarefas, um segundo conceito, considerando a capacidade de extração de padrĂ”es de dados, pode ser mais adequado. Nesse sentido, Kaplan [2] define a IA como sendo a capacidade de um sistema de interpretar em tempo hĂĄbil e de maneira correta dados limitados do mundo exterior, extraindo relaçÔes de forma a atingir um objetivo. O aprendizado de mĂĄquina, utilizado em cibersegurança, consiste em uma ramo da IA que engloba, entre outras vertentes, o aprendizado supervisionado, o aprendizado nĂŁo supervisionado e o aprendizado por reforço.


No aprendizado supervisionado, o algoritmo é alimentado com o conjunto de dados, que formam as entradas, e os seus rótulos correspondentes. Essas entradas podem ser constituídas por dados de tråfego de rede normais e maliciosos, por exemplo, enquanto os rótulos são o que cada uma das observaçÔes representa: tråfego normal, tråfego malicioso, tråfego normal. Assim, ao fornecer as entradas e as saídas para o algoritmo, o objetivo é que o modelo aprenda os relacionamentos entre os dados. Quando uma nova observação é fornecida ao modelo, ele realiza a predição, a partir das regras e características aprendidas.


No aprendizado não supervisionado, por sua vez, os rótulos não são fornecidos para o algoritmo. O objetivo é agrupar dados com características semelhantes. Nesse sentido, a interpretação sobre o que cada grupo representa é fornecida pelo próprio ser humano.


Por fim, no aprendizado por reforço, um agente usa um sistema de recompensa e explora um ambiente para aprender qual ação ele deve tomar de forma a maximizar uma recompensa total.


Termos de uso dos equipamentos IoT


Hå dificuldade de gerenciar um aviso de privacidade elaborado, em que os fabricantes devem facilitar o consentimento dos usuårios por meios indiretos. Quando os fabricantes possuem uma tela de consentimento (como clicar em um caixa de seleção), que normalmente é encontrada em um site ou aplicativo da web, uma vez que hå limitaçÔes de espaço e funcionalidade no próprio dispositivo, isso torna a exibição do aviso de privacidade impossível. A maioria dos fabricantes fornece um aviso de privacidade de forma inadequada, direcionando para uma pågina da internet desatualizada, imprecisa, enganosa ou difícil de localização, em vez dos termos de privacidade incluídos dentro da embalagem do dispositivo ou um aviso no próprio dispositivo. Fabricantes também podem exigir conectividade com um dispositivo móvel para concordar com termos de aviso de privacidade, especialmente onde as configuraçÔes do dispositivo IoT podem ser controladas por um smartphone ou similar.


Os dispositivos de IoT alteram o modelo historicamente adotado de consentimento informado, que inclui a notificação seguida do consentimento. Este modelo fixo pode ser inadequado para engajamento dinĂąmico. Um modelo tradicional de aviso prĂ©vio seguido de consentimento nĂŁo Ă© compatĂ­vel com melhorias em tempo real pela maneira "always-on", que Ă© a natureza de dispositivos amplamente conectados, muitas vezes resultando em fadiga do usuĂĄrio em consentir. Fabricantes e consumidores podem ser pegos em um contĂ­nuo ciclo de notificação seguido de consentimento, seguido por um sistema de mudança e novo aviso seguido de novo consentimento, ad infinitum:mudança em alta frequĂȘncia provavelmente resultaria em implantação de aviso contĂ­nuo e demandas de consentimento subsequentes sobre os usuĂĄrios do produto.


UsuĂĄrios nĂŁo tĂȘm o hĂĄbito de lerem os termos de uso de produtos e serviços. Na verdade, uma pesquisa de 2011 mostrou que apenas 7% dos britĂąnicos leia os termos completos ao comprar um produto ou serviço online. Uma pesquisa de 2015 descobriu que 30% das pessoas nunca leram os termos de redes sociais, com um adicional de 50% lendo-os “às vezes”. Um experimento conduzido por Jonathan Obar ilustrou que seriam necessĂĄrios mais de quarenta minutos todos os dias da semana para ler todas as termos de privacidade e serviço encontrados e quando realmente testados em termos, 98% dos participantes do estudo teriam concordado em compartilhar informaçÔes com a AgĂȘncia de Segurança Nacional e desistir de seu filho primogĂȘnito.


Riscos de uso dos equipamentos IoT


Os dispositivos de IoT cada vez se tornam mais populares e acessĂ­veis nas casas de todo o mundo. Segundo uma pesquisa realizado por Arne Holst [3] , estima-se que existam 10 bilhĂ”es de equipamentos do tipo no ano de 2021 e que, em 14 anos, esse nĂșmero mais que se duplicarĂĄ, alcançando 25 bilhĂ”es. No entanto, a utilização desses dispositivos, no contexto atual, Ă© acompanhada por alguns fatores de risco, que podem trazer sĂ©rios danos ao usuĂĄrios, quais sĂŁo (i) a discriminação, (ii) o consentimento, (iii) a privacidade e a (iv) segurança.


Em primeiro lugar, destaca-se que a utilização da inteligĂȘncia artificial usualmente requer um grande volume de dados armazenados para o devido treinamento de mĂĄquina. Seu uso, portanto, mostra-se extremamente adequado ao se vincular aos smart devices, pois esses tendem a gerar dados sobre seu ambiente e uso constantemente. AlĂ©m disso, por estarem muitas vezes conectados ao usuĂĄrios, como Ă© o caso dos smartwatches, ou entĂŁo dispostos em ambientes de uso pĂșblico, os dados dos titulares que sĂŁo extraĂ­dos deles sĂŁo possivelmente identificados ou identificĂĄveis. Nesse sentido, o aprendizado de mĂĄquina sem supervisĂŁo ou intervenção humana, pode acabar codificando construçÔes.


Normalmente, tais eventos se tornam mais presentes quando os dados tratados sĂŁo sensĂ­veis, em especial os voltados Ă  saĂșde, que podem, por exemplo, aumentar os custos para participação de um seguro ou plano, jĂĄ que, de acordo com a i-SCOOP, 86% das empresas que vendem esses serviços usam dispositivos de IoT [4].


Ademais, Ă© preciso esclarecer que a venda desses produtos volta-se em grande parte ao seu software, em detrimento do hardware. Em outras palavras, o dispositivo, em si, em geral Ă© discreto, pequeno e simples. Sua funcionalidade estĂĄ relacionada ao programa que ali estĂĄ sendo executado. Nesse viĂ©s, as empresas focam seus investimentos em lançamentos de funcionalidades e atualizaçÔes sempre que possĂ­vel. Tais mudanças, que sĂŁo constantes, podem ser acompanhadas pela expansĂŁo dos limites do tratamento de dados feito pelo dispositivo e, por isso, devem ser acompanhadas do (ii) consentimento do usuĂĄrio. No entanto, quando essas atualizaçÔes e as mudanças de termo de uso sĂŁo frequentes, o titular passa a nĂŁo prestar atenção nos dados que permite acesso, fazendo com que sua (iii) privacidade seja ameaçada. Nesse viĂ©s, o compartilhamento dos dados com terceiros Ă© o que se mostra mais preocupante, pois a funcionalidade original desses dados, por exemplo, a localização para utilização de um serviço de transporte, ou a frequĂȘncia cardĂ­aca para monitoramento pessoal, Ă© deturpada para a comunicação mercadolĂłgica ou o desenvolvimento econĂŽmico das empresas, fragilizando a possibilidade de escolha do usuĂĄrio, que Ă© extremamente influenciĂĄvel, conforme aumenta seu tempo de exposição Ă s redes sociais e aos dispositivos conectados a internet, de maneira geral. Por fim, as rĂĄpidas evoluçÔes dos produtos e a necessidade de mudanças do mercado nĂŁo acompanham a criação de diretrizes sobre privacidade pelo Estado atualizadas, tornando o ambiente digital flexĂ­vel quanto ao que pode ser feito com o titular.


Em Ășltimo lugar, a segurança dos dispositivos de IoT mostra-se como um dos aspectos mais frĂĄgeis da tecnologia. Isso se dĂĄ, principalmente, pelo baixo potencial de processamento e armazenamento desses devices. Por serem criados para realizar funçÔes muito especĂ­ficas (monitorar frequĂȘncia cardĂ­aca, medir temperatura do ambiente, abrir e fechar portas etc.), ao contrĂĄrio dos computadores, seu hardware Ă© reduzido ao extremo, para que o custo seja o menor possĂ­vel. Tal caracterĂ­stica revela o pouco investimento na cibersegurança dos produtos, principalmente nos de baixo custo e rĂ©plicas. AlĂ©m disso, Ă© possĂ­vel perceber que nĂŁo hĂĄ grande observĂąncia por parte das equipes de T.I. voltado a essa tecnologia. Frequentemente, atualizaçÔes periĂłdicas sĂŁo feitas nos sistemas de computadores e de rede, firewalls sĂŁo utilizados e os antivĂ­rus estĂŁo sempre ativos. No entanto, ao que tange aos dispositivos de IoT, muitos desses sĂŁo deixados de lado: ainda permanecem com as credenciais de login default e nĂŁo recebem novos patches hĂĄ meses. A tĂ­tulo de exemplo, a empresa de segurança Darktrace, revelou que um casino foi invadido pelo termostato de um aquĂĄrio e teve os dados de seus apostadores de grande porte interceptados [5] . Nesse caso, o simples dispositivo foi apenas a porta de entrada para os invasores, mas suficiente para que realizassem um ataque bem sucedido.


InteligĂȘncia Artificial e Cibersegurança


As soluçÔes de segurança que envolvem IA podem ser divididas em soluçÔes de defesa baseadas em rede e em soluçÔes de defesa baseadas em host [6] . Na solução baseada em rede, caracterĂ­sticas da rede, como o tempo de comunicação entre dispositivos, sĂŁo utilizadas como informaçÔes para os algoritmos de aprendizado de mĂĄquina. Por exemplo, atravĂ©s do aprendizado supervisionado Ă© possĂ­vel identificar padrĂ”es de trĂĄfego que representam um comportamento normal e padrĂ”es que representam um comportamento malicioso. Essa abordagem possui a vantagem de que os dispositivos IoT geralmente sĂŁo projetados para uma função especĂ­fica, de forma que Ă© possĂ­vel prever um comportamento esperado do sistema. No entanto, como os dados maliciosos representam eventos menos frequentes, nem sempre Ă© possĂ­vel coletar uma sĂ©rie de dados que os caracterizam. Por essa razĂŁo, a maioria das tĂ©cnicas de segurança utilizam o aprendizado nĂŁo supervisionado, ou o aprendizado de uma Ășnica classe. Neste Ășltimo, os padrĂ”es do comportamento normal de um dispositivo IoT sĂŁo aprendidos, de forma que um desvio do comportamento esperado pode ser considerado como uma anomalia, gerando um alarme para o sistema.


Na defesa baseada em host, busca-se identificar interaçÔes do host com outros dispositivos da rede, utilizando, por exemplo, características como a intensidade do sinal. Assim como nas soluçÔes baseadas em rede, essas características podem alimentar um algoritmo de aprendizado de måquina para a detecção de possíveis ataques.


No entanto, apesar de serem utilizados para aumentar a segurança dos dispositivos IoT, os sistemas que empregam aprendizado de måquina também apresentam vulnerabilidades, que podem ser portas de entrada a ataques cibernéticos.


Vulnerabilidades do Aprendizado de MĂĄquina


Diferentemente dos ataques cibernéticos mais conhecidos, que geralmente exploram as falhas em um código ou bugs, os ataques de ML também exploram as características inerentes de um algoritmo de aprendizado de måquina: reconhecer padrÔes. Modificando os padrÔes de dados que são utilizados como entrada de um modelo e sem a necessidade da utilização direta de um computador, é possível alterar o comportamento de um sistema.


Um modelo de aprendizado de måquina pode ser projetado, por exemplo, para reconhecer sinais de placas de trùnsito, extraindo padrÔes como cores, bordas e formas para reconhecer o que um sinal de "Pare" representa. Essa placa pode ser modificada fisicamente através de padrÔes específicos, deixando de ser classificada como um sinal de parada e passando a ser classificada como um sinal de luz verde, de forma que o sistema cometa um erro. Esse é o denominado ataque de entrada[ 7]. Essas mudanças podem não ser evidentes para a percepção do ser humano e podem ocorrer, por exemplo, a nível de pixel em uma imagem. Isso acontece devido aos padrÔes que o modelo aprendeu a associar, que não ocorre da mesma forma que o aprendizado humano. Para o computador, uma pequena modificação no dado de entrada pode induzir a uma grande alteração na saída.


Em um ataque digital, podem ser adicionadas perturbaçÔes imperceptĂ­veis que geram uma alteração no comportamento do algoritmo. Nesse contexto, o ataque de entrada poderia ser utilizado por um invasor com o objetivo de evitar a detecção de um material especĂ­fico por um sistema de IA, fazendo com que um material de conteĂșdo ilĂ­cito, por exemplo, se propague sem restriçÔes. As alteraçÔes imperceptĂ­veis podem ser adicionadas, inclusive, a um objeto fĂ­sico.


Foi demonstrado que uma tartaruga impressa em 3D com um padrão de entrada imperceptível pode enganar detectores de objetos 8 . Essa estratégia poderia ser utilizada de maneira ilegal para evitar que objetos como uma arma 3D seja detectado por algoritmos de aprendizado de måquina. Assim, os esforços de IA se concentram em "aprender" padrÔes mais fortes, de forma que uma pequena mudança na entrada não gere uma grande alteração na saída.


Características do mercado de varejo de eletrodomésticos


Em 2017, o Procon 9 de São Paulo avaliou 117 itens de eletrodomésticos em 7 lojas distintas, de diferentes fornecedores. O mercado é bastante competitivo, mas o preço dos mesmo produtos pode variar de 5 a 80% de uma loja para outra a depender do modo de pagamento. O segundo Nogami [10] , conceito de inovação praticado no mercado da baixa renda não é de uma inovação efetivamente tecnológica ou uma inovação radical, são adaptaçÔes de algo que jå existe, ou seja, inovação incremental. Estes incrementos são oriundos de inovaçÔes radicais desenvolvidas inicialmente para os consumidores de alta renda. Entretanto, pode-se observar um fenÎmeno de downsizing (redução de atributos) nas características dos produtos para atender à demanda dos consumidores de baixa renda. Esse fenÎmeno não necessariamente afeta os produtos diminuindo sua qualidade, uma vez que o consumidor de baixa renda apesar de prezar enfaticamente pelo preço,



ReferĂȘncias e Bibliografia


[1] DisponĂ­vel em www.karsperski.com. Acesso em 23/10/2021.


[2] Kaplan, Jerry. Artificial Intelligence: What Everyone Needs to KnowR. Oxford University Press, 2016.


[3] DisponĂ­vel em https://www.statista.com/statistics/1183457/iot-connected-devices-worldwide. Acesso em 23/10/2021.


[4] DisponĂ­vel em https://www.i-scoop.eu/internet-of-things-iot/internet-things-healthcare. Acesso em 23/10/2021.


[5] DisponĂ­vel em https://www.entrepreneur.com/article/368943. Acesso em 23/10/2021.


[6] Zeadally, Sherali, and Michail Tsikerdekis. "Securing Internet of Things (IoT) with machine learning." International Journal of Communication Systems 33.1 (2020): e4169


[7] DisponĂ­vel em https://www.belfercenter.org/publication/AttackingAI. Acesso em 24/10/2021.


[8] Athalye, Anish, et al. "Synthesizing robust adversarial examples." International conference on machine learning. PMLR, 2018.


[9] DisponĂ­vel em https://www.procon.sp.gov.br/wp-content/uploads/files/RTELETRODOM2017.pdf . Acesso em 23/10/2021.


[10] DisponĂ­vel em https://www.researchgate.net/publication/272417544 . Acesso em 23/10/2021.


IBARRA, Jaime et al. Enhancing Smart Home Threat Detection with Artificial Intelligence. In: Cybersecurity, Privacy and Freedom Protection in the Connected World. Springer, Cham, 2021. p. 35-53.


TSCHIDER, Charlotte A. Regulating the internet of things: discrimination, privacy, and cybersecurity in the artificial intelligence age. Denv. L. Rev., v. 96, p. 87, 2018.


ZEADALLY, Sherali; TSIKERDEKIS, Michail. Securing Internet of Things (IoT) with machine learning. International Journal of Communication Systems, v. 33, n. 1, p. e4169, 2020.


Bibliografia complementar

ATHALYE, Anish et al. Synthesizing robust adversarial examples. In: International conference on machine learning. PMLR, 2018. p. 284-293.


COMITER, Marcus. Attacking artificial intelligence. Belfer Center Paper, p. 2019-08,

2019.


KAPLAN, Jerry. Artificial Intelligence: What Everyone Needs to KnowR. Oxford

University Press, 2016.NOGAMI, V. K. C.; VIEIRA, FRANCISCO GIOVANNI DAVID; MEDEIROS, JULIANA. Perspectiva social e tecnológica da inovação no mercado de baixa renda. XVI Seminários em Administração–Semead, 2013.

bottom of page