InteligĂȘncia Artificial e Cibersegurança
- DTIBR
- 10 de nov. de 2021
- 11 min de leitura
Grupo de Estudos em Direito e Tecnologia da Universidade Federal de Minas Gerais -
DTEC/UFMG
Data: 19/10/2021
Relatores: Giovanni Carlo Batista Ferrari, Giulia Zanon de Castro, Lucas de Oliveira Ribeiro

Cibersegurança
Segundo a Kasperski [1] , uma das principais companhias desenvolvedoras de sistemas de segurança informĂĄtico, a cibersegurança pode ser conceituada como a proteção de sistemas de computador contra roubo ou danos ao hardware, software ou dados eletrĂŽnicos, bem como a interrupção ou desorientação dos serviços que fornecem. A cibersegurança busca proteger ativos de informação tais como sistemas, computadores e servidores, contra ameaças cibernĂ©ticas ou ataques maliciosos. A segurança cibernĂ©tica, dentro de uma organização, deve ser trabalhada em vĂĄrios nĂveis, desde a segurança das redes fĂsicas e dos aplicativos atĂ© a educação do usuĂĄrio final.
Tipos de ameaças na cibersegurança
Segundo o ComitĂȘ Gestor da Internet (CGI-BR), os principais riscos cibernĂ©ticos de sistemas informĂĄticos, quando comprometidos sĂŁo: invasĂŁo de privacidade, furto de identidade, vazamento de informaçÔes, perda de dados, perdas financeiras e ficar sem acesso ao computador. AlĂ©m disso, o computador infectado pode ser utilizado para atividades maliciosas, como: infectar, invadir e atacar outros computadores; aplicar golpes em outros usuĂĄrios, servir de repositĂłrio para dados fraudulentos, propagar cĂłdigos maliciosos, disseminar spam, esconder a real identidade e localização de um atacante.
Principais ameaças cibernéticas na IoT
Segundo Jaime Ibarra, as principais ameaças contra dispositivos de IoT são:
â Sniffing: os dados sĂŁo coletados em tempo real nos dispositivos, microcontroladores e smartphones atravĂ©s de uma rede. Isso pode permitir que atacantes interceptem a privacidade do usuĂĄrio e a confidencialidade dos dados, sem perturbar a transmissĂŁo. Em ambientes domĂ©sticos inteligentes, ameaças de injeção de cĂłdigo estĂŁo presentes, causando um impacto na privacidade e confidencialidade do usuĂĄrio, incluindo a capacidade de invasores para acessar o sistema, incluindo operaçÔes prejudiciais, como roubo de dados pessoais.
â Man in the Middle (MitM): um invasor pode se passar por um legĂtimo dispositivo dentro da rede que pode roubar, inserir, modificar ou descartar pacotes. De acordo com Ibarra (2021), o MitM Ă© realizado pelas seguintes etapas: primeiro, o atacante aguarda uma solicitação de autenticação de um dispositivo legĂtimo (por exemplo, aplicativo de casa inteligente) a fim de roubar o pedido enviado. Em segundo lugar, MitM cria um protocolo âtunelizadoâ para autenticação por meio de um servidor back-end enviando a mensagem roubada para o servidor. Uma vez que o tĂșnel entre o MitM e o servidor Ă© configurado, o MitM começa a encaminhar mensagens legĂtimas de autenticação do cliente atravĂ©s do tĂșnel. Finalmente, o MitM desembrulha as mensagens recebidas do servidor back-end e as encaminha para o cliente legĂtimo. Por exemplo, um invasor pode usar essa tĂ©cnica para afetar sistemas, como resposta de sensor, uso de dispositivos que podem aumentar a conta custos. Os ataques MitM podem ocorrer entre servidores dentro da nuvem, entre a nuvem e a internet, bem como dentro de casa entre o controlador e o ponto de acesso. AlĂ©m disso, ataques desse tipo podem ser realizados entre estaçÔes rĂĄdio-base e a Internet, aproveitando as redes 4G e 5G.
â Man in the browser: Um invasor pode alavancar o uso de um programa malicioso para assumir o controle dos dados inseridos pelo cliente ou recuperados do servidor que normalmente Ă© exibido em um navegador da web. Isso pode mostrar dados falsos em relação ao consumo de energia, por exemplo, e nĂŁo leituras legĂtimas por um sensor inteligente.
â Denial of Service: visa parar a disponibilidade de serviços, bem como dos recursos de comunicação. Consiste em inundar a rede domĂ©stica com grande nĂșmero de solicitaçÔes num curto perĂodo de tempo. Considerando os limites de hardware de um microcontrolador (CPU e memĂłria baixas), nĂŁo pode gerenciar um grande nĂșmero de solicitaçÔes, interrompendo a comunicação entre dispositivos domĂ©sticos, bem como o controle de acesso do usuĂĄrio.
Para a proteção de dispositivos IoT em relação a essas ameaças, tĂ©cnicas de InteligĂȘncia Artificial (IA) tĂȘm sido empregadas. Entretanto, a IA tambĂ©m apresenta vulnerabilidades que tambĂ©m sĂŁo alvos de ataques e constituem desafios de cibersegurança.
InteligĂȘncia Artificial
A maioria das definiçÔes de InteligĂȘncia Artificial descrevem esse campo como sendo a capacidade das mĂĄquinas e softwares de apresentarem um comportamento considerado inteligente do ponto de vista do ser humano. Entretanto, como as mĂĄquinas nĂŁo imitam verdadeiramente a habilidade humana na execução de tarefas, um segundo conceito, considerando a capacidade de extração de padrĂ”es de dados, pode ser mais adequado. Nesse sentido, Kaplan [2] define a IA como sendo a capacidade de um sistema de interpretar em tempo hĂĄbil e de maneira correta dados limitados do mundo exterior, extraindo relaçÔes de forma a atingir um objetivo. O aprendizado de mĂĄquina, utilizado em cibersegurança, consiste em uma ramo da IA que engloba, entre outras vertentes, o aprendizado supervisionado, o aprendizado nĂŁo supervisionado e o aprendizado por reforço.
No aprendizado supervisionado, o algoritmo Ă© alimentado com o conjunto de dados, que formam as entradas, e os seus rĂłtulos correspondentes. Essas entradas podem ser constituĂdas por dados de trĂĄfego de rede normais e maliciosos, por exemplo, enquanto os rĂłtulos sĂŁo o que cada uma das observaçÔes representa: trĂĄfego normal, trĂĄfego malicioso, trĂĄfego normal. Assim, ao fornecer as entradas e as saĂdas para o algoritmo, o objetivo Ă© que o modelo aprenda os relacionamentos entre os dados. Quando uma nova observação Ă© fornecida ao modelo, ele realiza a predição, a partir das regras e caracterĂsticas aprendidas.
No aprendizado nĂŁo supervisionado, por sua vez, os rĂłtulos nĂŁo sĂŁo fornecidos para o algoritmo. O objetivo Ă© agrupar dados com caracterĂsticas semelhantes. Nesse sentido, a interpretação sobre o que cada grupo representa Ă© fornecida pelo prĂłprio ser humano.
Por fim, no aprendizado por reforço, um agente usa um sistema de recompensa e explora um ambiente para aprender qual ação ele deve tomar de forma a maximizar uma recompensa total.
Termos de uso dos equipamentos IoT
HĂĄ dificuldade de gerenciar um aviso de privacidade elaborado, em que os fabricantes devem facilitar o consentimento dos usuĂĄrios por meios indiretos. Quando os fabricantes possuem uma tela de consentimento (como clicar em um caixa de seleção), que normalmente Ă© encontrada em um site ou aplicativo da web, uma vez que hĂĄ limitaçÔes de espaço e funcionalidade no prĂłprio dispositivo, isso torna a exibição do aviso de privacidade impossĂvel. A maioria dos fabricantes fornece um aviso de privacidade de forma inadequada, direcionando para uma pĂĄgina da internet desatualizada, imprecisa, enganosa ou difĂcil de localização, em vez dos termos de privacidade incluĂdos dentro da embalagem do dispositivo ou um aviso no prĂłprio dispositivo. Fabricantes tambĂ©m podem exigir conectividade com um dispositivo mĂłvel para concordar com termos de aviso de privacidade, especialmente onde as configuraçÔes do dispositivo IoT podem ser controladas por um smartphone ou similar.
Os dispositivos de IoT alteram o modelo historicamente adotado de consentimento informado, que inclui a notificação seguida do consentimento. Este modelo fixo pode ser inadequado para engajamento dinĂąmico. Um modelo tradicional de aviso prĂ©vio seguido de consentimento nĂŁo Ă© compatĂvel com melhorias em tempo real pela maneira "always-on", que Ă© a natureza de dispositivos amplamente conectados, muitas vezes resultando em fadiga do usuĂĄrio em consentir. Fabricantes e consumidores podem ser pegos em um contĂnuo ciclo de notificação seguido de consentimento, seguido por um sistema de mudança e novo aviso seguido de novo consentimento, ad infinitum:mudança em alta frequĂȘncia provavelmente resultaria em implantação de aviso contĂnuo e demandas de consentimento subsequentes sobre os usuĂĄrios do produto.
UsuĂĄrios nĂŁo tĂȘm o hĂĄbito de lerem os termos de uso de produtos e serviços. Na verdade, uma pesquisa de 2011 mostrou que apenas 7% dos britĂąnicos leia os termos completos ao comprar um produto ou serviço online. Uma pesquisa de 2015 descobriu que 30% das pessoas nunca leram os termos de redes sociais, com um adicional de 50% lendo-os âĂ s vezesâ. Um experimento conduzido por Jonathan Obar ilustrou que seriam necessĂĄrios mais de quarenta minutos todos os dias da semana para ler todas as termos de privacidade e serviço encontrados e quando realmente testados em termos, 98% dos participantes do estudo teriam concordado em compartilhar informaçÔes com a AgĂȘncia de Segurança Nacional e desistir de seu filho primogĂȘnito.
Riscos de uso dos equipamentos IoT
Os dispositivos de IoT cada vez se tornam mais populares e acessĂveis nas casas de todo o mundo. Segundo uma pesquisa realizado por Arne Holst [3] , estima-se que existam 10 bilhĂ”es de equipamentos do tipo no ano de 2021 e que, em 14 anos, esse nĂșmero mais que se duplicarĂĄ, alcançando 25 bilhĂ”es. No entanto, a utilização desses dispositivos, no contexto atual, Ă© acompanhada por alguns fatores de risco, que podem trazer sĂ©rios danos ao usuĂĄrios, quais sĂŁo (i) a discriminação, (ii) o consentimento, (iii) a privacidade e a (iv) segurança.
Em primeiro lugar, destaca-se que a utilização da inteligĂȘncia artificial usualmente requer um grande volume de dados armazenados para o devido treinamento de mĂĄquina. Seu uso, portanto, mostra-se extremamente adequado ao se vincular aos smart devices, pois esses tendem a gerar dados sobre seu ambiente e uso constantemente. AlĂ©m disso, por estarem muitas vezes conectados ao usuĂĄrios, como Ă© o caso dos smartwatches, ou entĂŁo dispostos em ambientes de uso pĂșblico, os dados dos titulares que sĂŁo extraĂdos deles sĂŁo possivelmente identificados ou identificĂĄveis. Nesse sentido, o aprendizado de mĂĄquina sem supervisĂŁo ou intervenção humana, pode acabar codificando construçÔes.
Normalmente, tais eventos se tornam mais presentes quando os dados tratados sĂŁo sensĂveis, em especial os voltados Ă saĂșde, que podem, por exemplo, aumentar os custos para participação de um seguro ou plano, jĂĄ que, de acordo com a i-SCOOP, 86% das empresas que vendem esses serviços usam dispositivos de IoT [4].
Ademais, Ă© preciso esclarecer que a venda desses produtos volta-se em grande parte ao seu software, em detrimento do hardware. Em outras palavras, o dispositivo, em si, em geral Ă© discreto, pequeno e simples. Sua funcionalidade estĂĄ relacionada ao programa que ali estĂĄ sendo executado. Nesse viĂ©s, as empresas focam seus investimentos em lançamentos de funcionalidades e atualizaçÔes sempre que possĂvel. Tais mudanças, que sĂŁo constantes, podem ser acompanhadas pela expansĂŁo dos limites do tratamento de dados feito pelo dispositivo e, por isso, devem ser acompanhadas do (ii) consentimento do usuĂĄrio. No entanto, quando essas atualizaçÔes e as mudanças de termo de uso sĂŁo frequentes, o titular passa a nĂŁo prestar atenção nos dados que permite acesso, fazendo com que sua (iii) privacidade seja ameaçada. Nesse viĂ©s, o compartilhamento dos dados com terceiros Ă© o que se mostra mais preocupante, pois a funcionalidade original desses dados, por exemplo, a localização para utilização de um serviço de transporte, ou a frequĂȘncia cardĂaca para monitoramento pessoal, Ă© deturpada para a comunicação mercadolĂłgica ou o desenvolvimento econĂŽmico das empresas, fragilizando a possibilidade de escolha do usuĂĄrio, que Ă© extremamente influenciĂĄvel, conforme aumenta seu tempo de exposição Ă s redes sociais e aos dispositivos conectados a internet, de maneira geral. Por fim, as rĂĄpidas evoluçÔes dos produtos e a necessidade de mudanças do mercado nĂŁo acompanham a criação de diretrizes sobre privacidade pelo Estado atualizadas, tornando o ambiente digital flexĂvel quanto ao que pode ser feito com o titular.
Em Ășltimo lugar, a segurança dos dispositivos de IoT mostra-se como um dos aspectos mais frĂĄgeis da tecnologia. Isso se dĂĄ, principalmente, pelo baixo potencial de processamento e armazenamento desses devices. Por serem criados para realizar funçÔes muito especĂficas (monitorar frequĂȘncia cardĂaca, medir temperatura do ambiente, abrir e fechar portas etc.), ao contrĂĄrio dos computadores, seu hardware Ă© reduzido ao extremo, para que o custo seja o menor possĂvel. Tal caracterĂstica revela o pouco investimento na cibersegurança dos produtos, principalmente nos de baixo custo e rĂ©plicas. AlĂ©m disso, Ă© possĂvel perceber que nĂŁo hĂĄ grande observĂąncia por parte das equipes de T.I. voltado a essa tecnologia. Frequentemente, atualizaçÔes periĂłdicas sĂŁo feitas nos sistemas de computadores e de rede, firewalls sĂŁo utilizados e os antivĂrus estĂŁo sempre ativos. No entanto, ao que tange aos dispositivos de IoT, muitos desses sĂŁo deixados de lado: ainda permanecem com as credenciais de login default e nĂŁo recebem novos patches hĂĄ meses. A tĂtulo de exemplo, a empresa de segurança Darktrace, revelou que um casino foi invadido pelo termostato de um aquĂĄrio e teve os dados de seus apostadores de grande porte interceptados [5] . Nesse caso, o simples dispositivo foi apenas a porta de entrada para os invasores, mas suficiente para que realizassem um ataque bem sucedido.
InteligĂȘncia Artificial e Cibersegurança
As soluçÔes de segurança que envolvem IA podem ser divididas em soluçÔes de defesa baseadas em rede e em soluçÔes de defesa baseadas em host [6] . Na solução baseada em rede, caracterĂsticas da rede, como o tempo de comunicação entre dispositivos, sĂŁo utilizadas como informaçÔes para os algoritmos de aprendizado de mĂĄquina. Por exemplo, atravĂ©s do aprendizado supervisionado Ă© possĂvel identificar padrĂ”es de trĂĄfego que representam um comportamento normal e padrĂ”es que representam um comportamento malicioso. Essa abordagem possui a vantagem de que os dispositivos IoT geralmente sĂŁo projetados para uma função especĂfica, de forma que Ă© possĂvel prever um comportamento esperado do sistema. No entanto, como os dados maliciosos representam eventos menos frequentes, nem sempre Ă© possĂvel coletar uma sĂ©rie de dados que os caracterizam. Por essa razĂŁo, a maioria das tĂ©cnicas de segurança utilizam o aprendizado nĂŁo supervisionado, ou o aprendizado de uma Ășnica classe. Neste Ășltimo, os padrĂ”es do comportamento normal de um dispositivo IoT sĂŁo aprendidos, de forma que um desvio do comportamento esperado pode ser considerado como uma anomalia, gerando um alarme para o sistema.
Na defesa baseada em host, busca-se identificar interaçÔes do host com outros dispositivos da rede, utilizando, por exemplo, caracterĂsticas como a intensidade do sinal. Assim como nas soluçÔes baseadas em rede, essas caracterĂsticas podem alimentar um algoritmo de aprendizado de mĂĄquina para a detecção de possĂveis ataques.
No entanto, apesar de serem utilizados para aumentar a segurança dos dispositivos IoT, os sistemas que empregam aprendizado de måquina também apresentam vulnerabilidades, que podem ser portas de entrada a ataques cibernéticos.
Vulnerabilidades do Aprendizado de MĂĄquina
Diferentemente dos ataques cibernĂ©ticos mais conhecidos, que geralmente exploram as falhas em um cĂłdigo ou bugs, os ataques de ML tambĂ©m exploram as caracterĂsticas inerentes de um algoritmo de aprendizado de mĂĄquina: reconhecer padrĂ”es. Modificando os padrĂ”es de dados que sĂŁo utilizados como entrada de um modelo e sem a necessidade da utilização direta de um computador, Ă© possĂvel alterar o comportamento de um sistema.
Um modelo de aprendizado de mĂĄquina pode ser projetado, por exemplo, para reconhecer sinais de placas de trĂąnsito, extraindo padrĂ”es como cores, bordas e formas para reconhecer o que um sinal de "Pare" representa. Essa placa pode ser modificada fisicamente atravĂ©s de padrĂ”es especĂficos, deixando de ser classificada como um sinal de parada e passando a ser classificada como um sinal de luz verde, de forma que o sistema cometa um erro. Esse Ă© o denominado ataque de entrada[ 7]. Essas mudanças podem nĂŁo ser evidentes para a percepção do ser humano e podem ocorrer, por exemplo, a nĂvel de pixel em uma imagem. Isso acontece devido aos padrĂ”es que o modelo aprendeu a associar, que nĂŁo ocorre da mesma forma que o aprendizado humano. Para o computador, uma pequena modificação no dado de entrada pode induzir a uma grande alteração na saĂda.
Em um ataque digital, podem ser adicionadas perturbaçÔes imperceptĂveis que geram uma alteração no comportamento do algoritmo. Nesse contexto, o ataque de entrada poderia ser utilizado por um invasor com o objetivo de evitar a detecção de um material especĂfico por um sistema de IA, fazendo com que um material de conteĂșdo ilĂcito, por exemplo, se propague sem restriçÔes. As alteraçÔes imperceptĂveis podem ser adicionadas, inclusive, a um objeto fĂsico.
Foi demonstrado que uma tartaruga impressa em 3D com um padrĂŁo de entrada imperceptĂvel pode enganar detectores de objetos 8 . Essa estratĂ©gia poderia ser utilizada de maneira ilegal para evitar que objetos como uma arma 3D seja detectado por algoritmos de aprendizado de mĂĄquina. Assim, os esforços de IA se concentram em "aprender" padrĂ”es mais fortes, de forma que uma pequena mudança na entrada nĂŁo gere uma grande alteração na saĂda.
CaracterĂsticas do mercado de varejo de eletrodomĂ©sticos
Em 2017, o Procon 9 de SĂŁo Paulo avaliou 117 itens de eletrodomĂ©sticos em 7 lojas distintas, de diferentes fornecedores. O mercado Ă© bastante competitivo, mas o preço dos mesmo produtos pode variar de 5 a 80% de uma loja para outra a depender do modo de pagamento. O segundo Nogami [10] , conceito de inovação praticado no mercado da baixa renda nĂŁo Ă© de uma inovação efetivamente tecnolĂłgica ou uma inovação radical, sĂŁo adaptaçÔes de algo que jĂĄ existe, ou seja, inovação incremental. Estes incrementos sĂŁo oriundos de inovaçÔes radicais desenvolvidas inicialmente para os consumidores de alta renda. Entretanto, pode-se observar um fenĂŽmeno de downsizing (redução de atributos) nas caracterĂsticas dos produtos para atender Ă demanda dos consumidores de baixa renda. Esse fenĂŽmeno nĂŁo necessariamente afeta os produtos diminuindo sua qualidade, uma vez que o consumidor de baixa renda apesar de prezar enfaticamente pelo preço,
ReferĂȘncias e Bibliografia
[1] DisponĂvel em www.karsperski.com. Acesso em 23/10/2021.
[2] Kaplan, Jerry. Artificial Intelligence: What Everyone Needs to KnowR. Oxford University Press, 2016.
[3] DisponĂvel em https://www.statista.com/statistics/1183457/iot-connected-devices-worldwide. Acesso em 23/10/2021.
[4] DisponĂvel em https://www.i-scoop.eu/internet-of-things-iot/internet-things-healthcare. Acesso em 23/10/2021.
[5] DisponĂvel em https://www.entrepreneur.com/article/368943. Acesso em 23/10/2021.
[6] Zeadally, Sherali, and Michail Tsikerdekis. "Securing Internet of Things (IoT) with machine learning." International Journal of Communication Systems 33.1 (2020): e4169
[7] DisponĂvel em https://www.belfercenter.org/publication/AttackingAI. Acesso em 24/10/2021.
[8] Athalye, Anish, et al. "Synthesizing robust adversarial examples." International conference on machine learning. PMLR, 2018.
[9] DisponĂvel em https://www.procon.sp.gov.br/wp-content/uploads/files/RTELETRODOM2017.pdf . Acesso em 23/10/2021.
[10] DisponĂvel em https://www.researchgate.net/publication/272417544 . Acesso em 23/10/2021.
IBARRA, Jaime et al. Enhancing Smart Home Threat Detection with Artificial Intelligence. In: Cybersecurity, Privacy and Freedom Protection in the Connected World. Springer, Cham, 2021. p. 35-53.
TSCHIDER, Charlotte A. Regulating the internet of things: discrimination, privacy, and cybersecurity in the artificial intelligence age. Denv. L. Rev., v. 96, p. 87, 2018.
ZEADALLY, Sherali; TSIKERDEKIS, Michail. Securing Internet of Things (IoT) with machine learning. International Journal of Communication Systems, v. 33, n. 1, p. e4169, 2020.
Bibliografia complementar
ATHALYE, Anish et al. Synthesizing robust adversarial examples. In: International conference on machine learning. PMLR, 2018. p. 284-293.
COMITER, Marcus. Attacking artificial intelligence. Belfer Center Paper, p. 2019-08,
2019.
KAPLAN, Jerry. Artificial Intelligence: What Everyone Needs to KnowR. Oxford
University Press, 2016.NOGAMI, V. K. C.; VIEIRA, FRANCISCO GIOVANNI DAVID; MEDEIROS, JULIANA. Perspectiva social e tecnolĂłgica da inovação no mercado de baixa renda. XVI SeminĂĄrios em AdministraçãoâSemead, 2013.