Crédito da imagem:  DNA Films.

Olá, e obrigado por sua visita. Este é o segundo post de uma série de três que é dedicada a tratar sobre a relação entre estes dois temas ao mesmo tempo dinâmicos e empolgantes: Inteligência Artificial (IA) e CyberSecurity. Pretendo mostrar, com base em argumentos, e diversas referências técnicas e acadêmicas, como a IA pode, por um lado, proteger ativos de informação, e por outro também servir de ferramenta de ataque aos mesmos ativos.

Este artigo é resultado final de um trabalho de pesquisa demandado pelo grupo TEDIREI (Tecnologia, Direito e Inclusão), do qual tenho honra de fazer parte, e para o qual fui selecionado.

Se você não leu o primeiro post, clique aqui para conferir. Nesta segunda parte, apresento evidências do mau uso da Inteligência Artificial no que tange à cybersecurity. Como acontece com todos os posts, as referências que não consistirem de links aparecerão ao final de cada texto. Vamos ao que interessa!

 

Abordagem Ofensiva

Revisitando a primeira hipótese levantada neste trabalho, isto é, a IA pode ser usada para construir ou aprimorar malwares existentes, a implicação resultante é que a IA oferece totais condições para a construçãoo de códigos maliciosos novos, completamente diferentes dos que já foram desenvolvidos até então. Ou ainda, que a IA pode ser usada para sofisticar tais códigos, de maneira que se tornem variantes dos que já são atualmente conhecidos pelos mecanismos de defesa. Isto poderia significar um aumento na dificuldade de detecção de ameaças o que, numa situação mais grave, transformar-se-ia em exposição dos ativos sob proteção.

 

Entrevista com Mark Gazit

Alguns estudos e artigos corroboram com esta hipótese. O portal TechRepublic conduziu uma entrevista com Mark Gazit, CEO da empresa ThetaRay. O executivo fala de alguns ataques que já são atualmente perpetrados com o uso indevido da IA. Por exemplo, são citadas invasões à rede internacional financeira conhecida como SWIFT (Society for Worldwide Interbank Financial Telecommunication). Segundo o entrevistado, pelo fato de ter sido construída antes do advento da Internet, tal rede não foi projetada com os mecanismos de segurança necessários ao mundo conectado digitalmente.

Exterminador do Futuro – crédito: Orion Pictures

A entrevista vai além, citando possibilidades de entrada indevida em dispositivos bancários do tipo ATM (Automatic Teller Machine), usados para diversos tipos de transações financeiras como saques, transferências, extratos bancários, dentre outros. Como se tratam de dispositivos de IoT (Internet of Things) com conexão a algum tipo de rede, passam a ser alvo de criminosos em busca de roubo de dinheiro real.

De todos os trabalhos que serviram de referência e base para esta série de artigos, geram espanto as descobertas de Weiwei Hu e Ying Tan, com o uso de GANs (Generative Adversarial Networks).

Por fim, é discutida uma forma de lavagem de dinheiro através de algum código de IA que faça transações subsequentes e aleatórias entre um número de contas criadas com o único propósito de despistar a auditoria interna do banco. Como se trata de uma grande quantidade de pequenas transações, torna-se difícil para sistemas tradicionais de análise comportamental entender que se referem a uma mesma pessoa ou organização criminosa.

 

Matérias

O jornal britânico “The Guardian” também publicou uma matéria baseada na divulgação de um relatório, que explora esta faceta do mau emprego da IA. Do texto, que por sinal parece bastante completo, há alguns trechos que merecem destaque, como adiante, livremente traduzidos por mim:

A tecnologia poderia automatizar a descoberta de bugs críticos de software ou rapidamente selecionar vítimas de crime financeiro em potencial. Poderia, inclusive, ser usada para abusar do algoritmo de criação de perfis do Facebook, de maneira a criar ataques do tipo “engenharia social”, projetados para maximizar a possibilidade de um usuário clicar em um link malicioso ou descarregar um arquivo infectado.

 

Pessoas mal-intencionadas podem criar “campanhas hiper-personalizadas de desinformação, mirando cada eleitor individual com um conjunto diferente de mentiras ou inverdades, de maneira a influenciar seu comportamento ou decisão. O intuito é gerar uma quantidade tão grande de fake news, que fique quase impossível distinguir a informação real da falsa.

 

Mais trabalho também precisa ser feito quanto ao entendimento do equilíbrio ideal entre a abertura da IA, o desenvolvimento de medidas técnicas melhores para formalmente verificar a robustez dos sistemas e a garantia de que frameworks de políticas desenvolvido em um mundo com menos presença de IA consigam se adaptar ao mundo novo que estamos criando.

Doug Drinkwater escreveu um artigo para o portal CSO Online com nada menos que seis formas reais de exploração dos recursos de IA para fins maliciosos, a saber:

  1. Aumento na quantidade de malwares evasivos. Com o uso de frameworks abertos, constroem-se códigos praticamente impossíveis de detecção por sistemas de defesa, mesmo que estes sejam baseados em IA;
  2. Botnets inteligentes para ataques com escalabilidade. O objetivo é fazer uso de dispositivos de IoT, como micro controladores Arduino ou microcomputadores Raspberry Pi, de maneira a tomar controle destes equipamentos e disparar ataques globalmente dispersos em direção a múltiplas vítimas, o que é conhecido como DDoS (Distributed Denial of Service);
  3. E-mails de phishing mais inteligentes. Lisa Vaas, num post divulgado no blog Naked Security, afirma que phishing continua sendo o vetor de ataque preferido pelos cibercriminosos. Com o alcance massivo de redes sociais, e o advento do Big Data, fica muito mais fácil treinar modelos de IA e experimentá-los na intenção de entregar não apenas e-mails, como também posts e compartilhamentos maliciosos em veículos web;
  4. A inteligência contra ameaças ficando “burra”. Através de uma técnica conhecida como “raise the noise floor”, um atacante pode inundar um sistema de prevenção de invasões com falsos positivos, de maneira a forçar uma recalibragem do mesmo. Durante este procedimento, o código de ataque se modifica e consegue acesso não autorizado aos recursos sob proteção. O nome da técnica é proveniente da área de processamento de sinais digitais, onde um ruído (noise) é prejudicial à comunicação e precisa ser anulado ou reduzido;
  5. Acesso não autorizado. Com o uso de machine learning e deep learning, já é possível quebrar os sistemas de proteção contra bots conhecidos como CAPTCHA e reCAPTCHA;
  6. Envenenamento da engine de machine learning. Consiste em usar redes neurais convolucionais (CNNs) para furar bloqueios implementados por sistemas de proteção baseados em IA.

 

Redes Neurais e suas variações

As redes neurais convolucionais são parecidas com as redes neurais tradicionais, no sentido de que são construídas com neurônios que se baseiam em pesos e tendências. No entanto, as redes convolucionais fazem presunções iniciais antes de receber as respectivas entradas de seus modelos. Assim, é possível codificar algumas propriedades na arquitetura. O efeito final é um modelo bem treinado e uma redução na quantidade de parâmetros da rede.

Após executar treinamentos com datasets convencionais e adversariais, os resultados foram taxas de detecção de códigos maliciosos reduzindo para a casa de 1,5% a 2%, o que é perturbador. Basicamente, significa que o sistema de defesa do experimento foi incapaz de detectar as ameaças.

De todos os trabalhos que serviram de referência e base para esta série de artigos, geram espanto as descobertas de Weiwei Hu e Ying Tan, com o uso de GANs (Generative Adversarial Networks) ou Redes Adversariais Generativas, em tradução livre. O trabalho de ambos os pesquisadores se concentrou em desenvolver um algoritmo de treinamento para redes neurais e também treiná-las com um conjunto de amostras de malwares, com o intuito de efetuar modificações sutis nos códigos maliciosos e assim gerar ataques cujo alvo sejam ativos de informação protegidos por sistemas de detecção baseados em Machine Learning. As modificações se concentram principalmente nas distribuições de probabilidade que controlavam o algoritmo de treinamento da rede.

Em linhas gerais, redes neurais adversariais (termo sempre usado no plural) é uma arquitetura composta por pelo menos duas redes neurais separadas e treinadas para lutarem uma contra a outra. Por “lutarem” entenda-se que uma rede será responsável por tentar atacar a outra. Ou seja, os algoritmos e datasets serão confrontados para se descobrir qual dos dois lados está melhor treinado, se o que ataca ou o que defende. Este conceito foi trazido à comunidade científica através do paper de Ian Goodfellow. Você pode encontrá-lo aqui.

Ambos os cientistas presumiram que as características de detecção eram conhecidas, como a análise de APIs ou DLLs em ambientes Windows®, por exemplo, mas que o modelo de ML de defesa era desconhecido. Após executar treinamentos com datasets convencionais e adversariais, os resultados foram taxas de detecção de códigos maliciosos reduzindo para a casa de 1,5% a 2%, o que é perturbador. Basicamente, significa que o sistema de defesa do experimento foi incapaz de detectar as ameaças. A conclusão do trabalho mostra que o algoritmo proposto pode rapidamente se modificar após uma alteração das características do algoritmo/modelo de defesa, o que demonstra sua notável capacidade de adaptação.

 

Exploração do Twitter

John Seymour e Phillip Tully desenvolveram um outro trabalho, este concentrado na rede social Twitter. Batizada de SNAP_R, a rede neural realiza consultas à API do Twitter, para levantar uma lista de usuários, seus perfis e posts. Isto então serviu de material de treinamento para a rede neural. Analisados os perfis e posts, a SNAP_R escolhe um usuário que tenha mais susceptibilidade a ataques de phishing. Isto apenas confirma o que foi dito anteriormente sobre esta ser uma forma preferida de abordar vítimas em potencial.

Twitter Security – crédito: Parallax

A taxa de sucesso de cliques nos links de phishing variou de 30% a 66%!

O trabalho é bem feito, pois correlaciona informações sobre seguidores, quantidade de dados informados no perfil, tipos e quantidade de posts da viítima, bem como métricas de engajamento em campanhas (hashtags). Dados importantes como cargos e funções em empresas, listas de grupos ou outras pessoas que a vítima segue também são levados em consideração. A partir daí, a SNAP_R avalia uma série de parâmetros, tais como: se é possível descobrir a geolocalização do usuário com base em mídias (imagens e vídeos) compartilhados; se é possível realizar anáise de sentiment, palavra em Inglês que, no jargão de redes sociais, significa o que um determinado usuário pensa ou demonstra pensar a respeito de algum assunto ou outro usuário.

Para conhecer mais sobre Sentiment Analysis, visite o artigo de Symeon Symeonidis (5 Things You Need to Know about Sentiment Analysis) disponível aqui.

De posse de todos os dados citados acima, a rede neural é treinada e define-se quando e como os tweets de phishing serão gerados. Como são direcionados a usuários específicos (tweets acompanhados de @), conclui-se que são formas de manifestações de APT, conceito já explicado anteriormente (veja o post 1). Para reforçar a credibilidade de tais posts, as falsas contas de origem são criadas com fotos de pessoas reais. A taxa de sucesso de cliques nos links de phishing variou de 30% a 66%!

Ao mesmo tempo em que frameworks de código aberto e sites que oferecem educação e ferramentas gratuitas relacionadas a IA e ML, como OpenAI.com, OpenML.org e TensorFlow.org, desempenham um importante papel no que tange à disseminação do conhecimento, permitem também o uso do mesmo arcabouço para fins maliciosos, como criação de malware ou ainda perpetração de novos ataques com detecção impossível ou consideravelmente difícil por parte dos sistemas de proteção.

 

Conclusão

Com base nestes estudos, suas descobertas e o potencial de destruição e efetividade que apresentam, comprova-se que a primeira hipótese deste trabalho está confirmada. Isto é, a IA e ML podem ser usadas não apenas para construir ou aprimorar malwares já existentes, como também criar novas formas de ataques a pessoas ou sistemas de informação.

No próximo post, vou mostrar como a Inteligência Artificial também é empregada para defesa de sistemas de informação e pessoas, fazendo o bem para a humanidade. Espero por você lá!

Compartilhe:

Maurício Harley

Olá! Meu nome é Maurício Harley. Tenho 30 anos de experiência em Tecnologia da Informação. Durante minha carreira, trabalhei em setores diversos, como suporte a usuário final, manutenção de hardware, instalação e suporte a redes de computadores, programação, projetos avançados em Data Center, Cloud Computing, Cyber Security e Redes, incluindo Service Providers.

0 comentário

Deixe um comentário

Avatar placeholder

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Translate

You cannot copy content of this page.