Microsoft e a OpenAI identificaram que cibercriminosos estão utilizando softwares com inteligência artificial (IA) para aperfeiçoar seus crimes. Segundo pesquisa colaborativa publicada nas últimas semanas, golpistas já se aproveitam de recursos como ChatGPT para desenvolver malware e aprimorar ameaças focadas em engenharia social. As empresas afirmam que já foram detectados grupos ligados à Rússia, Coreia do Norte, Irã e China. A seguir, entenda mais sobre o estudo.
Como criminosos estão usando inteligência artificial para melhorar ciberataques?
Nos últimos anos, os ataques cibernéticos ficaram mais sofisticados e eficientes. Isso se deve à ampliação do uso da Internet entre a população mundial e, além disso, ao aprimoramento de ferramentas com inteligência artificial. Em uma pesquisa colaborativa entre Microsoft e a OpenAI foram expostos potenciais riscos do uso indevido de grandes modelos de linguagem (LLM). Além disso, as empresas apresentaram indícios de que grupos criminosos estão usando as plataformas para elevar o nível dos ataques.
O estudo afirma que o grupo de hackers Strontium, ligado à inteligência militar russa, está usando a IA para adquirir conhecimento sobre protocolos de comunicação via satélite, parâmetros técnicos específicos e tecnologia de imagem de radar. O grupo ficou bastante conhecido por ter envolvimento no vazamento de dados que aconteceu durante a campanha presidencial de Hillary Clinton, em 2016.
Outro grupo malicioso, Thallium, da Coreia do Norte, está utilizando grandes modelos de linguagem para estudar vulnerabilidades que são reportadas publicamente e usam os dados para atacar organizações. Além disso, a tecnologia também é utilizada para criar scripts maliciosos e aprimorar campanhas de phishing.
Ainda segundo a pesquisa, hackers afiliados ao governo chinês usam a inteligência artificial para pesquisar sobre seus alvos, criar scripts, traduzir mensagens maliciosas e aprimorar ferramentas. Já o grupo iraniano Curium também usa a tecnologia para criar e-mails de phishing e desenvolver códigos que conseguem enganar os antivírus.
É claro que vale citar o lado político da pesquisa. O levantamento foi feito por duas empresas estadunidenses e, não coincidentemente, os criminosos apontados são oriundos de países com relações pouco amigáveis com os Estados Unidos. Por isso, é provável que golpistas de outras nacionalidades também usem recursos de inteligência artificial em suas ações.
O que dizem a Microsoft e a OpenAI?
O uso da inteligência artificial em ciberataques se tornou uma preocupação das empresas que desenvolvem essas ferramentas. Em especial, após o surgimento de plataformas como WormGPT e FraudGPT, que usam IA para desenvolver e-mails maliciosos e recursos de quebra de segurança.
Em um comunicado oficial, a Microsoft e a OpenAI afirmam que o objetivo de publicar essa pesquisa é expor as estratégias dos grupos criminosos, ainda em fase inicial, e compartilhar as providências que estão sendo tomadas para bloquear as ameaças. As empresas informaram ainda que nenhum ataque significativo utilizando IA foi identificado. Além disso, todas as contas associadas a grupos criminosos estão sendo desativadas.
Embora o uso da tecnologia em ciberataques ainda seja limitado, a Microsoft alerta sobre os perigos que estão por vir. Uma das maiores preocupações é o uso da síntese de voz para cometer fraudes. Afinal, com uma amostra de apenas 3 segundos, alguns softwares de IA podem “clonar” a voz de alguém. Sendo assim, basta uma mensagem de áudio ou uma chamada curta para que um golpista consiga material suficiente para realizar o deep fake.
O que está sendo feito para evitar o uso de IA em ciberataques?
A melhor arma para se proteger contra ataques que utilizam inteligência artificial é a própria inteligência artificial. Segundo Homa Hayatyfar, gerente de análise de detecção de ameaças da Microsoft, os grupos criminosos estão usando a IA para aprimorar seus ataques, o que foi comprovado no rastreamento de mais de 300 invasores. A empresa, por sua vez, também usa softwares para se proteger, detectar e reagir às ameaças.
A Microsoft está desenvolvendo um “Copiloto de Segurança”, que usa a inteligência artificial para identificar violações e sintetizar o enorme volume de sinais e dados gerados por ferramentas de cibersegurança, tornando-os mais fáceis de entender. A big tech também está revendo seus protocolos de segurança após sofrer um forte ataque em sua plataforma de computação Azure, resultando em executivos da Microsoft sendo espionados por hackers russos.
Commentaires