• Carregando...
Tanto a Microsoft quanto a OpenAI descreveram o uso de suas ferramentas pelos hackers como “inicial”
Tanto a Microsoft quanto a OpenAI descreveram o uso de suas ferramentas pelos hackers como “inicial”| Foto: EFE/EPA/MAXIM SHIPENKOV

Na semana passada, a Microsoft revelou por meio de um relatório que conseguiu detectar e interromper diversas tentativas de ciberataques realizadas por hackers ligados a países como China, Rússia, Irã e Coreia do Norte, que estavam utilizando e explorando, segundo ela, ferramentas de inteligência artificial (IA) generativa que foram desenvolvidas pela empresa e pela OpenAI, sua parceira.

Segundo a empresa americana, tais hackers estariam utilizando modelos de linguagem de grande escala, conhecidos como LLM, para ter acesso a informações sobre países rivais, desenvolver códigos com potencial malicioso e enganar seus alvos.

O anúncio da descoberta feita pela Microsoft ocorreu no mesmo momento em que ela lançou uma proibição geral do uso de seus produtos de inteligência artificial por grupos de hackers que são financiados por governos.

“Independentemente de haver ou não violação da lei ou de nossos termos de serviço, nós simplesmente não queremos que esses atores que identificamos, que sabemos que são ameaças de vários tipos, tenham acesso a essa tecnologia”, disse um representante da gigante de tecnologia em entrevista à agência Reuters.

Em seu site, a Microsoft identificou os grupos de hackers que estariam tentando fazer uso de IA pra realizar ciberataques, são eles: Forest Blizzard, da Rússia, Emerald Sleet, da Coreia do Norte, Crimson Sandstorm, do Irã, Charcoal Typhoon e Salmon Typhoon, ambos da China. Cada um deles tem, segundo a empresa, seus próprios interesses e objetivos, que vão desde assuntos militares e políticos até questões econômicas e sociais.

O grupo Forest Blizzard, por exemplo, estaria utilizando IA para realizar pesquisas sobre tecnologias de satélite e radares relevantes que poderiam conter informações sobre a guerra na Ucrânia.

Por sua vez, o Emerald Sleet, vinculado à Coreia do Norte, usou IA para explorar vulnerabilidades em sistemas de redes ocidentais. Já o Crimson Sandstorm, associado ao Irã, utilizou ferramentas de IA para desenvolver métodos mais sofisticados de phishings, usados para roubar dados de países do Oriente Médio e dos EUA.

Enquanto isso, os grupos chineses Charcoal Typhoon e Salmon Typhoon, que são supostamente ligados ao Partido Comunista, estariam explorando as ferramentas para criar programas que poderiam acessar e buscar por informações sobre temas sensíveis, como geopolítica regional e influência dos Estados Unidos. Eles também queriam utilizar esses sistemas para perpetrar novos ataques contra organizações governamentais, acadêmicas, de saúde e de direitos humanos.

O relatório destaca ainda que esses hackers estão utilizando a IA de forma pragmática, visando aumentar sua eficiência em atividades cibernéticas maliciosas, como redação de e-mails, tradução de documentos, depuração de códigos e pesquisa de maneiras de evitar detecção por programas de antivírus.

Os casos documentados também revelam estratégias diversas, como a criação de e-mails de phishing mais convincentes, a exploração de vulnerabilidades em sistemas ocidentais e até mesmo o uso de IA para traduzir documentos sensíveis, o que poderia facilitar o roubo de informações estratégicas.

Após a descoberta, a Microsoft afirmou que tomou medidas para bloquear e desativar as contas e os recursos usados pelos hackers, além de ter iniciado pesquisas para melhorar a proteção dos seus serviços e sistemas de IA.

A empresa também anunciou princípios para orientar suas ações contra o uso indevido de suas ferramentas por atores maliciosos. Entre eles, estão a identificação e ação contra os hackers, a notificação a outros provedores de serviços de IA, a colaboração com outras partes interessadas e a transparência sobre as medidas tomadas.

Preocupação com a segurança

O anúncio de que hackers apoiados por governos estão usando ferramentas de IA para aumentar suas capacidades de espionagem preocupa as empresas de tecnologia. No entanto, tanto a Microsoft quanto a OpenAI descreveram o uso de suas ferramentas pelos hackers como “inicial”.

Bob Rotsted, que lidera a inteligência de ameaças de cibersegurança na OpenAI, disse que “este é um dos primeiros, senão o primeiro, caso de uma empresa de IA saindo e discutindo publicamente como os atores de ameaças de cibersegurança usam suas tecnologias”.

A Microsoft disse que seu principal objetivo ao divulgar a informação sobre os hackers era “garantir o uso seguro e responsável de tecnologias de IA como ChatGPT”.

Segundo informações da Reuters, altos funcionários de cibersegurança de países do ocidente vêm alertando desde o ano passado que atores mal-intencionados estavam fazendo o uso irregular de ferramentas de IA.

A Coreia do Sul, que é um dos principais alvos dos hackers norte-coreanos, disse que está monitorando de perto os movimentos da Coreia do Norte, tendo em mente a possibilidade do país fazer mau uso da IA generativa. Segundo o Serviço Nacional de Inteligência sul-coreano, mais de 80% das tentativas de ataques hackers contra empresas e órgãos públicos sul-coreanos no ano passado vieram da Coreia do Norte.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]