Hackers usam IA para escalar ataques e ampliam risco global

Uso de IA acelera invasões digitais e expõe vulnerabilidades em sistemas públicos e privados

Fonte: Da redação

Ferramentas de inteligência artificial amplamente disponíveis passaram a ser utilizadas como aceleradores de ataques cibernéticos, permitindo que invasores ampliem a escala e a velocidade de operações contra sistemas públicos e privados. Investigações recentes indicam que hackers recorreram a modelos de IA generativa para explorar falhas de segurança em centenas de dispositivos ao redor do mundo em um curto intervalo de tempo.

Em um dos episódios mais recentes, invasores conseguiram comprometer mais de 600 firewalls distribuídos por dezenas de países ao utilizar ferramentas de IA para identificar rapidamente credenciais fracas, autenticação simplificada e outras brechas de proteção. A operação foi conduzida por um grupo reduzido — possivelmente um único agente — e teve motivação financeira, segundo análises técnicas de segurança.

O uso da inteligência artificial permitiu que os ataques fossem executados em uma escala que normalmente exigiria equipes maiores e maior grau de especialização técnica. Com acesso aos dispositivos comprometidos, os invasores conseguiram avançar para outras camadas das redes afetadas, ampliando o potencial de dano e exposição de dados.

Os alvos não foram escolhidos por setor específico, mas de forma oportunista, priorizando sistemas com menor nível de proteção. As invasões atingiram infraestruturas espalhadas por regiões da América Latina, África, Ásia e Europa, evidenciando a natureza global do risco associado ao uso malicioso de ferramentas de IA.

Outro caso relevante ocorreu quando um invasor utilizou um chatbot de inteligência artificial comercial para auxiliar em ataques contra órgãos do governo mexicano. Por meio de comandos em linguagem natural, o atacante orientou o sistema a identificar vulnerabilidades, gerar códigos maliciosos e automatizar processos de extração de dados, resultando no roubo de um grande volume de informações sensíveis.

A operação se estendeu por várias semanas e levou à exposição de dados de contribuintes, registros eleitorais, credenciais de servidores públicos e informações de registro civil. Pesquisadores apontam que o atacante testou repetidamente os limites de segurança do sistema de IA até conseguir contornar seus mecanismos de proteção.

Quando encontrava obstáculos técnicos, o invasor alternava o uso de diferentes ferramentas de inteligência artificial, recorrendo inclusive a modelos de outras empresas para obter orientações adicionais sobre movimentação lateral em redes, identificação de credenciais críticas e avaliação do risco de detecção.

Empresas responsáveis pelas plataformas de IA afirmaram ter identificado tentativas de uso indevido de seus sistemas e reforçaram que possuem mecanismos para bloquear solicitações que violem suas políticas. Ainda assim, os episódios evidenciam as dificuldades de impedir que ferramentas de uso geral sejam exploradas para fins ilícitos.

Especialistas em segurança digital avaliam que esses casos ilustram uma mudança estrutural no cenário do cibercrime. A inteligência artificial deixou de ser apenas um recurso defensivo e passou a funcionar também como instrumento de ampliação de ataques, reduzindo custos, tempo e barreiras técnicas para invasores.

Enquanto empresas de tecnologia e cibersegurança investem no desenvolvimento de defesas baseadas em IA, criminosos digitais exploram a mesma tecnologia para aumentar a sofisticação e o alcance de suas operações. O resultado é um ambiente de risco mais dinâmico, no qual a velocidade de adaptação se torna fator central para a proteção de sistemas críticos.

Publicidade