Tecnologia

Uma IA escreveu um zero-day funcional e o Google interceptou antes do ataque

Susan Hill

O exploit mirava a autenticação em duas etapas, a camada que protege a maioria das contas que importam — e-mail, banco, armazenamento na nuvem, acessos de trabalho. A vulnerabilidade, uma falha de lógica semântica no código Python da ferramenta, permitia que um atacante já com credenciais roubadas pulasse a checagem do 2FA acionando uma exceção codificada que os desenvolvedores nunca quiseram expor. O Google identificou o bug, comunicou ao fornecedor para que publicasse uma correção e desarticulou o ataque planejado antes que começasse. O que faz da descoberta uma estreia não é o bug em si, mas a forma como foi encontrado.

Os analistas do Google dizem que o código do exploit trazia marcas inconfundíveis de um grande modelo de linguagem: comentários em estilo tutorial, formatação muito estruturada e um estilo de escrita que descrevem como altamente característico dos dados de treinamento de um LLM. A equipe concluiu com alta confiança que foi uma IA, e não uma pessoa trabalhando sozinha, que carregou o grosso do trabalho de descoberta e transformação em arma. A empresa afetada, o grupo criminoso e o nome da ferramenta seguem sem ser divulgados.

A distinção importa porque a falha encontrada é justamente a que se supunha que as máquinas não sabiam achar. Os scanners clássicos procuram crashes e corrupções de memória. Esta era uma contradição entre a lógica que aplica o 2FA e uma exceção codificada à mão — o tipo de bug que um auditor humano cuidadoso poderia descobrir lendo milhares de linhas de código em busca de inconsistências. Os modelos mais avançados, observa o Google, fazem cada vez melhor essa leitura contextual, em velocidades que nenhum time de auditoria consegue acompanhar.

O relatório descreve ainda um padrão mais amplo que não tem a ver com grupos criminosos. Um cluster alinhado com Pequim, rastreado como UNC2814, usa IA para acelerar a pesquisa de vulnerabilidades em dispositivos embarcados. APT45, grupo norte-coreano, alimentou um modelo com milhares de prompts repetitivos para analisar de forma recursiva entradas do catálogo CVE e validar provas de conceito. Operadores diferentes, técnica igual: transformar o modelo num assistente de pesquisa incansável.

O relato do Google tem limites que precisam ser nomeados. A companhia não revelou a ferramenta afetada, o ator da ameaça nem o calendário da correção, e pede que se acredite na conclusão sobre as marcas de IA apenas com base na análise interna. Nenhuma das confirmações de terceiros divulgadas nesta semana acrescenta uma perícia independente sobre o próprio código do exploit. A avaliação de alta confiança é a palavra do GTIG contra o silêncio do grupo criminoso. Também continua verdade que a falha de fundo — uma exceção codificada à mão — é exatamente o tipo de descuido que desenvolvedores humanos cometeram durante décadas sem qualquer ajuda de IA. O modelo pode ter acelerado a descoberta; a falha é mais velha que o sistema que a encontrou.

Para a maioria dos usuários não há uma ação imediata — o bug está em software gerido por equipes de TI, não em aparelhos pessoais — mas a implicação de fundo é direta. O perímetro defensivo no qual confiamos, dos gerenciadores de senhas aos logins corporativos únicos, foi pensado para atacantes humanos em velocidade humana. Um atacante assistido por IA lê uma base de código como um engenheiro experiente lê um parágrafo. Os defensores vão ter que aprender a fazer o mesmo.

O confirmado é que o fornecedor afetado foi notificado e está distribuindo a correção. A análise mais ampla saiu na série de inteligência de ameaças do Google Cloud, que monitora o uso de IA em segurança ofensiva, em 11 de maio de 2026. O analista-chefe de ameaças do Google, John Hultquist, disse à imprensa nos dias seguintes que a corrida entre IA e defensores já começou e não está prestes a começar. Um relatório complementar sobre ferramentas potencializadas por IA é esperado até o fim do segundo trimestre.

Discussão

Há 0 comentários.