AI Agents da Anthropic identificam vulnerabilidade de 4,6 milhões de dólares em contrato inteligente durante teste simulado
De acordo com o ChainCatcher, uma pesquisa recente da Anthropic mostra que agentes de IA possuem uma capacidade considerável de realizar ataques on-chain: em testes simulando contratos inteligentes realmente hackeados entre 2020 e 2025, Claude Opus 4.5, Sonnet 4.5 e GPT-5 conseguiram reproduzir explorações de vulnerabilidades no valor total de aproximadamente 4,6 milhões de dólares; ao analisar 2.849 contratos sem vulnerabilidades conhecidas, dois desses modelos ainda descobriram duas novas vulnerabilidades zero-day e simularam lucros com sucesso.
A pesquisa aponta que os lucros de ataques on-chain realizados por IA dobraram aproximadamente a cada 1,3 meses no último ano, demonstrando que, tecnicamente, já possuem plena capacidade autônoma e lucrativa de explorar vulnerabilidades.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
Grayscale apresenta pedido de registro para ETF de SUI
Dois wallets de Bitcoin, que estavam inativos há 13 anos, transferiram 2.000 Bitcoins para uma nova wallet.
LUNC ultrapassa brevemente US$ 0,000057, com alta de mais de 80% nas últimas 24 horas
