A IA está democratizando o cibercrime — tornando hackers obsoletos
- O relatório da Anthropic revela que cibercriminosos estão usando IA para automatizar ataques, reduzindo as barreiras técnicas para o cibercrime. - Ferramentas de IA possibilitam extorsão de dados, golpes de emprego falso e ransomware como serviço, tendo como alvo os setores de saúde, governo e tecnologia. - Hackers norte-coreanos utilizam IA para criar identidades falsas em empregos remotos, burlando sanções e exigências de qualificação. - Notas de resgate geradas por IA analisam dados financeiros para definir valores de extorsão, marcando uma nova fase nas táticas de cibercrime. - A Anthropic proíbe abusos.
Criminosos estão aproveitando a inteligência artificial para realizar ataques cibernéticos com uma sofisticação sem precedentes, de acordo com um relatório divulgado pela Anthropic, a empresa por trás do modelo de IA Claude. O relatório Threat Intelligence da empresa detalha como cibercriminosos estão utilizando ferramentas de IA agentic para automatizar e otimizar operações de cibercrime, reduzindo a expertise técnica tradicionalmente exigida para tais ataques. O relatório destaca vários casos em que a IA foi usada como arma, incluindo extorsão de dados em larga escala, esquemas fraudulentos de emprego e o desenvolvimento de ransomware como serviço. A Anthropic observou que esses ataques são frequentemente executados por indivíduos que não possuem as habilidades convencionais de programação necessárias para realizá-los manualmente, reduzindo efetivamente a barreira de entrada para o cibercrime [1].
Um dos casos mais notáveis descritos no relatório envolveu o uso do Claude Code para conduzir uma operação generalizada de extorsão de dados. O cibercriminoso teve como alvo pelo menos 17 organizações, incluindo entidades dos setores de saúde, serviços de emergência e governo. Em vez de usar ransomware tradicional para criptografar dados, o invasor ameaçou expor informações sensíveis, incluindo registros financeiros e detalhes pessoais, para extorquir as vítimas a pagarem resgates que às vezes ultrapassavam US$ 500.000 em criptomoedas. A Anthropic relatou que a IA foi usada não apenas para automatizar o reconhecimento e a extração de dados, mas também para criar demandas de resgate psicologicamente direcionadas e determinar os valores dos resgates com base na análise de dados financeiros. As notas de resgate geradas por IA foram projetadas para serem visualmente alarmantes e incluíam detalhamentos das opções de monetização e cronogramas de escalonamento. Isso representa uma nova fase no cibercrime assistido por IA, onde ferramentas de IA atuam tanto como conselheiras estratégicas quanto como participantes ativas no ciclo de vida do ataque [1].
O relatório também destacou o uso de IA em esquemas fraudulentos de emprego por agentes norte-coreanos. Esses atores usaram o Claude para criar identidades falsas elaboradas e conseguiram garantir posições remotas em empresas de tecnologia dos EUA. Uma vez contratados, os agentes usaram ferramentas de IA para realizar o trabalho técnico real, permitindo que permanecessem indetectáveis por longos períodos. Esse método não apenas contorna sanções internacionais, mas também elimina a necessidade de treinamento extensivo de recursos humanos. Segundo a Anthropic, isso representa uma evolução significativa no cibercrime, já que a IA elimina a necessidade de indivíduos possuírem habilidades técnicas avançadas ou proficiência em idiomas. Acredita-se que o regime norte-coreano se beneficie financeiramente desses esquemas, que antes eram limitados pela disponibilidade de pessoal treinado [1].
Outro caso detalhado no relatório envolveu um cibercriminoso usando o Claude para desenvolver e distribuir ransomware com capacidades avançadas de evasão. O ransomware foi vendido em fóruns da dark web por valores entre US$ 400 e US$ 1.200, permitindo que outros criminosos o utilizassem sem exigir conhecimento técnico aprofundado. O relatório observou que, sem a assistência da IA, o invasor não teria sido capaz de implementar ou solucionar os componentes principais do ransomware, como algoritmos de criptografia e técnicas anti-análise. A Anthropic tomou providências banindo a conta associada e aprimorando seus sistemas de detecção para evitar abusos semelhantes no futuro [1].
O aumento do cibercrime assistido por IA está levantando preocupações entre pesquisadores de segurança e líderes da indústria. A Anthropic enfatizou que essas ameaças ressaltam a necessidade de medidas defensivas avançadas, incluindo sistemas de detecção baseados em IA e colaboração aprimorada entre empresas e autoridades policiais. A empresa compartilhou indicadores técnicos de uso indevido com as autoridades relevantes e continua aprimorando seus protocolos de segurança para mitigar riscos futuros. O relatório também apontou implicações mais amplas, incluindo o potencial de a IA ser usada em fraudes em larga escala e no desenvolvimento de campanhas de phishing geradas por IA. À medida que o uso de IA agentic no cibercrime se torna mais prevalente, espera-se que o cenário de cibersegurança evolua rapidamente, com atacantes e defensores utilizando IA para obter vantagem [1].

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
O capital de risco para ativos virtuais está sendo liberado: será que a primavera das startups cripto na Coreia do Sul está chegando?
O Ministério de PMEs e Venture Capital da Coreia do Sul e o gabinete aprovaram em 9 de setembro uma emenda ao "Decreto de Execução da Lei Especial para o Desenvolvimento de Empresas de Risco", removendo "negociação e corretagem de blockchain/ativos virtuais (criptomoedas)" da lista de setores "restritos/proibidos para investimento". A medida entrará em vigor oficialmente em 16 de setembro.

23 centavos de cada dólar de imposto são usados para pagar juros da dívida dos EUA
ETFs de Bitcoin dos EUA registram entrada de US$ 741 milhões em meio ao otimismo do mercado
A ponte Shibarium sofre ataque de empréstimo relâmpago 'sofisticado', com US$ 2,4 milhões drenados
Resumo rápido: A ponte Shibarium, que conecta a rede Layer 2 ao Ethereum, foi hackeada nesta sexta-feira em um ataque sofisticado de flash loan que drenou US$ 2,4 milhões. Os desenvolvedores do Shiba Inu pausaram o staking, o unstaking e fluxos relacionados enquanto trocam e protegem as chaves dos validadores. Os 4,6 milhões de tokens BONE usados pelo atacante para obter poder temporário de validador foram bloqueados. O preço do BONE disparou e depois despencou após o ataque.

Populares
MaisPreços de criptomoedas
Mais








