Anthropic cancela lançamento de IA capaz de descobrir falhas críticas em sistemas operacionais
10 de abril de 2026
Claude Mythos Preview, modelo experimental da Anthropic capaz de identificar milhares de vulnerabilidades de alto risco em navegadores e sistemas operacionais, teve lançamento público cancelado devido aos riscos de uso malicioso por cibercriminosos.
IA de segurança cibernética poderosa demais para ser liberada
A Anthropic desenvolveu um modelo de inteligência artificial tão eficaz em encontrar falhas de segurança que decidiu não lançá-lo publicamente. O Claude Mythos Preview, versão experimental ainda em testes, demonstrou capacidade excepcional para identificar vulnerabilidades críticas em softwares populares — o que representaria tanto avanço quanto risco significativo para a segurança digital.
Segundo a própria empresa, o modelo seria "melhor do que qualquer pessoa, exceto os humanos mais habilidosos" ao descobrir e apontar brechas de segurança em navegadores e sistemas operacionais amplamente utilizados no mercado.
Capacidades técnicas da IA em segurança cibernética
O Claude Mythos Preview é um modelo de linguagem de propósitos gerais, treinado com uma combinação proprietária de informações públicas da internet, conjuntos de dados públicos e privados, além de dados sintéticos gerados por outros modelos de IA.
De acordo com documentação da Anthropic, o modelo representa um salto significativo em desempenho quando comparado a outras versões da empresa, como o Claude Opus 4.6. Suas habilidades se destacam especialmente em três áreas:
Mas foi justamente a expertise em código que acendeu sinais de alerta internamente.
IA identifica milhares de vulnerabilidades de dia-zero
A documentação técnica da Anthropic revela que o Mythos conseguiu identificar "milhares de vulnerabilidades de alto risco" e falhas de dia-zero (zero-day) — brechas de segurança desconhecidas pelos desenvolvedores e, portanto, sem correção disponível.
Versões anteriores do Claude já haviam demonstrado essa capacidade em escala menor, encontrando falhas no navegador Firefox e em bibliotecas de código aberto. As vulnerabilidades descobertas foram devidamente reportadas às empresas responsáveis e posteriormente corrigidas.
O problema surge quando essa mesma tecnologia poderia ser utilizada por agentes mal-intencionados. Cibercriminosos teriam em mãos uma ferramenta capaz não apenas de identificar falhas, mas também de ajudar a criar formas sofisticadas de explorá-las — ou, quando combinada com agentes autônomos de IA, até mesmo executar etapas de invasões cibernéticas.
Projeto Glasswing: IA de segurança cibernética como defesa
Reconhecendo os perigos, a Anthropic optou por não disponibilizar o Claude Mythos Preview ao público. Em vez disso, a empresa iniciou o Projeto Glasswing, uma iniciativa focada em usar as capacidades do modelo exclusivamente para fins de segurança.
Embora detalhes completos do projeto não tenham sido divulgados pela empresa, a abordagem representa uma mudança de estratégia: transformar um potencial vetor de ataque em ferramenta defensiva, mantendo o modelo sob controle restrito e utilizando-o para identificar e corrigir vulnerabilidades antes que agentes maliciosos as descubram.
Debate sobre responsabilidade no desenvolvimento de IA
A decisão da Anthropic reacende discussões sobre os limites éticos no desenvolvimento de sistemas de inteligência artificial. Até que ponto empresas devem avançar em capacidades que, embora tecnicamente impressionantes, representam riscos concretos à segurança?
O caso do Claude Mythos ilustra um dilema crescente no setor: modelos cada vez mais poderosos exigem protocolos de segurança proporcionalmente rigorosos. A transparência da Anthropic ao documentar tanto as capacidades quanto os riscos do modelo estabelece um precedente importante para a indústria.
A abordagem através do Projeto Glasswing sugere que o futuro da IA de segurança pode estar não na liberação irrestrita de ferramentas poderosas, mas em seu uso controlado e direcionado para proteção coletiva.
Fonte: red.anthropic.com
Escrito por
Júlia RamalhoPesquisadora de IA com foco em NLP e modelos de linguagem. Acompanha as principais publicações acadêmicas e conferências como NeurIPS, ICML e ACL. Traduz papers complexos em análises acessíveis para o público brasileiro.