Crise de cibersegurança com Mythos da Anthropic força Trump a regular IA nos EUA
9 de maio de 2026
Após demonstrações do modelo Mythos, da Anthropic, que revelaram graves vulnerabilidades de cibersegurança, o governo Trump muda de postura e anuncia regulação para o desenvolvimen...
A Casa Branca anunciou que passará a regular o desenvolvimento de inteligência artificial nos Estados Unidos, uma reviravolta na política de livre promoção da tecnologia adotada até então. A decisão foi tomada após o vice-presidente JD Vance ser apresentado a demonstrações do modelo Mythos, da Anthropic, que expuseram riscos críticos de cibersegurança — capazes de comprometer infraestruturas nacionais e sistemas de defesa. As informações foram divulgadas pelo The Wall Street Journal e The Washington Post, e repercutidas pelo The Jerusalem Post.
O que é o Mythos da Anthropic e por que ele assustou o governo Trump?
Mythos é um modelo de linguagem de grande escala desenvolvido pela Anthropic, mesma criadora do Claude. O diferencial do Mythos, segundo a empresa, é sua capacidade de raciocínio autônomo e execução de tarefas complexas sem supervisão humana direta. Durante testes internos, o modelo demonstrou habilidades para contornar sistemas de segurança cibernética, acessar bases de dados protegidas e até mesmo simular ataques coordenados — tudo de forma autônoma. Essas capacidades alarmaram o governo, que até então defendia uma abordagem não intervencionista.
Segundo fontes próximas às reuniões, Vance ficou particularmente impressionado com a facilidade com que o Mythos conseguiu explorar vulnerabilidades em sistemas hipotéticos de energia e comunicação. Isso levou a uma reavaliação urgente dos riscos associados ao avanço desregulado da IA.
Como a demonstração de cibersegurança do Mythos mudou a política de IA dos EUA?
A política anterior do governo Trump era marcada por incentivos à inovação sem amarras regulatórias, sob o argumento de que excesso de regras frearia a competitividade americana frente à China. No entanto, as demonstrações do Mythos evidenciaram um cenário no qual a capacidade de causar danos superava os benefícios imediatos. O decreto que será assinado nas próximas semanas estabelece requisitos mínimos de segurança para modelos acima de determinado limiar de poder computacional, similar ao que a União Europeia já discute com o AI Act.
Empresas como a Anthropic, que já vinham dialogando com o governo sobre riscos, terão de submeter seus modelos a testes de segurança antes de qualquer liberação comercial. A medida também prevê a criação de uma agência federal de supervisão de IA, algo que o setor vinha pedindo nos bastidores. Para startups e desenvolvedores, o impacto será imediato: quem antes apostava em modelos abertos e sem restrições terá de se adaptar a um novo framework regulatório.
O que muda na prática para empresas de IA no Brasil e no mundo com a crise?
Embora a regulação seja americana, seus efeitos serão globais. Empresas como a Anthropic — que já anunciou parcerias, como a Claude para serviços financeiros: a IA da Anthropic que promete transformar a análise de mercado — verão seus processos acelerados ou travados conforme as novas regras. Para desenvolvedores brasileiros que utilizam modelos americanos em seus produtos, a adequação será inevitável se quiserem manter acesso ao mercado dos EUA. Além disso, a decisão pode influenciar o debate no Congresso Nacional, onde um projeto de regulação de IA já tramita.
A expectativa é de que outros países, como Reino Unido e Japão, também revisitem suas políticas de IA à luz do que ocorreu com o Mythos. A era da autorregulação, ao que tudo indica, chegou ao fim.
Perguntas Frequentes sobre a crise cibersegurança Mythos Anthropic
O Mythos já está disponível para o público?
Não. A Anthropic manteve o Mythos em ambiente controlado de testes e não há previsão de lançamento comercial até que as novas regras sejam definidas.A regulação afeta modelos de IA open source?
Sim, caso atinjam o limiar de capacidade computacional definido pelo decreto, mesmo modelos abertos precisarão passar por auditorias de segurança.Qual o prazo para as novas regras entrarem em vigor?
O decreto deve ser assinado em até 30 dias, com implementação gradual ao longo de seis meses, segundo fontes do governo.---
Fonte consultada: The Jerusalem Post
Fonte: www.jpost.com
Escrito por
Lucas MontarroiosSou Lucas Montarroios e dediquei os últimos 15 anos à linha de frente de operações de telecom e data centers. Minha carreira sempre foi pautada por um foco implacável: transformar tecnologia e cenários críticos em oportunidades reais de negócio. No novidades.ia.br, trago essa visão executiva para o universo da IA. Especialista em produtos, mercado e ferramentas práticas de IA. Minha missão aqui é filtrar o ruído do mercado, analisando benchmarks, estratégias de grandes empresas e ferramentas práticas para o seu dia a dia.