Como hackers acessaram o Mythos, o modelo de IA que a Anthropic não queria liberar

Veja o que já se sabe sobre os acessos não autorizados e confira o impacto que eles podem ter no futuro da IA

A Anthropic PBC, empresa conhecida pelo assistente de IA Claude, enfrenta um problema sério de segurança: seu mais recente e poderoso modelo de inteligência artificial, o Mythos, está sendo acessado por usuários não autorizados. O caso levanta questões importantes sobre controle, segurança e os riscos reais de modelos de IA avançados.

O que é o Mythos e por que ele preocupa tanto?

O Mythos é o mais recente modelo de IA desenvolvido pela Anthropic, considerado tão poderoso que a própria empresa decidiu mantê-lo sob acesso extremamente restrito. Segundo a companhia, o modelo possui capacidades que podem viabilizar ataques cibernéticos perigosos se caírem em mãos erradas.

A tecnologia foi anunciada inicialmente em 7 de abril de 2026, quando a Anthropic revelou planos de liberar o modelo apenas para um número limitado de empresas parceiras, incluindo Apple e Amazon, para fins de teste controlado.

No entanto, de acordo com documentação analisada pela Bloomberg News e relatos de uma fonte com conhecimento direto do caso, o vazamento ocorreu no mesmo dia do anúncio oficial.

Vazamento confirmado: usuários não autorizados já usam o modelo

Um pequeno grupo de usuários em um fórum online privado conseguiu acesso ao Mythos no exato dia em que a Anthropic anunciou o plano de liberação restrita. Desde então, essas pessoas vêm utilizando o modelo regularmente, segundo informações obtidas pela reportagem.

A fonte que confirmou o incidente, que preferiu não ser identificada por temer retaliações, apresentou evidências do acesso não autorizado através de:

  • Screenshots do modelo em funcionamento

  • Demonstração ao vivo das capacidades do Mythos

  • Documentação que comprova o uso contínuo desde o dia do anúncio

O que sabemos sobre o uso não autorizado

Embora o acesso não autorizado seja confirmado, a fonte indicou que o grupo não está utilizando o Mythos para fins de cibersegurança ou ataques. No entanto, a simples existência desse vazamento representa uma falha significativa nos protocolos de segurança da Anthropic.

Por que o Mythos é considerado tão perigoso?

A Anthropic classificou o Mythos como um modelo que requer controles rigorosos devido às suas capacidades avançadas. Entre as preocupações da empresa estão:

Categoria de risco

Descrição

Ataques cibernéticos

Capacidade de auxiliar na criação de exploits e vulnerabilidades

Automação de hacking

Potencial para automatizar técnicas avançadas de invasão

Escalabilidade

Pode democratizar capacidades que antes exigiam expertise técnico elevado

A decisão de manter o modelo sob acesso extremamente restrito reflete uma tendência crescente na indústria de IA: reconhecer que nem toda inovação deve ser imediatamente disponibilizada ao público.

Contexto: a corrida pela IA e os desafios de segurança

Este incidente ocorre em um momento crucial para a indústria de inteligência artificial. A Anthropic, que vinha sendo vista como uma das empresas mais responsáveis no desenvolvimento de IA, agora enfrenta questões sobre sua capacidade de proteger tecnologias sensíveis.

A empresa, que segundo rumores estava considerando um IPO para outubro de 2026, pode ver sua reputação afetada por este vazamento. Investidores e reguladores já expressaram preocupações sobre como empresas de IA gerenciam modelos potencialmente perigosos.

Implicações para o futuro da IA

O caso do Mythos ilustra dilemas fundamentais que a indústria de IA enfrenta:

1. Controle vs. inovação

Como equilibrar o desenvolvimento de modelos cada vez mais poderosos com a necessidade de mantê-los seguros? A Anthropic tentou fazer isso com uma liberação controlada, mas o vazamento mostra que mesmo abordagens cautelosas podem falhar.

2. Segurança em camadas

O acesso não autorizado sugere que os sistemas de segurança da Anthropic podem ter vulnerabilidades. Empresas de IA precisam implementar múltiplas camadas de proteção:

  • Autenticação robusta

  • Monitoramento de acesso em tempo real

  • Sistemas de detecção de anomalias

  • Protocolos de resposta a incidentes

3. Responsabilidade e transparência

Quando um modelo como o Mythos vaza, surge a questão: a empresa deve informar publicamente? Até o momento, a Anthropic não emitiu comunicado oficial sobre o incidente.

Reações do setor e preocupações globais

O vazamento do Mythos já gerou ondas de preocupação em círculos financeiros e tecnológicos globais. Autoridades como o Secretário do Tesouro dos EUA, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, emitiram alertas para CEOs de bancos sobre os riscos potenciais.

A situação alimenta debates sobre:

  • Necessidade de regulamentação mais rigorosa para IA

  • Responsabilização de empresas por vazamentos

  • Protocolos internacionais para modelos de alto risco

FAQ: Perguntas frequentes sobre o caso Mythos

O que é o Mythos?
O Mythos é o mais recente modelo de IA da Anthropic, considerado tão poderoso que foi mantido sob acesso extremamente restrito devido ao potencial de viabilizar ataques cibernéticos.

Como o vazamento aconteceu?
Detalhes específicos sobre o método de acesso não foram divulgados, mas o vazamento ocorreu no mesmo dia do anúncio oficial do modelo, quando deveria estar disponível apenas para empresas parceiras específicas.

Os hackers estão usando o modelo para ataques?
Segundo a fonte, o grupo que obteve acesso não está utilizando o Mythos para fins de cibersegurança ou ataques, mas o simples fato do vazamento representa um risco significativo.

A Anthropic se pronunciou sobre o incidente?
Até o momento desta publicação, a Anthropic não emitiu declaração oficial sobre o vazamento do Mythos.

Isso afeta o IPO planejado da Anthropic?
A empresa estava considerando um IPO para outubro de 2026. O incidente pode impactar a percepção de investidores sobre a capacidade da companhia de proteger tecnologias sensíveis.

Lições para a indústria de IA

O caso Mythos serve como alerta para todo o setor de inteligência artificial. Algumas lições importantes incluem:

Segurança não pode ser uma reflexão tardia: Empresas de IA precisam investir em segurança desde o início do desenvolvimento de modelos, não apenas antes do lançamento.

Testes de segurança rigorosos: Antes de anunciar publicamente a existência de um modelo sensível, é crucial ter certeza absoluta de que os controles de acesso funcionam perfeitamente.

Planos de resposta a incidentes: Toda empresa que desenvolve IA poderosa deve ter protocolos claros sobre como responder a vazamentos, incluindo comunicação transparente.

Colaboração setorial: O compartilhamento de práticas de segurança entre empresas de IA pode ajudar a prevenir incidentes similares.

O que esperar daqui para frente

À medida que modelos de IA se tornam mais poderosos, incidentes como o vazamento do Mythos provavelmente se tornarão mais comuns, a menos que a indústria tome medidas drásticas. Podemos esperar:

  • Maior pressão regulatória sobre empresas de IA

  • Desenvolvimento de padrões de segurança específicos para modelos de alto risco

  • Possível implementação de auditorias de segurança obrigatórias

  • Debates intensificados sobre quando e como liberar tecnologias poderosas

O caso do Mythos não é apenas sobre um vazamento específico - é um momento decisivo que pode redefinir como a indústria de inteligência artificial pensa sobre segurança, responsabilidade e o equilíbrio entre inovação e proteção.

Para a comunidade de Data Hackers, este incidente reforça a importância de discutirmos não apenas as capacidades técnicas de novos modelos, mas também os frameworks éticos e de segurança necessários para seu desenvolvimento e implantação responsável.