
Datacenter
A Anthropic, dona do chatbot Claude, anunciou em 7 de abril um novo modelo de linguagem de inteligência artificial, o Claude Mythos Preview. A empresa afirmou que não disponibilizará a ferramenta para o grande público, por considerá-la muito poderosa, em especial por sua facilidade de descobrir vulnerabilidades escondidas de sistemas operacionais.
A alta capacidade do Mythos gerou preocupações de autoridades, especialmente em relação a possíveis vulnerabilidades do sistema financeiro. A Anthropic reconheceu o perigo e, no mesmo dia, lançou o projeto Glasswing. A iniciativa visa a obter melhorias de cibersegurança e é colaborativa, com a participação de mais de 40 empresas de tecnologia, como Apple, Google, Microsoft e NVidia.
Neste texto, o Nexo apresenta o Mythos, explica como a IA é utilizada em golpes financeiros e mostra formas de bancos, empresas e pessoas físicas se protegerem de ataques hackers.
O site de tecnologia Fortune revelou em março documentos vazados da Anthropic que mostravam que a empresa do CEO Dario Amodei estava finalizando o modelo de IA mais capaz da história. Segundo o texto, o desempenho da ferramenta em áreas como raciocínio, codificação e segurança cibernética era “significativamente superior” ao de outros modelos.
O Mythos é bastante eficaz em tarefas de segurança de computação, de acordo com pesquisadores da Anthropic. Em testes internos, o modelo identificou falhas em todos os principais sistemas operacionais e navegadores de internet.
O modelo foi capaz de encontrar uma vulnerabilidade de dia zero – nome dado a um erro de cibersegurança desconhecido pelo fabricante – no OpenBSD, considerado um dos sistemas operacionais mais seguros do mundo. A falha estava presente havia 27 anos.
A capacidade da tecnologia nessa área não foi construída de maneira intencional, segundo a Anthropic. Avanços no código, no raciocínio da máquina e na automação, no entanto, culminaram nesse resultado.
Para Michele Nogueira, especialista em cibersegurança e professora do Departamento de Ciência da Computação da UFMG (Universidade Federal de Minas Gerais), a aceleração do desenvolvimento de ferramentas capazes de descobrir as vulnerabilidades de um sistema não é um problema, mas sim o que se faz a partir disso.
“Esse tipo de ferramenta associada à IA fortalece e faz com que seja mais rápida a criação de exploiters [exploradores, em inglês], que seriam essas formas de [um atacante hacker] se beneficiar das vulnerabilidades”, disse ao Nexo.
Após o lançamento do Mythos, a Anthropic anunciou o investimento de US$ 100 milhões para o projeto Glasswing, para que as organizações que desenvolvem ou mantêm softwares críticos testem o modelo e criem soluções de cibersegurança em seus produtos.

Dario Amodei, CEO da Anthropic
Segundo João Rego, especialista em IA e segurança da informação e professor dos cursos de tecnologia e negócios digitais da FGV (Fundação Getulio Vargas), a iniciativa é quase uma admissão da Anthropic sobre os riscos reais do Mythos.
“Quando uma empresa estrutura um programa desse tamanho, com parceiros tão sensíveis e tão competitivos entre si, a mensagem implícita é clara: a capacidade ofensiva potencial do modelo já é relevante o suficiente para gerar preocupação transversal”, afirmou ao Nexo.
Nos anúncios de lançamento, a Anthropic afirmou que o Mythos atingiu um nível de excelência acima da maior parte dos especialistas humanos em segurança digital.
“Eles acreditam que liberar esse modelo significaria munir qualquer pessoa com capacidades cibernéticas que antes eram exclusivas de pesquisadores de grandes laboratórios de elite ou até hackers apoiados por governos”, disse ao Nexo Cleber Zanchettin, vice-coordenador de cooperação e inovação do Centro de Informática da UFPE (Universidade Federal de Pernambuco).
O anúncio do Mythos gerou preocupações entre algumas das principais autoridades financeiras do mundo. Em reunião na sexta-feira (10), o secretário do Tesouro dos Estados Unidos, Scott Bessent, alertou representantes de instituições como Bank of America e Citi sobre os riscos cibernéticos do modelo da Anthropic.
Um dos bancos que não enviaram representantes para a reunião foi o J.P. Morgan, o maior do país. A instituição faz parte do consórcio que irá testar o Mythos.
O ano de 2026 tem sido marcado por um embate entre a Anthropic e a administração de Donald Trump. A empresa recusou o uso de sua tecnologia de maneira irrestrita pelo Pentágono – incluindo operações de guerra –, o que levou a Casa Branca a rotulá-la como um “risco para a cadeia de suprimentos”. O título também é dado a empresas de adversários estrangeiros do pais, como a chinesa Huawei e a russa Kaspersky.
A Anthropic processou o governo Trump pelo rótulo em março. Em resposta, o republicano ordenou a suspensão do uso de ferramentas de IA da empresa, como o Claude, por agências federais.
Apesar da controvérsia, o cofundador da Anthropic, Jack Clark, afirmou na segunda-feira (13) que a companhia tem mantido conversas com a Casa Branca para discutir os riscos do Mythos. “Temos uma disputa contratual específica, mas não quero que isso interfira no fato de que nos preocupamos profundamente com a segurança nacional”, disse.
Fora dos Estados Unidos, reguladores financeiros do Reino Unido se reuniram no domingo (11) com autoridades bancárias e de cibersegurança locais para avaliar os riscos da ferramenta.
Kristalina Georgieva, diretora-gerente do FMI (Fundo Monetário Internacional), também se pronunciou sobre o modelo de inteligência artificial da Anthropic durante reuniões com o Banco Mundial. Segundo ela, “não temos a capacidade coletiva de proteger o sistema monetário internacional contra riscos cibernéticos de grande magnitude”.
Com o desenvolvimento da IA, modelos de inteligência artificial se tornaram aliados de criminosos digitais. Os golpes mais comuns envolvem a criação de perfis falsos em redes sociais, clones de voz, documentos de identificação e deepfakes de pessoas famosas ou entes queridos.
Segundo um relatório sobre crimes na internet publicado no dia 6 de abril pelo FBI, a agência federal de investigação dos EUA, houve uso de IA em mais de 22 mil casos de golpes digitais em 2025. Em número de ocorrências, eles estão atrás apenas de golpes com criptomoedas (181,5 mil).
US$ 893,3 milhões
foi a quantidade de dinheiro movimentado em golpes com inteligência artificial nos EUA em 2025; valor corresponde a cerca de R$ 4,4 bilhões
Para Rego, o panorama mostra a incorporação da IA no modo de agir dos golpistas. “O golpe ficou mais crível, mais rápido e mais barato de operar”, disse.
Segundo ele, há quatro formas de uso da inteligência artificial pelos fraudadores:
Essas práticas ampliam a facilidade das pessoas de cair em esquemas fraudulentos, segundo Zanchettin. “Isso manipula a vítima para que ela própria autorize transferências bancárias enquanto está ao telefone com os golpistas, sem que as ferramentas tradicionais de segurança dos bancos disparem alertas e tentem bloquear essas iniciativas”, disse.
Em junho de 2025, um ataque hacker à empresa de tecnologia C&M Software movimentou cerca de R$ 800 milhões de contas de seis instituições financeiras. O caso se configurou como um dos maiores roubos da história do Brasil.
Apesar de não envolver o uso direto de inteligência artificial, o caso mostra a vulnerabilidade dos sistemas bancários nacionais. “O ritmo de desenvolvimento [dos ataques] é muito mais rápido do que o do lado da defesa”, disse Nogueira.
Para Rego, as autoridades estão conscientes dessas vulnerabilidades, mas não estão preparadas para lidar com os avanços da inteligência artificial.
Ainda segundo ele, as estruturas dos bancos costumam ser complexas e rígidas. “A preparação real depende de coisas que ainda são lentas no mundo corporativo e governamental: correção de legado, revisão de fornecedores, gestão de vulnerabilidades contínua, modernização de arquitetura, maturidade de resposta a incidentes e coordenação regulatória”, afirmou.
Para Zanchettin, os manuais de segurança cibernética dos bancos estão obsoletos. “Sistemas de defesa que, eventualmente, só dependem de seres humanos para encontrar as falhas, relatar e aplicar a correção não vão conseguir mais acompanhar a velocidade com que a IA vai automatizar esse processo”, disse.
Com a criação do Mythos, o professor da UFPE afirmou que há uma preocupação com o intervalo de tempo entre a divulgação das vulnerabilidades dos sistemas operacionais e sua exploração maliciosa a partir do avanço da IA: “Essa janela pode ter caído de mais 60 dias para algumas horas”.
Rego disse que a primeira mudança dos sistemas financeiros globais precisa ser de comportamento: “É preciso deixar de tratar ofensiva de IA como um tema futuro e passar a tratá-la como um acelerador concreto de risco atual. Isso significa reduzir o tempo entre descoberta, validação e correção de vulnerabilidades”.
A inteligência artificial precisa ser usada como aliada do sistema financeiro, segundo os especialistas em cibersegurança ouvidos pelo Nexo. Para Zanchettin, a IA pode ajudar a isolar ataques hackers assim que acontecerem.
“Se um agente mal-intencionado entrar no seu sistema, ele só vai ser devastador se conseguir acesso amplo. O sistema de resposta a incidentes deve ser automatizado em questão de segundos”, afirmou.
A forma de validação para transações também deve mudar, de acordo com Rego. “Em um cenário de voz sintética e personificação, não dá mais para autorizar pagamentos relevantes, reinstalação de acesso privilegiado ou troca de dados bancários com base em ligação, áudio, email ou mensagem”, disse o professor da FGV.
Para pessoas físicas, Nogueira destacou a necessidade de melhor educação midiática e digital. “[É preciso] aprender o processo, tentar não cair nos golpes, apesar de eles serem muito mais sofisticados do que no passado”, afirmou a professora da UFMG.