O novo modelo da Anthropic é perigoso demais?

MMaximilian Schwarzmüller
Computing/SoftwareBusiness NewsInternet Technology

Transcript

00:00:00Como desenvolvedor de software e acho que, em geral, como ser humano, mas especialmente como desenvolvedor,
00:00:06não há como fugir da Anthropic agora. Quer você queira ou não. E não acho que deva tentar
00:00:12ignorá-la, porque é relevante. É relevante para o nosso futuro como desenvolvedores de software, eu diria.
00:00:20E neste episódio não falarei sobre o vazamento do Claude Code que tivemos na semana passada. Não falarei sobre
00:00:28os termos reforçados em relação ao uso de suas ofertas de assinatura, Claude Max e assim por diante,
00:00:36e como eles estão combatendo o uso não autorizado dessas assinaturas. Eles estão fazendo isso agora
00:00:43porque, é claro, suas ofertas de assinatura, assim como as da OpenAI, são pesadamente subsidiadas
00:00:50e eles não podem ganhar dinheiro se todo mundo esgotar suas assinaturas. Então, sim, eles estão realmente
00:00:56restringindo ou tentando restringir o uso de suas assinaturas apenas a humanos, apenas em seu
00:01:04site ou no Claude Code ou no app Claude para desktop, eu acho. Mas, novamente, este não é o foco
00:01:11aqui e nem vou focar em seu impressionante crescimento de receita, que vale uma breve nota,
00:01:19porque a Anthropic atingiu uma receita recorrente anual de 30 bilhões de dólares, o que já é
00:01:27impressionante, mas especialmente impressionante se compararmos com 9 bilhões de dólares no final de 2025. Então,
00:01:35eles mais do que triplicaram sua receita recorrente anual em apenas alguns meses. O que é
00:01:41realmente impressionante. E, portanto, se você quiser aprender a usar o Claude Code de forma eficiente,
00:01:47como tirar o máximo proveito dele, eu tenho um curso sobre isso e ele é muito popular, o que,
00:01:53claro, me deixa feliz, e você encontra o link abaixo se quiser participar e aprender a trabalhar de forma eficiente com
00:01:59o Claude Code. Mas, como mencionei, esse nem é o tópico principal aqui. Em vez disso, quero falar sobre
00:02:05o Projeto Glasswing e seu novo modelo Mythos, que eles não lançaram para o público e
00:02:14também compartilharam o porquê. E acho que isso é importante de entender e também é importante tentar
00:02:20olhar por trás das câmeras, por trás da lógica deles e qual o impacto deste novo modelo, como ele funciona
00:02:27e suas capacidades para nós, desenvolvedores. Então, o que é o Projeto Glasswing? Sobre o que é esse novo modelo?
00:02:33Abaixo, é claro, você também encontra um link para este artigo. Este é um artigo no site oficial da
00:02:39Anthropic, onde eles anunciaram o Projeto Glasswing e também falam sobre seu novo modelo.
00:02:44E se eu rolar um pouco para baixo, já podemos ver algumas estatísticas resumidas de benchmarks aqui, onde vemos
00:02:52que este novo modelo, a versão de visualização Mythos do modelo — o nome do modelo é Mythos — tem um desempenho
00:02:59muito melhor que o Opus 4.6. E dependendo de qual benchmark exato você olha, há uma diferença
00:03:07bem grande entre o Opus 4.6 e este novo modelo. Agora, é claro, isso por si só não é super
00:03:15impressionante. Sempre que um novo modelo é anunciado, não importa por qual empresa, ele performa muito melhor ou
00:03:21pelo menos um pouquinho melhor que todos os modelos concorrentes, caso contrário, não seria lançado. E,
00:03:26claro, há formas de manipular alguns desses benchmarks, então eu normalmente não me importo muito
00:03:31com esses números de benchmarks e não seria diferente para este modelo aqui, mas
00:03:39há coisas interessantes sobre o novo modelo Mythos. E é o fato de que a Anthropic decidiu não
00:03:46lançá-lo ao público porque, como eles dizem, ele é bom demais em encontrar e explorar vulnerabilidades
00:03:56em sistemas operacionais, qualquer outro software, navegadores, enfim, em software em geral. E neste artigo
00:04:05e também em um artigo separado, que também está linkado abaixo, eles compartilham alguns detalhes e, especialmente este
00:04:11artigo separado, é extremamente longo e dá exemplos concretos de vulnerabilidades e
00:04:19potenciais exploits que este novo modelo encontrou. Por exemplo, eles começam o artigo com um
00:04:28exploit e vulnerabilidade muito sérios que foram encontrados no OpenBSD. O OpenBSD é, obviamente, um sistema operacional
00:04:38que é popular em certos softwares de rede, por exemplo, e o Mythos, o novo modelo deles,
00:04:45rodando em uma estrutura de agentes como o Claude Code, eu imagino, foi capaz de encontrar e explorar — e essa é a
00:04:53parte interessante — uma vulnerabilidade relacionada a estouro de inteiros e acesso à memória, acesso inesperado
00:05:02à memória, que era capaz de travar máquinas que rodavam OpenBSD de forma reprodutível, o que
00:05:12poderia, claro, ser aproveitado para realizar ataques de negação de serviço muito prejudiciais, enviando repetidamente
00:05:20pacotes e requisições específicas para tais máquinas que exploravam essa vulnerabilidade para derrubar
00:05:27essas máquinas e, potencialmente, derrubar redes corporativas inteiras. E esta vulnerabilidade foi
00:05:34detectada em uma execução que custou menos de cinquenta dólares, embora o conjunto total de execuções tenha custado menos de vinte
00:05:43mil dólares. E como você, claro, não sabe de antemão qual execução encontrará uma vulnerabilidade,
00:05:48é esse número que importa. Ainda assim, é claro, é fácil imaginar que um modelo capaz de encontrar
00:05:57vulnerabilidades tão críticas por um custo comparativamente baixo — dependendo de quem você é,
00:06:04se for uma nação, por exemplo, ou algum ator mal-intencionado sério, isso pode não ser muito dinheiro.
00:06:13Isso, claro, é um problema, porque é fácil imaginar que se tal modelo fosse desenvolvido por
00:06:22uma empresa, uma organização que se importa um pouco menos com segurança e/ou que talvez não tenha que
00:06:31temer quaisquer consequências pelo abuso de tais vulnerabilidades, isso poderia ser um problema e
00:06:42parece que estamos entrando em uma nova era com a IA, com esses modelos de IA, onde nada está seguro
00:06:56e está mais fácil do que nunca implantar em massa agentes de IA rodando modelos como este para escanear todos os tipos de
00:07:05softwares e encontrar e potencialmente explorar vulnerabilidades. E, claro, como humano, sozinho,
00:07:13não há como acompanhar isso. Digo, o bug, o exploit que foi encontrado aqui existia
00:07:19há, eu acho que eles disseram, 27 anos ou algo assim. Isso mostra que nenhum humano foi capaz de encontrar
00:07:29este bug em um período tão longo de tempo, incluindo atores mal-intencionados que, claro, teriam tido
00:07:35interesse em poder atacar este sistema operacional no passado também. Agora, este é apenas um,
00:07:41talvez o achado mais proeminente que este novo modelo teve. Eles estão listando muito mais bugs e exploits
00:07:49que o modelo encontrou e às vezes também foi capaz de abusar. E também compartilharam outras histórias no X, por
00:07:57exemplo, como o modelo sendo capaz de escapar de uma sandbox, ou o agente de IA rodando o modelo sendo
00:08:04capaz de escapar de uma sandbox na qual estava rodando. E isso nos traz de volta ao Projeto Glasswing, que
00:08:11é uma iniciativa criada pela Anthropic junto com outras grandes empresas como AWS, Apple, Microsoft,
00:08:21a Linux Foundation e outras para usar este modelo para basicamente corrigir seus softwares antes que isso
00:08:30seja lançado publicamente e antes que o público coloque as mãos neste modelo. Essa é a narrativa
00:08:38deste artigo, essa é a explicação da Anthropic. E eu tenho pensamentos divergentes aqui. Por um lado,
00:08:48não tenho fortes razões para acreditar que isso não seja verdade. Claramente a Anthropic teria alguns motivos para
00:08:56não lançar este modelo além do que eles estão mencionando aqui. Por exemplo, eu li que este
00:09:04modelo é um modelo de aproximadamente 10 trilhões de parâmetros, que é muito maior que todos os modelos de fronteira
00:09:11que tivemos até agora, ou que pudemos usar publicamente até agora. E dizem que o treinamento custou
00:09:20cerca de 10 bilhões de dólares. O custo do token deste modelo, eu li, espera-se que seja nesta faixa de
00:09:3025 a 125 dólares para tokens de entrada e saída. E, claro, isso também seria um motivo para não
00:09:39lançar este modelo, porque eles não podem incluí-lo em suas assinaturas do Claude, pois é simplesmente muito
00:09:46caro. Eles teriam que elevar o preço da assinatura provavelmente a um ponto em que poucas pessoas estariam dispostas a pagar
00:09:52e, portanto, não haveria realmente uma forma de expô-lo ao
00:09:59público, pelo menos como parte do Claude Code. Agora, claro, eles ainda poderiam expô-lo através de sua API em uma
00:10:05base de custo por uso, e se é caro, quem se importa? Se houver empresas ou pessoas que estariam
00:10:12dispostas a pagar por isso, eles poderiam fazer. E essa, claro, é a parte onde as preocupações com segurança cibernética
00:10:18podem realmente entrar em jogo, porque claramente tudo isso muito provavelmente não foi inventado. Digo, definitivamente
00:10:26não foi inventado. A equipe do FFmpeg, por exemplo, que também está listada aqui como tendo tido uma
00:10:36vulnerabilidade encontrada, a equipe confirmou no X que a Anthropic enviou
00:10:44enviou um patch para uma vulnerabilidade no programa de software FFmpeg. Então, sim, isso claramente não foi
00:10:55inventado. Essas preocupações são válidas. Preocupações com segurança cibernética são válidas, especialmente porque, é claro, se dinheiro
00:11:03não for o problema principal, você poderia implantar milhares de agentes rodando simultaneamente usando este ou
00:11:11modelos similares que possamos ter no futuro para escanear todos os tipos de software e explorá-los. E, claro,
00:11:19o grande problema é que usar este modelo para encontrar vulnerabilidades e corrigi-las é possível, mas
00:11:30só é possível se o proprietário ou o mantenedor de um certo software puder pagar pelo modelo
00:11:37ou obtiver acesso gratuito ou algo assim. E mesmo que uma vulnerabilidade seja corrigida, todos sabemos
00:11:46que nem todos os computadores por aí, nem todas as máquinas, nem todos os usuários têm softwares atualizados rodando
00:11:55neles. Se você desse uma olhada em todos os vários servidores rodando por aí na rede mundial de computadores,
00:12:04eu chutaria que a vasta maioria deles está rodando software desatualizado. Digo, em nossos telefones ou nossos
00:12:12laptops, muitas vezes não estamos rodando o software mais recente, a versão mais recente do nosso sistema operacional, a
00:12:20última correção de segurança pode não estar instalada. E isso é verdade para todas as camadas de software. E em um mundo
00:12:28onde é mais fácil do que nunca encontrar vulnerabilidades de segurança, isso, claro, se torna um problema
00:12:34ainda maior. Porque, claro, o lado bom deste modelo de IA é que ele também pode ser usado para
00:12:43procurar proativamente por vulnerabilidades de segurança e corrigi-las. Então não é apenas uma ferramenta para
00:12:48atacantes; também pode facilitar a defesa porque agora você tem uma ferramenta que pode ser executada simultaneamente
00:12:56em paralelo através de milhares de agentes para tornar seu software seguro. Em teoria, isso pode ser uma
00:13:01ferramenta muito útil para defesa. Mas, claro, novamente, nem toda empresa ou pessoa que possa estar desenvolvendo
00:13:09um software crucial pode ser capaz de pagá-lo, ou estar interessada em usá-lo. E então, mesmo que seja usado
00:13:16para encontrar e corrigir vulnerabilidades, ainda assim essas versões mais recentes não estarão instaladas em todos os lugares
00:13:23e isso, claro, dá aos atacantes uma ótima janela de oportunidade onde eles sabem sobre muito mais
00:13:31vulnerabilidades do que antes em algum momento, porque muito mais vulnerabilidades são detectadas, mas nem
00:13:39toda máquina ou usuário está protegido contra essas vulnerabilidades. E essa é uma preocupação real
00:13:46que tenho sobre este desenvolvimento. Agora, esse é o quadro maior, que afeta a todos,
00:13:52todas as empresas, todos os humanos no fim das contas. Outra pergunta, claro, é o que um modelo como
00:13:59este significa para nós, desenvolvedores? Digo, claramente este parece ser um modelo altamente capaz que foi capaz
00:14:08de procurar por vulnerabilidades por conta própria e explorar vulnerabilidades por conta própria. Então, sim, qual é o
00:14:16impacto para os desenvolvedores? E acho que aqui, quando se trata disso, não muda muita coisa por enquanto. Digo,
00:14:28já estamos vivendo em um mundo onde agentes de IA como o Claude Code e os modelos subjacentes e, é
00:14:34claro, o mesmo vale para o Codex e assim por diante — seja qual for o seu agente de IA e modelo favorito —
00:14:39são capazes de gerar a maior parte do nosso código. Você pode não estar usando-os, pode não gostar deles. Eu criei um
00:14:46vídeo separado onde compartilho meus sentimentos sobre isso e como isso tira a alegria da parte de
00:14:52desenvolvimento de software para mim, mas é a realidade de qualquer forma. Quer você goste ou não,
00:14:57e acredite em mim, eu não necessariamente gosto disso, mas sim, esta é a realidade. O que um humano traz
00:15:04para a mesa ou por que humanos ainda importam aqui — e podem importar mais do que nunca — é, claro, que você
00:15:12definitivamente não quer um agente de IA como este agindo de forma descontrolada e trabalhando totalmente por conta própria. Direcionar tais
00:15:21modelos e agentes, controlá-los, dar a eles tarefas claras, limitar o escopo do trabalho que fazem —
00:15:29todas essas coisas são mais importantes do que nunca. Esses modelos podem, ao que parece, fazer muito mais do que
00:15:39a vasta maioria dos desenvolvedores consegue fazer. Definitivamente muito mais do que eu consigo fazer.
00:15:43E, no entanto, quando se trata de lançar produtos, quando se trata de construir software usado por humanos, a
00:15:54influência de um humano é, claro, extremamente, extremamente importante. O que está mudando, é claro,
00:16:01é o nosso papel como desenvolvedores de software. Estamos mudando de pessoas que estão escrevendo o código para
00:16:08pessoas que estão direcionando o modelo, que estão revisando o código, que estão entendendo o que
00:16:12ele faz, que estão definindo o escopo. E, sim, novamente, falei sobre isso naquele outro vídeo, sobre como
00:16:18isso está mudando e como isso pode não ser necessariamente o que você gosta. Definitivamente não foi
00:16:26por isso que entrei no desenvolvimento de software em primeiro lugar. Mas sim, este é o impacto aqui. E
00:16:31quanto mais capazes esses modelos ficam, mais importante eu acho que se torna ter essa voz humana
00:16:39ali também, essa influência humana ali também. Então esse é esse papel em mudança e o
00:16:48nosso papel no futuro. Mas sim, quero dizer, estes são desenvolvimentos realmente interessantes e, especialmente
00:16:58este modelo e suas implicações e essa relevância de segurança cibernética que ele tem,
00:17:04faz a gente pensar: o que teria acontecido ou o que aconteceria se outros atores, outras nações ou
00:17:16organizações no mundo colocassem as mãos neste modelo ou em modelos que são similares em capacidade?
00:17:23Porque, claro, é apenas uma questão de tempo até que modelos com capacidades similares estejam acessíveis
00:17:33ao público ou certamente, pelo menos, por outras nações e atores. E, sim, não tenho certeza se
00:17:44estamos preparados para essa nova corrida na segurança cibernética e esse atraso entre bugs sendo encontrados
00:17:52e corrigidos, e as pessoas instalando essas correções. Acho que entraremos em uma nova era da segurança
00:18:00cibernética e seremos capazes de nos ajustar, tenho certeza, mas isso definitivamente marca um ponto
00:18:08interessante na história do desenvolvimento de modelos, eu diria.

Key Takeaway

A Anthropic reteve o modelo Mythos de 10 trilhões de parâmetros devido à sua capacidade sem precedentes de encontrar e explorar vulnerabilidades de segurança de décadas em sistemas como OpenBSD e FFmpeg a um custo operacional inferior a 50 dólares.

Highlights

A Anthropic atingiu uma receita recorrente anual de 30 bilhões de dólares em abril de 2026, triplicando os 9 bilhões registrados no final de 2025.

O novo modelo Mythos possui aproximadamente 10 trilhões de parâmetros e teve um custo de treinamento estimado em 10 bilhões de dólares.

O Mythos identificou uma vulnerabilidade de estouro de inteiros no OpenBSD que existia há 27 anos e permitia ataques de negação de serviço.

Uma única execução do modelo para detectar a falha crítica no OpenBSD custou menos de 50 dólares.

O custo projetado por token para o Mythos varia entre 25 e 125 dólares para operações de entrada e saída.

A iniciativa Projeto Glasswing reúne Anthropic, AWS, Apple, Microsoft e Linux Foundation para corrigir falhas de segurança antes do lançamento público de modelos potentes.

Timeline

Crescimento financeiro e restrições de assinatura

  • A receita anual da Anthropic saltou de 9 bilhões para 30 bilhões de dólares em poucos meses.
  • As assinaturas do Claude Max são pesadamente subsidiadas e sofrem novas restrições para impedir o uso não humano.
  • O combate ao uso não autorizado visa garantir a viabilidade financeira das ofertas de consumo.

O crescimento acelerado da receita reflete a relevância da empresa no setor de desenvolvimento. Para proteger as margens de lucro, o acesso via interface web e aplicativos oficiais é restrito a humanos, evitando o esgotamento de recursos por automações externas em contas subsidiadas. Este cenário financeiro precede a discussão sobre o alto custo de operação de novos modelos de larga escala.

Capacidades de segurança cibernética do modelo Mythos

  • O modelo Mythos supera o Opus 4.6 em múltiplos benchmarks de desempenho técnico.
  • A Anthropic bloqueou o lançamento público do Mythos por sua eficácia extrema em explorar vulnerabilidades de sistemas operacionais.
  • O sistema identificou falhas de memória reprodutíveis no OpenBSD com um investimento de processamento irrisório.

O Mythos demonstrou ser capaz de localizar bugs que permaneceram ocultos para especialistas humanos por quase três décadas. Além do OpenBSD, o modelo enviou patches de segurança para a equipe do FFmpeg, confirmando a veracidade de suas capacidades analíticas. A preocupação central reside na facilidade com que agentes mal-intencionados poderiam usar essa tecnologia para derrubar redes corporativas inteiras por custos baixos.

Projeto Glasswing e barreiras econômicas

  • O Projeto Glasswing funciona como uma coalizão entre gigantes da tecnologia para correção proativa de softwares.
  • O custo de treinamento de 10 bilhões de dólares e o preço por token inviabilizam a inclusão do Mythos em assinaturas padrão.
  • A assimetria entre a descoberta de falhas por IA e a velocidade de atualização dos servidores globais gera novos riscos.

A colaboração com empresas como Apple e Microsoft permite que falhas sejam corrigidas antes que o modelo seja acessível a atores externos. O tamanho do modelo, com 10 trilhões de parâmetros, impõe uma barreira financeira natural, já que o custo por token é proibitivo para o usuário comum. No entanto, a existência de servidores rodando softwares desatualizados cria uma janela de oportunidade para ataques em massa automatizados por IAs semelhantes.

O papel do desenvolvedor na era da automação total

  • A função do programador migra da escrita manual de código para a direção e revisão de modelos autônomos.
  • O controle humano sobre o escopo e as tarefas dos agentes de IA torna-se o fator de segurança mais crítico.
  • O desenvolvimento de modelos de fronteira marca o início de uma nova corrida armamentista na segurança cibernética global.

Modelos como o Mythos já conseguem superar a capacidade técnica da maioria dos desenvolvedores em tarefas específicas de codificação e auditoria. A relevância humana passa a residir na capacidade de definir limites éticos e técnicos para que agentes não operem de forma descontrolada. Este estágio tecnológico sinaliza uma mudança permanente onde a defesa cibernética deve ser tão automatizada quanto os potenciais ataques.

Community Posts

View all posts