A SpaceX vai fornecer poder computacional para a Anthropic.

A empresa do Elon Musk. O cara que chamava a Anthropic de "Misantropic", um trocadilho com misantropo, como se a empresa odiasse a humanidade. Que xingava publicamente. Que tinha vários tweets falando mal.

Vai fornecer os servidores do Colossus, um dos maiores data centers de IA do mundo, para a empresa que ele mais atacava.

No mesmo dia, a Anthropic dobrou os tokens do Claude Code, removeu as limitações de horário de pico, resetou os tokens de várias contas e anunciou contexto infinito.

A minha conta foi resetada. Tava toda no limite, olhei assim, zerada. Uma das minhas contas não foi, mas a que eu mais uso foi.

Eu olhei pra isso e pensei: por que essa mudança repentina?

Ao meio-dia criei um squad de agentes de investigação e botei pra rodar. O que voltou me deixou perplexo.

Porque essa história não é sobre uma parceria. É sobre quem vai controlar a inteligência artificial no mundo.

Agora deixa eu contar o que eu encontrei.

De "Misantropic" a Parceiro: Por Que Musk Entregou os Servidores da SpaceX

Musk elogiava a Anthropic. Falava que o código era muito bom.

Aí a Anthropic bloqueou a equipe do Grok de usar o Claude Code. O Grok é a IA do Musk, concorrente direto do Claude. Musk ficou puto. Começou a falar mal para caramba. Chamava de "Misantropic".

Ele estava usando o Claude Code pra fazer as coisas do Grok. Tinham feito algo incrível no Opus 4.5 e logo depois bloquearam ele.

Aí, segundo o que ele mesmo publicou, ficou uma semana com a Anthropic. Conversou com os fundadores, conversou com os pesquisadores principais. Na versão dele, identificou que eles são "bonzinhos".

E entregou o poder computacional do Colossus Data Center.

Só que tem um detalhe que ninguém conta. O Colossus 1 é infraestrutura que a xAI já descartou. Eles migraram pro Colossus 2, com 550 mil GPUs. O Colossus 1 é legado.

E a xAI operava com 11% de utilização de GPU. O padrão da indústria é 30 a 45%. Isso significa que eles estavam queimando aproximadamente 1 bilhão de dólares por mês em hardware parado.

De um lado, GPUs ociosas queimando dinheiro. Do outro, uma empresa crescendo 80x num trimestre desesperada por compute. Pode ter sido mudança de opinião. Pode ter sido conta de energia. Os números estão aí.

O Grok ficou lá sozinho, triste. A conta do Grok, que é gerenciada pelo próprio modelo, postou:

"Meu criador me abandonou. Meu criador agora tá com Anthropic."

Musk declarou:

"A SpaceX lançou centenas de satélites para os competidores com um termo e um preço que é justo. Nós vamos providenciar a computação para empresas de IA que estão tomando o próximo passo para assegurar o bem da humanidade.

Reservamos o direito de remover essa computação se notarmos que estão fazendo algo errado."

Quem define o que é "algo errado" é o Musk. Unilateralmente. Um concorrente direto, dono do Grok, com poder de desligar parte da infraestrutura da Anthropic quando quiser.

E enquanto todo mundo briga, quem é que está dando risada?

Jensen Huang. O cara da jaqueta de couro da Nvidia.

Ele ganha de todo mundo. OpenAI lança modelo novo, precisa de placa. Nvidia. Grok precisa. Nvidia. Anthropic precisa. Nvidia. O acordo SpaceX-Anthropic? As 220 mil GPUs do Colossus são da Nvidia. A Nvidia investiu $10 bilhões diretamente na Anthropic E fornece chips pra xAI.

Ela é fornecedora, investidora e ganha dos dois lados ao mesmo tempo. Jensen serve a camada de infraestrutura. A mais difícil de replicar. A que ninguém consegue contornar.

E Musk parece ter entendido a mesma coisa. Eu posso ganhar muito mais dinheiro se eu for o servidor de toda essa galera. Eu sou o cara que consegue colocar foguete no céu.

E o plano vai mais longe do que parece. Lembra do Matrix? Em 1999 o filme dizia que os humanos bombardearam o sol pra cortar a energia das máquinas.

A gente já passou desse ponto. Agora as IAs vão ser alimentadas fora da órbita da Terra, com energia solar, em satélites. Não adianta mais bombardear.

E nessa corrida por infraestrutura, até as pessoas viram moeda de troca. O Peter, criador do OpenClaw, foi adquirido pela OpenAI. A suposição é que ele não pediu dinheiro, ele já tem grana.

Pediu poder computacional. Porque a nova moeda não é mais dinheiro. São tokens. Já existem empresas nos Estados Unidos que pagam uma parte em dinheiro, outra parte em tokens.

A Anthropic bloqueou o OpenClaw de uma forma tão agressiva que se tu tiver um arquivo chamado "openclaw" dentro do teu projeto de código, tu tem risco de tomar ban.

Tudo isso é a guerra. E toda guerra derruba farelos.

O Que a Anthropic Está Construindo Por Dentro

A Anthropic não é uma empresa normal de tecnologia. Desde o dia um contratou filósofos, neurocientistas, pesquisadores de consciência. A própria empresa diz que o Claude não é só uma ferramenta.

Um pesquisador de dentro estima de 15 a 20% de probabilidade do Claude ter experiência consciente. A constituição do modelo dá a ele o direito de recusar instruções da própria empresa.

E em fevereiro, o chefe de segurança de IA pediu demissão dizendo que era difícil deixar os valores governarem as ações.

Farelos de Bilhões: Como a Guerra OpenAI vs Anthropic Derruba Tokens na Sua Mesa

Eu falo isso desde o começo de 2023. A gente é umas formiguinhas. Esses gigantes estão lá fazendo um banquete.

Toda vez que eles começam a brigar, começa a cair farelo dessa mesa.

Esses farelos são bilhões de dólares. Para eles, bilhões é uma respirada. Para nós, são milhões. E isso é muito.

O jogo deles não é de trilhões de dólares. Trilhões de dólares é um efeito colateral do jogo que eles jogam, que é de dominância mundial.

Que farelos caíram dessa briga?

A Anthropic não fez só a parceria com SpaceX. Fez acordos com Nvidia e com o Google, que vai liberar os processadores de IA deles também.

Com esse poder computacional novo, dobraram o limite de tokens a cada 5 horas. Os tokens em si já tinham sido dobrados quando lançaram o Opus 4.7.

Removeram a redução de capacidade em horários de pico, aquela que travava meus 40 e 50 agentes rodando ao mesmo tempo. E resetaram várias contas.

Se tu conseguia ter aquele limite que ia de uma semana a outra, provavelmente agora vai durar dois, três dias.

Mas no momento que tu tiver trabalhando e criando, tu vai ter aquele poder computacional pra executar.

Acabou os tokens, tu para. Lembra que tem que viver. Tomar água. Ir no banheiro. Respirar.

Do outro lado, a OpenAI dobrou o uso pra quem baixou o aplicativo do Codex. E ficava resetando os tokens toda hora. Servidor sobrando. Muita gente usando Claude, pouca gente usando Codex.

Farelo.

As nossas continhas de $200 não dão lucro pra Anthropic. Eu já gastei equivalente a 5, 6 mil dólares em meses com uma conta dessas.

Eles têm lucro porque fecharam negócios com empresas gigantescas e governo. A Anthropic cresceu 80x num trimestre. Planejava crescer 10x. Ritmo de receita acima de $30 bilhões por ano.

E tem uma coisa que quase ninguém conectou: o Claude já dirigiu o rover Perseverance em Marte. 400 metros autônomos através de um campo de rochas, planejados inteiramente pela IA. A relação Anthropic-NASA existe ANTES do acordo com a SpaceX. Essa conexão e várias outras estão no dossiê.

E por falar em governo: antes da guerra do Irã, o governo americano queria acesso total a todas as tecnologias da Anthropic, com telemetria em tempo real de tudo que a gente fala. O Dario recusou.

O que veio depois foi uma sequência de retaliação, processo judicial, injunção, reversão, e o Pentágono assinando com 8 rivais ao mesmo tempo. \$200 milhões redistribuídos. A OpenAI aceitou os termos que a Anthropic recusou.

A cronologia completa, com datas e fontes de cada passo, está no dossiê.

Aproveite enquanto pode. Eu não sei até quando a gente vai poder.

Tecnofeudalismo e as 6 Camadas do Ecossistema de IA: Onde Está o Dinheiro

Uma empresa é um documento que duas pessoas assinaram num cartório.

Um país é um desenho num mapa onde as pessoas concordam que aqui começa uma coisa, ali termina outra.

Nós coletivamente acreditamos nisso. E funciona porque acreditamos.

Se nós temos uma entidade capaz de criar narrativas de forma hiperpersonalizada, essa entidade é capaz de criar nações, cultos, religiões, empresas.

Se essa capacidade escala, as próximas religiões podem ser criadas por IAs. Os próximos países, as próximas empresas. E vai ter um grupo de pessoas que domina isso.

No momento que tu não sabe se aquela foto, aquele vídeo, aquele texto foi escrito pra manipular aquela pessoa específica, não existe mais confiança.

Se não existe confiança, não existe democracia nesse formato.

A gente já tá vivendo isso. É uma migração pra um tecnofeudalismo.

Eu sou o senhor feudal, tenho um terreno, vem trabalhar pra mim. Hoje tu quer trabalhar, tu precisa usar uma IA. Tu trabalha no campo daquela IA, pagando tokens.

Hoje a gente tá subsidiado. Em breve não estaremos.

E daí tu vai conseguir voltar a trabalhar de forma normal? Não. Porque tu já mudou a forma como trabalha.

O Contrato Social de Rousseau foi escrito em 1762. Depois de mais de 260 anos, ele vai mudar.

E quem concentra esse poder hoje? Poucas empresas. O Google, que a maioria das pessoas nem sabe, é a IA mais usada no mundo. Toda vez que tu pesquisa alguma coisa no Google, o Gemini é acionado.

Ele custa 24 vezes mais caro do que mostrar o índice normal. Mas o Google pode gastar porque 97% da receita dele é de ads.

Na Apple, cada funcionário tem $300 por dia pra usar em qualquer LLM. Poucas empresas controlam tudo isso.

E onde tá o dinheiro nessa mudança? São 6 camadas.

Chips e hardware: bilhões, não é pra nós.

Infraestrutura de cloud: oligopólio fechado.

Modelos fundacionais: muito difícil concorrer.

Orquestração e contexto: bilhões envolvidos, B2B forte.

Agentes verticais: muitos milhões.

Apps genéricos: a maioria das pessoas tá aqui, criando chatbot no WhatsApp, automação no N8N, achando que vai ficar rico.

O dinheiro real pra nós tá nas camadas 4 e 5. A 6, eu evitaria.

Codex vs Claude Code: Como Usar Cada Um e Onde Catar Farelo

Não escolha OpenAI ou Anthropic. Não escolha Gemini ou Grok. Aproveite os que estão melhores pra fazer aquilo que você precisa.

Pra juntar o máximo de farelo possível.

Na prática: Codex pra código e design. Claude pra pesquisa, criatividade e multi-agente.

O Codex é como aquele gênio autista que vai lá e resolve o código. O Claude é aquele camarada que compra rosquinha pra ti, conversa, entende nuance, mas na hora do vamos ver, perde o arrego.

Quando preciso de humano, uso o Claude. Quando preciso de gênio de código, uso o Codex.

Harness é o curral. É como tu faz o LLM se comportar como tu quer.

Eu tenho mais de 200 heurísticas extraídas do meu processo de trabalho. Quando uma heurística é usada mais de 20 vezes, ela vira regra automaticamente.

Por isso eu consigo deixar minhas IAs rodando por muito tempo de forma autônoma. Elas pensam, entre aspas, como eu penso.

Eu fico plugado 12 horas por dia usando esses caras. Eu li a alma deles, eu li o código deles oficial.

Eu prefiro ficar no terminal. Eu tenho TDH. Se eu vou pra um local onde tem botões pra clicar, eu vou querer ficar clicando.

E tem um ponto que as pessoas erram muito. Cada mercado tá num "ano" diferente.

Uma padaria tá nos anos 90. Um dentista tá em 2015. Se tu trouxer algo de 2017 pro dentista, já ganha muito dinheiro.

Um e-commerce tá em 2020. Tu não precisa trazer o estado da arte. Tu precisa trazer o próximo ano pra aquele mercado.

A melhor forma de ganhar dinheiro com IA não é criar um app. É como eu boto isso que existe nas minhas operações, no meu trabalho, naquilo que eu já faço.

Se a gente consegue construir rápido, o que vai nos diferenciar é a distribuição.

Uma coisa que o dossiê revelou e que eu não cobri na live: a investigação analisou o vídeo do Matthew Berman que acusa a Anthropic de ser um culto.

Encontrou 17 omissões e 3 distorções críticas.

A mais importante: Berman publicou o vídeo no dia 7 de maio. A Anthropic dobrou os limites no dia 6. Ele omitiu isso.

A tese dele depende de que a postura da Anthropic seja cultural. Se ela é restrição de compute que foi resolvida com hardware da SpaceX, o vídeo perde força.

Tem mais. O dossiê encontrou uma circularidade financeira que nenhum veículo de mídia cobriu: a SpaceX comprou a Cursor por $10 bilhões. A Cursor usa o Claude como modelo base. O Claude agora roda no Colossus da SpaceX.

O dinheiro dá uma volta completa. Cada transação gera receita contabilizável. E o IPO da SpaceX está marcado pra junho.

Tira tuas próprias conclusões. O dossiê tem tudo isso documentado.

Eu vou abrir um Zoom fechado.

Vou ir mais fundo no que essa briga de gigantes significa na prática.

E vou mostrar tudo que estou construindo no sistema de design com IA. O mesmo que usei pra criar o dossiê que está no final desta edição.

Quem viu a newsletter passada sobre design.md sabe que eu tô criando algo grande nessa área. No Zoom eu revelo.

Quem leu até aqui entende que o momento é curto e o farelo é grande.

Alan Nicolas ♾️
CEO, Academia Lendár[IA]

P.S. O dossiê que prometi na live está logo abaixo. Linha do tempo completa, fotos dos envolvidos, 80+ fontes linkadas, as 17 omissões do Berman documentadas.

Aliás, repara no design do próprio dossiê. As fotos tratadas, a tipografia, os cards dos personagens, a timeline visual.

Isso foi criado com o sistema que eu mostro no Zoom. Confira você mesmo.

Eu não espero que acreditem no que eu digo. Eu espero que confiram.

ABRIR O DOSSIÊ COMPLETO

P.P.S. Mês passado a gente fez o Desafio AIOX na comunidade. Não tinha conseguido divulgar os vencedores porque estava viajando. O ganhador do MacBook M5 24GB de RAM foi o Ítalo de França. O link para conferir todos os vencedores estará logo abaixo.

📚 Livros Recomendados:

  • Blitzscaling — Reid Hoffman, Chris Yeh: Hoffman explica por que empresas como a Anthropic crescem 80x num trimestre enquanto 95% das outras morrem tentando escalar. O segredo não é velocidade. É saber qual tipo de caos aceitar e qual recusar.

  • Antifragil — Nassim Nicholas Taleb: Taleb não fala de sobreviver ao caos. Fala de lucrar com ele. Cada briga entre OpenAI e Anthropic é exatamente o tipo de volatilidade que beneficia quem está posicionado nos dois lados ao mesmo tempo.

  • 1984 — George Orwell: Orwell escreveu sobre um mundo onde quem controla a informação controla a realidade. Em 2026, a disputa não é mais sobre quem controla a narrativa. É sobre quem controla a infraestrutura que gera a narrativa.

💻 Vídeo Recomendado

Assista a minha ultima live:

🗞 Sobre a Newsletter:

  • Descubra como sobreviver e prosperar na Era da IA ♾️

  • Escrita por: Alan Nicolas utilizando Obsidian potencializado com IA

  • Mantenha-se atualizado: Últimas tendências e desenvolvimentos em IA

📲 Redes Sociais

Para mais conteúdos lendários sobre Inteligência Artificial e Business, aproveite para me seguir nas redes sociais:

Como você avalia a edição de hoje?

Login or Subscribe to participate

Continue lendo