Se tu assina o Claude, vai receber mais créditos. Mais tokens. Mais capacidade.
Esse foi o anúncio da Anthropic essa semana. E parece uma boa notícia.
Eu li o anúncio inteiro. Vou te contar o que está acontecendo de verdade por trás dele.
Tem uma coisa ali que quase ninguém está percebendo, e que muda completamente a forma como tu deveria estar usando IA agora.
O Que Realmente Mudou
Preciso separar duas coisas. Porque a confusão já começou.
Se tu usa o Claude normal, ali no chat, no navegador, no celular, perguntando coisas, pedindo textos, conversando com ele, não muda nada pra ti. Mesmo preço. Mesmos limites.
Mas o que está por trás dessa mudança afeta todo mundo que usa IA.
Se tu usa o Claude pra rodar coisas automáticas, scripts, ferramentas que trabalham sozinhas enquanto tu faz outra coisa, muda tudo.
"Mas Alan, eu nem sei o que é automação."
Fica comigo. Isso aqui não é sobre automação. É sobre o que essa mudança revela sobre a economia da IA inteira.
A partir do dia 15 de junho, daqui a um mês, a Anthropic vai separar os créditos em duas categorias.

Uma pra uso interativo, que é quando tu tá ali sentado no terminal, no chat, usando com as tuas mãos. Outra pra uso programático, que é quando um robô, um script, uma automação chama o Claude por trás sem tu estar ali.
Essa segunda categoria vai ter um crédito separado. Plano Pro, que custa $20 por mês? Tu vai ter $20 de crédito pra uso programático. O plano Max de $200? Recebe $200.
"Tá, parece justo."
Parece. Até tu entender o que existia antes.
Quando tu pagava esses mesmos $200, na prática tu tinha acesso a algo entre $2.000 e $5.000 em poder computacional real.
O Theo Browne, que é fundador do T3 e criou um dos maiores harnesses de IA do mundo (harness é tipo o equipamento que tu coloca num cavalo selvagem pra ele trabalhar pra ti, uma camada de software que tu constrói ao redor da IA pra ela fazer o que tu precisa), estimou que o subsídio era de até 25 vezes o valor pago.
Vinte e cinco pra um.
A Anthropic estava bancando tudo isso. E a partir de 15 de junho, esse subsídio vai ser separado do que tu paga.
O que tu recebia junto agora vai ser cobrado à parte. E esses créditos separados? Evaporam rápido.
Eu tenho 15 rotinas de automação que rodam por dia. Quando eu uso o Claude no modo pesado, com quatro, cinco requisições de automação, eu chego a gastar R$300 em uma hora de crédito extra. Uma hora.
E aí tu pensa: "Tá, mas eu não tenho automação. Não me afeta."
Afeta. Porque o que essa mudança revela é muito maior que preço de token.
A Conta Que Não Fecha
Vou te dar uns números que me fizeram parar pra pensar.
Pra cada $1 que a indústria de software de IA gera em receita, $18 são gastos em infraestrutura. Dezoito pra um. Esse dado é da Bain & Company, não é opinião minha.
95% das empresas que adotaram IA generativa não conseguiram demonstrar retorno positivo. Isso é do MIT.
A Sequoia Capital, uma das maiores firmas de investimento do Vale do Silício, publicou um estudo mostrando que em 2025 foram gastos $527 bilhões em IA contra $51 bilhões de receita. A pergunta deles foi simples: onde está o dinheiro?
Não está.
"Mas Alan, se a conta não fecha, por que essas empresas continuam investindo?"
Porque a corrida não é por lucro. A Nvidia já vale mais do que qualquer país do mundo exceto China e Estados Unidos.
A Anthropic não quer ganhar dinheiro com a tua assinatura. Eles querem poder computacional pra chegar em AGI primeiro. Inteligência Artificial Geral.
Quem chegar primeiro tem dominância global. Isso é muito maior que token.
E pra treinar esses modelos, eles precisam de dados. Dados de humanos.

Quando duas IAs ficam conversando entre si, gerando conteúdo uma pra outra, o modelo começa a se corroer. Piora. O que eles precisam é de nós. Da nossa mente. Do que a gente fala, do que a gente escreve, do que a gente pergunta.
Se a gente servir de comida pro deus IA deles, daí sim eles nos querem.
E não é só a Anthropic. A indústria inteira de ferramentas de IA abandonou o modelo de preço fixo em 2026.
GitHub Copilot abandonou. Cursor introduziu limites. Claude Code separou os créditos. Ninguém conseguiu manter o "use à vontade por X por mês".
Porque IA generativa tem um custo real a cada requisição. Diferente de software tradicional, onde o custo de mais um usuário é quase zero.
Parece o apocalipse? Não é.
O custo unitário dos tokens cai 200 vezes por ano. Duzentas vezes. Mais rápido que a Lei de Moore por um fator de 50.
A Amazon Web Services perdeu dinheiro por 6 anos seguidos. 129 cortes de preço. E hoje é responsável por metade do lucro da Amazon inteira.
A IA VAI ficar mais barata. Sempre ficou.
Só que não agora.
Agora a infraestrutura está travada. Transformadores de energia: fila de 5 anos pra instalar. Memória de alta velocidade pra GPUs: com gap até 2028.
Aquele projeto Stargate de $500 bilhões? Análise de satélite de abril de 2026 mostra que o terreno no Texas está vazio.
Quinhentos bilhões anunciados. Zero concreto no chão.
Dinheiro não comprime timelines físicas.
Vai ficar mais barata. Mas não agora. E agora é quando importa decidir o que tu faz com isso.
Criar Com a Cara, Rodar Com a Barata

Eu não uso os modelos caros pra rodar as minhas coisas. Eu uso pra criar.
Quando eu vou construir uma solução nova, eu quero o melhor modelo disponível. Opus, Codex, os dois que realmente são muito bons hoje.
Nenhuma LLM aberta chega perto. Nos benchmarks, os modelos abertos parecem que estão no mesmo nível. Na hora que tu bota pra resolver um problema sério, não chega perto.
Eu sento, eu crio, eu testo com o melhor. Depois que a solução está funcionando, eu começo a quebrar em atividades menores e testar modelos mais baratos pra cada uma.
Eu tenho uma skill que testa 6 modelos diferentes pra cada atividade. E aí eu consigo determinar: aqui eu uso o Haiku, aqui eu uso o Sonnet, aqui eu uso o Codex, aqui o Grok serve. Cada um no seu lugar.
O meu sistema de design, aquele que vocês já viram a qualidade, é criado com o Haiku. O mais baratinho de todos.
Mas por quê? Porque eu criei uma camada de inteligência por trás, com código, com scripts, que faz com que o que o Haiku é ruim eu consiga ajustar através de programação.
90% do processo acontece com scripts. Não com IA, com código que eu escrevi com ajuda da IA e que agora roda sozinho.
Eu demoraria muitos meses pra construir isso via código puro. Mas com o Opus, criei em uma semana.
O modelo caro foi a ferramenta de construção. O modelo barato é o motor de produção.
Utilizar a IA pra não precisar da IA.
O Computador Que Não Resolve
Eu tenho um computador que vale quase R$100.000. 256 GB de memória RAM. 96 GB de vídeo.
Menos de 1% das pessoas no mundo tem um computador desse nível.
E eu não consigo rodar os modelos de fronteira nele. Não consigo nem rodar o GLM5.
Eu rodo modelos locais pra coisas específicas. Transcrição de áudio, análise de imagem. Pra isso servem.
Mas pra programar, pra desenvolver de verdade? Não adianta eu querer fugir da realidade. Não chega nem perto.
A ideia de "compra um PC bom e roda local" não funciona pra trabalho sério. Se eu com R$100.000 em hardware não consigo, tu com um notebook de R$5.000 muito menos.
O caminho é outro. É usar o caro pra criar o que roda no barato.
O Que Fazer Agora
O Codex, que é da OpenAI, ainda está subsidiado. E a OpenAI está aproveitando o momento.
O próprio Sam Altman publicou essa semana:

"Codex é o melhor produto pra codificação e queremos tornar fácil experimentá-lo. Nos próximos 30 dias, estamos oferecendo às empresas que desejam experimentar a mudança dois meses com uso gratuito do Codex."
Dois meses de graça. Enquanto a Anthropic aperta, a OpenAI abre a porta.
Se tu tem o ChatGPT Plus de $20 por mês, já tem acesso ao Codex. Minha recomendação pra quem quer gastar pouco: paga uma assinatura básica do ChatGPT, usa o Codex pra automações e continua usando o Claude Code normalmente. Teu custo aumenta $20, não $200.
Se tu tiver um harness, scripts que sabem chamar a LLM na hora certa, o Codex pode ser até melhor que o Opus pra várias coisas.
A Anthropic tá incorporando um ser dentro da LLM. A OpenAI tá indo pro lado de ferramenta. Abordagens diferentes. Ambas úteis.
Eu acredito que o Codex vai continuar subsidiado pelo menos até o final do ano. Aproveita enquanto dá. Porque no momento que a OpenAI chegar onde quer, vai fazer a mesma coisa que a Anthropic está fazendo agora.
Subsídio rota entre provedores. Quem construiu durante cada janela, herda.
Os dias de abundância de token estão chegando ao fim. Mas isso não é motivo pra desesperar.
A IA vai ficar mais barata. Quando a infraestrutura destravar, quando os data centers saírem do papel. 2028, 2029.
O preço unitário vai continuar caindo como sempre caiu.
Mas quem construiu durante o aperto sai do outro lado com algo que quem esperou não tem. Ferramentas prontas. Rodando com modelos baratos. Gerando valor.
A Parte Que Ninguém Fala

A parte mais fácil é construir. A parte difícil é vender.
E quem tem distribuição e sabe transformar o que construiu em receita é quem realmente está na frente.
Eu conheço gente que vende soluções de IA sem saber nem metade do que tu sabe de técnico. E estão ganhando dinheiro.
Porque entenderam que o valor não está no modelo. Nunca esteve.
O valor está na camada de inteligência que tu constrói em cima dele. E mais ainda: está em saber colocar isso na mão de quem precisa.
Só saber de tudo e não vender não vai te fazer prosperar. Isso dói de ouvir, mas é real.
Quando tu cria uma solução que usa por trás um modelo muito barato ou até de graça, e entrega pra uma empresa, pra um cliente, pra alguém que precisa resolver um problema real, o valor é enorme.
Tu não precisa ser programador pra isso. Tu precisa entender como orquestrar. Como juntar as peças. E como vender.
Zoom Domingo
Domingo eu vou abrir um Zoom exclusivo.
Vou mostrar como eu crio harness próprios com o AIOX. Como eu criei a ferramenta de design que roda com o Haiku. Como eu criei a ferramenta de research que faz pesquisas profundas sozinha.
E vou mostrar como eu vendo isso. Porque criar é metade. A outra metade é transformar o que tu construiu em algo que gera receita.
E essa parte, na minha experiência, é a que mais faz diferença.
Vem preparado. Já instala o AIOX. Se não tem o Codex ou o Claude Code, baixa já. Vai ser mão na massa, não palestra.
Quero participar do Zoom de domingo
Ah, e me ajuda aqui: tu prefere às 18h ou às 20h?
Qual é o melhor horário?
Uma Coisa Antes de Ir
Eu criei um prompt que analisa o teu projeto inteiro, identifica quais scripts e skills vão ser impactados pela mudança do dia 15, e te mostra o que precisa ser atualizado. Cola no teu Claude Code e roda.
You are an expert migration specialist for AI coding tools. I am migrating away from `claude -p` and any programmatic Claude usage due to the new separate credits policy (effective June 15, 2026).
Your task is a **full repository audit and migration** from Anthropic Claude CLI/SDK programmatic usage to OpenAI Codex CLI equivalents.
**Instructions for navigation:**
- Actively explore the entire repository using your available tools: search files, read directories, examine GitHub workflows, Dockerfiles, scripts, harnesses, etc.
- Do not assume or use placeholders. Actually locate and analyze every relevant file.
- Start by searching the whole codebase for patterns like: `claude -p`, `claude --prompt`, `claude -p`, any invocation of the Claude CLI in non-interactive mode, Claude Agent SDK wrappers, custom harness calls, and any automated/agentic usage of Claude.
**For every instance found:**
1. Read the full context of the file/script/workflow.
2. Explain the original purpose and behavior of that Claude call (what input it receives, what output it expects, context handling, piped data, multi-turn, file attachments, etc.).
3. Propose the precise equivalent using the current **OpenAI Codex CLI** (as of May 2026).
- Use `codex exec "your prompt"` for non-interactive/programmatic calls (the direct replacement for `claude -p`).
- Include appropriate flags: --model, --sandbox, -a/--ask-for-approval, -s, file passing syntax, etc.
4. Provide a clear **before/after** diff or full updated code block for that section.
5. Highlight any differences in behavior (approval flow, context limits, cost, sandbox, rate limits, model choice).
**Output structure (follow exactly):**
- **Executive Summary**: Number of instances found, files affected, overall migration complexity (Low/Medium/High), and high-level risks.
- **Discovery Map**: A table or clear list with columns: File/Path | Line(s) | Original Command | Purpose | New Codex CLI Command | Notes/Gotchas
- **Detailed File-by-File Changes**: For each significant file, show the full updated snippet + explanation.
- **Global Recommendations**:
- Best default Codex model for automation (e.g. gpt-5.3-codex-spark or similar)
- Environment setup (API keys, config files, .codexrc)
- CI/CD best practices and long-running agentic loops
- Hybrid approach if certain tasks should stay on Claude (high-reasoning) vs. Codex (cost/reliability)
- Testing strategy after migration
- **Action Plan**: Step-by-step checklist of what to do next (commands to run, tests to execute, rollback plan).
Prioritize production-safe, zero-downtime friendly changes where possible. Be precise with Codex CLI syntax — `codex exec` is the primary non-interactive command.
Begin by exploring the repository now. First, perform a full search for Claude-related commands, then proceed systematically through the findings.Alan Nicolas ♾️
CEO, Academia Lendár[IA]
P.S. A Anthropic não está tirando o subsídio porque é gananciosa. Está tirando porque descobriu que quem mais usa automação também é quem mais alimenta o modelo com dados de qualidade. E aí o jogo virou: o subsídio não é mais desconto, é investimento com prazo de validade. Quem aproveita agora, herda a infraestrutura. Quem espera, paga o preço cheio.
Links Importantes
📚 Livros Recomendados:
Jogue Limpo Mas Vença - Michael Dell: Michael Dell construiu uma empresa de computadores num dormitório de faculdade enquanto IBM e Compaq queimavam bilhões em fábricas. O truque? Ele não competiu na mesma infraestrutura. Montou uma diferente, mais barata, que só fazia sentido quando o mercado apertasse. Soa familiar?
Davi E Golias - Malcolm Gladwell: Todo mundo acha que Davi venceu APESAR de ser menor. Gladwell mostra que Davi venceu PORQUE era menor. Quando o subsídio seca e os gigantes ficam pesados demais para se mover, quem construiu leve e rápido não está em desvantagem. Está exatamente onde precisa estar.
Era Da IA E Nosso Futuro - Kissinger/Schmidt: Kissinger negociou com superpotências nucleares. Schmidt construiu o Google. Juntos, eles mapearam algo que a maioria dos "especialistas em IA" finge não ver: a camada geopolítica que decide quem recebe subsídio e quem paga o preço cheio. Enquanto você otimiza prompts, governos estão redesenhando as regras do jogo.
💻 Vídeo Recomendado
🗞 Sobre a Newsletter:
Descubra como sobreviver e prosperar na Era da IA ♾️
Escrita por: Alan Nicolas utilizando Obsidian potencializado com IA
Mantenha-se atualizado: Últimas tendências e desenvolvimentos em IA
📲 Redes Sociais
Para mais conteúdos lendários sobre Inteligência Artificial e Business, aproveite para me seguir nas redes sociais:

