22 C
Marília
HomeCiência & TecnologiaO fim do almoço grátis da IA – a conta chegou e...

O fim do almoço grátis da IA – a conta chegou e você vai pagar

spot_img


No início de abril, milhões de usuários do OpenClaw amanheceram com uma notícia desconfortável. A ferramenta de agentes de IA que havia tomado o mundo tecnológico de assalto em 2026 tinha sido severamente restringida pela Anthropic, desenvolvedora do chatbot Claude. Quem quisesse continuar usando sua plataforma para alimentar seus agentes teria que pagar consideravelmente mais pelo privilégio. “Nossas assinaturas não foram construídas para os padrões de uso dessas ferramentas de terceiros”, escreveu Boris Cherny, chefe do Claude Code, no X. “Queremos ser intencionais no gerenciamento do nosso crescimento para continuar servindo nossos clientes de forma sustentável no longo prazo.”, destaca uma reportagem da The Verge.

Poucos meses antes, em janeiro, a OpenAI havia dado seu próprio sinal de mudança — mas em outra frente. A empresa confirmou o início dos testes de anúncios no ChatGPT para usuários adultos nos EUA nos planos gratuito e no recém-lançado ChatGPT Go. Os anúncios aparecem ao final das respostas, claramente identificados como “Sponsored” e separados visualmente do conteúdo gerado pela IA. A Anthropic respondeu com uma provocação incomum para o mundo corporativo. Veiculou anúncios no Super Bowl de 2026 criticando diretamente a decisão da rival. A ironia não passou despercebida. Dias depois, ela própria anunciaria restrições ainda mais duras aos seus próprios usuários.

As duas decisões, distintas na forma mas idênticas nos objetivos, contam a mesma história. A era de ouro da IA gratuita — ou quase gratuita — está chegando ao fim. Não é apenas nos agentes autônomos que as empresas estão redesenhando seus modelos de negócio. É em toda a cadeia, do usuário casual que conversa com um chatbot ao desenvolvedor que roda fluxos de trabalho complexos em segundo plano. Ao longo dos próximos três anos, o que vem a seguir vai parecer, para muitos, como uma ressaca depois de uma festa que se estendeu por um curto tempo.

Trilhões enterrados

Para entender o que está acontecendo, é preciso olhar para os números por trás do marketing. Entre 2024 e 2029, segundo a Gartner, o investimento de capital em data centers de IA deve atingir cerca de US$ 6,3 trilhões. Para que esse investimento não vire catástrofe, as grandes empresas de IA precisariam gerar um retorno sobre o capital investido (ROIC) de pelo menos 12% — abaixo disso, há write-downs e “um desastre não mitigado para todos os investidores nessa tecnologia”. Para atingir esse piso mínimo, precisariam acumular cerca de US$ 7 trilhões em receita até 2029 — quase US$ 2 trilhões por ano no final do período.

A OpenAI já assumiu US$ 600 bilhões em compromissos de gastos até 2030 — o que o analista da Gartner Will Sommer chama de uma “enorme redução” em relação ao US$ 1,4 trilhão inicialmente planejado. Mesmo assim, ele prevê que, no melhor cenário, a empresa atingiria apenas uma fração do retorno necessário para chegar àquele piso. “Quando você afunda trilhões de dólares em data centers, você vai esperar um retorno”, afirmou o analista da consultoria à The Verge.

A história se repete

A existência da internet é, em grande medida, a busca do equilíbrio dessa virada. O Google ofereceu busca gratuita por anos antes de transformar cada clique em inventário publicitário e construir o maior negócio de anúncios do mundo. O Spotify e a Netflix chegaram prometendo acesso livre ou barato a toda a música e ao cinema do planeta — e foram gradualmente introduzindo planos mais caros, cortes de compartilhamento de senha e camadas financiadas por anúncios. Os serviços de nuvem como AWS, Azure e Google Cloud começaram seduzindo desenvolvedores com créditos gratuitos generosos e preços subsidiados, antes de se tornarem infraestrutura essencial — e cara — para praticamente toda empresa do mundo.

O padrão se repete. Primeiro a conquista do usuário a qualquer custo, depois a monetização. “Mas isso simplesmente não é um modelo de negócios. Você não pode fazer isso por muito tempo”, disse Jay Madheswaran, cofundador da Eve, ao The Verge. Com a IA, o ciclo se comprime e se intensifica — as apostas são maiores, o dinheiro envolvido é sem precedentes, a conta está chegando mais rápido do que se esperava. E a bolha de IA está ali na esquina prestes a estourar se nada for feito.

A economia dos tokens

A moeda do universo da IA generativa é o token — a unidade básica de dado que um modelo processa. Uma palavra como “bathroom” equivale a dois tokens. Um parágrafo em inglês, cerca de 100. O Google anunciou que processou 1,3 quatrilhão de tokens somente em outubro de 2025. Somando todas as plataformas de IA, chega-se a 100–200 quatrilhões de tokens por ano. Para atingir os US$ 2 trilhões anuais projetados pela Gartner, seriam necessários 10 sextilhões de tokens por ano — um crescimento de 50.000 a 100.000 vezes em relação ao volume atual.

Projeções da Evercore ISI apontam que o negócio de publicidade no ChatGPT pode gerar vários bilhões de dólares em 2026 e ultrapassar US$ 25 bilhões anuais até 2030. Mas esse horizonte ainda está longe de fechar a equação. Se você considerar apenas infraestrutura e eletricidade, as margens por token são razoáveis — mas somem a isso gastos que incluem os custos indiretos de construção de nova infraestrutura e o que Sommer chama de despesa “absurda” de treinar constantemente o próximo grande modelo.

Os agentes chegaram com sede

Se o chatbot padrão já pressionava as margens, os agentes de IA são uma bomba fiscal. Modelos de raciocínio, que cada vez mais os alimentam, são notoriamente caros no lado da inferência. “Você coloca seu prompt de uma frase e o modelo vai falar consigo mesmo por milhares e milhares de tokens — talvez dezenas de milhares quando se entra no campo de programação”, explicou Mark Riedl, professor do Georgia Tech, ao The Verge. “Se você tem milhões de pessoas usando essas coisas todo dia, os custos de inferência simplesmente superam o lado do treinamento.”

O modelo de negócios de preços fixos funcionava quando as pessoas conversavam com a IA. Mas o uso agêntico transformou o que custava milhares de tokens por sessão em milhões. Um usuário pesado do Claude Code Max poderia estar pagando apenas US$ 200 por mês por uso que custaria até US$ 5.000 sem a assinatura.

Uma assinatura Pro de US$ 20 no Claude, compara o portal Implicator, era um open bar. A Anthropic estava pagando as bebidas. Open bars funcionam até aparecer alguém com sede. Nesse caso, quem chegou com sede foi o agente — fluxos agênticos não bebem aos goles, eles encadeiam ferramentas ao longo de etapas e executam tarefas repetitivas sem perguntar. “Os casos de uso explodiram, e estamos sem capacidade”, resumiu Aaron Levie, CEO da Box, à The Verge.

Restrições, anúncios e o Super Bowl

A reação do setor se deu em múltiplas frentes — e revelou duas filosofias distintas de monetização. A Anthropic apostou na restrição de acesso: bloqueou ferramentas de desenvolvedores terceiros como OpenClaw e OpenCode de acessar seus modelos usando credenciais de assinatura, efetivamente as forçando para planos de API muito mais caros. O componente de assinatura por assento nos planos Enterprise também deixou de incluir tokens subsidiados — uma mudança que gerou atrito significativo com clientes. O The Register alerta que a Anthropic pode perder o interesse em servir pequenas organizações e indivíduos se os gastos enterprise crescerem o suficiente, e que os planos de preço fixo para consumidores que trouxeram o ecossistema até aqui poderiam sumir silenciosamente.

A OpenAI escolheu um caminho diferente, mais familiar na história da internet: a publicidade. E o fez com uma arquitetura cuidadosamente desenhada para não afugentar usuários. A partir de 16 de janeiro, a empresa começou a testar anúncios nos EUA para usuários adultos nos planos gratuito e no recém-lançado ChatGPT Go (US$ 8/mês). Os anúncios aparecem ao final das respostas, em bloco claramente identificado como “Sponsored” e separado visualmente do conteúdo gerado pela IA. A OpenAI foi enfática num princípio que chamou de “independência das respostas”: os anúncios não influenciam o que o ChatGPT diz — são posicionados depois, não dentro.

Do ponto de vista financeiro, o modelo é explicitamente voltado para o topo do mercado publicitário. Segundo dados do The Information e da Adweek reportados pelo AI2Work, o CPM (custo por mil impressões) foi fixado em US$ 60 — significativamente acima da média de plataformas como Google ou Meta — e o compromisso mínimo de campanha é de US$ 200 mil. Na fase piloto, mais de 30 clientes participaram via Omnicom Media. A lógica é clara: com 800 milhões de usuários ativos semanais, o ChatGPT oferece algo raro no mercado publicitário — acesso a uma audiência em momento de alta intenção, engajada em perguntas específicas, com contexto declarado. É um inventário publicitário qualitativamente diferente de um banner ou de um anúncio de busca.

O potencial financeiro da aposta é considerável. Analistas da Evercore ISI projetam que a publicidade no ChatGPT pode gerar vários bilhões de dólares em 2026 e ultrapassar US$ 25 bilhões anuais até 2030 — num mercado de publicidade impulsionada por IA que deve crescer de US$ 35 bilhões para US$ 142 bilhões no mesmo período. O Google, que gera mais de US$ 200 bilhões anuais com anúncios, informou anunciantes em dezembro de 2025 que também planeja trazer publicidade ao Gemini em 2026 — a primeira vez que discutiu oficialmente a monetização de seu principal produto de IA via anúncios. A corrida para transformar a conversa com IA em inventário publicitário está, portanto, apenas começando.

A Anthropic respondeu à jogada da OpenAI com uma provocação incomum para o mundo corporativo: veiculou anúncios no Super Bowl de 2026 criticando diretamente a decisão da rival de inserir publicidade no ChatGPT. Posicionou-se, assim, como guardiã de uma experiência sem interferência comercial. A ironia, contudo, não passou despercebida. Dias depois, ela própria anunciaria as restrições ao OpenClaw — uma forma diferente, mas igualmente contundente, de cobrar pelo que antes era subsidiado. As duas empresas chegaram ao mesmo destino por caminhos opostos: uma vendendo atenção aos anunciantes, a outra cobrando mais diretamente dos usuários. Nenhuma das duas encontrou ainda uma saída que não implique algum grau de ruptura com a promessa original de acesso livre e irrestrito.

A conta chega em duas etapas

Para as empresas que constroem produtos sobre modelos como GPT-5 ou Claude Opus, o aperto é direto. David DeSanto, CEO da Anaconda, voltou recentemente de uma viagem de cinco semanas pelo mundo conversando com clientes. “Todo mundo tinha alguma versão desse problema — o uso de tokens aumentou, então o custo subiu, ou o plano não tem mais o mesmo limite.” Muitas empresas estão migrando para modelos de código aberto ou optando por hospedar seus próprios modelos no Amazon Bedrock ou Google Vertex AI.

Jay Madheswaran, cofundador da Eve — startup de IA jurídica cujo uso de tokens cresceu 100 vezes em um ano — equilibra constantemente qualidade e custo. Usa modelos de raciocínio caros apenas 25–30% do tempo, dividindo o restante com variantes de código aberto e modelos menores. “Uma regressão de 1% na qualidade impacta nossos clientes de forma bastante significativa”, disse à The Verge. “O que o código aberto está realmente fazendo é pressionar essas empresas a tornar seus modelos mais baratos, porque as margens de lucro lá são muito melhores.”

Paradoxo do Estegossauro

Para explicar a situação, Will Sommer usa uma analogia inusitada: o paradoxo do estegossauro. Quando os cientistas descobriram o fóssil, não entendiam como um corpo tão grande poderia ser sustentado por uma cabeça tão pequena — a teoria era que o animal precisaria comer constantemente, e de uma dieta altamente nutritiva. “Vemos a IA como sendo o mesmo negócio”, disse Sommer. Para sobreviver, os provedores precisam encontrar mais comida — a economia global inteira, não apenas o mercado de tecnologia — e ela precisa ser nutritiva pois os provedores precisam conseguir lucrar com ela. Se o paradoxo não for resolvido, o resultado será desvalorização de ativos, queda de valor de mercado, financiamento esgotado e uma ampla revisão geral das expectativas mundiais para a IA. Sommer prevê que “no máximo dois grandes provedores de modelos em qualquer mercado regional vão sobreviver.”

Dilema existencial

Por uma perspectiva otimista, poderíamos dizer que OpenAI, Google e Anthropic não estão oferecendo acesso por generosidade porque elas estão lutando por usuários, dados e participação de mercado. Quanto mais elas competem, melhores ficam os planos gratuitos. “É uma corrida armamentista onde você não pode diminuir o ritmo, porque o custo de mudança é zero”, disse Soham Mazumdar, CEO da Wisdom AI ao The Verge. “Como cidadão comum, eu vou ser o vencedor no longo prazo.”

Abandonar o modelo free não é uma decisão fácil porque com isso tende-se a perder milhares de usuários, que enriquecem os modelos com dados, textos, imagens e prompts. Praticando essa conduta, a Anthropic já atingiu US$ 19 bilhões em receita anualizada em março de 2026 — ante apenas US$ 1 bilhão quinze meses antes — e projeta fluxo de caixa positivo até 2027. A corrida da IA está mudando velozmente de quem tem o melhor modelo para quem consegue monetizar mais rápido.

O fim do almoço grátis

A conclusão mais lúcida de todo este filme vem de Madheswaran, da Eve. “A era gratuita foi realmente uma corrida por território — é uma estratégia comum usada por startups. Mas isso simplesmente não é um modelo de negócios. Você não pode fazer isso por muito tempo.”

O aperto chegou. Os usuários vão sentir — nos anúncios ao final de cada resposta, nos planos que desapareceram, nos recursos que deixaram de estar incluídos na mensalidade, nos preços que sobem conforme o uso cresce. A IA continua sendo uma das tecnologias mais transformadoras da história. Mas transformações, afinal, sempre têm um preço.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!

E siga o canal do Mobile Time no WhatsApp!



Fonte Link

spot_img
spot_img
Fique conectado
16,985FansLike
2,458FollowersFollow
61,453SubscribersSubscribe
Deve ler
spot_img
Notícias Relacionadas
spot_img