Safra vê Nvidia como base da nova economia de IA — e ainda barata

Por Caroline Oliveira 2 de Maio de 2026 👁️ 0 visualizações 💬 0 comentários
Safra vê Nvidia como base da nova economia de IA — e ainda barata

A Nvidia (NVDA) deixou de ser apenas uma fabricante de chips para se tornar a espinha dorsal da nova economia de inteligência artificial. Essa é a leitura central de um relatório do Safra, que descreve a companhia como uma “plataforma de infraestrutura de IA” — e não mais um negócio cíclico de semicondutores —, além de apontá-la como um dos ativos mais mal precificados do mercado global.

Nesse contexto, a Nvidia negocia hoje a cerca de 24 vezes o lucro estimado para o próximo ano fiscal — abaixo da mediana de pares de tecnologia e semicondutores — ao mesmo tempo em que deve gerar cerca de US$ 1,67 trilhão em caixa operacional nos próximos cinco anos. Desse total, a expectativa é que aproximadamente 20% do valor de mercado atual (US$ 5,2 trilhões) seja devolvido aos acionistas via recompras e dividendos.

O preço-alvo estabelecido é de US$ 300 por ação, frente aos cerca de US$ 213 atuais, o que implica um potencial de valorização próximo de 40%.

A 'fábrica de tokens' e a nova lógica da IA

Para os analistas do Safra, os data centers de IA funcionam como fábricas: em vez de produzir bens físicos, convertem energia em tokens — a unidade básica da inteligência artificial. Nesse modelo, a eficiência dos chips — medida em tokens por watt — se torna o principal motor econômico. Cada nova geração de GPU aumenta a eficiência dessa "fábrica", reduzindo o custo por token e criando um incentivo econômico poderoso para upgrades anuais — o que transforma receita cíclica em receita recorrente, diferente da indústria de semicondutores.

Os ganhos são expressivos. O sistema mais recente da companhia entrega até 50 vezes mais tokens por megawatt que a geração anterior, enquanto a energia necessária por token caiu cerca de 100 mil vezes na última década.

O dado que muda tudo

O ponto mais contundente do relatório está no chamado “agente de IA”. Diferente de chatbots tradicionais, esses sistemas executam tarefas completas de forma autônoma, encadeando múltiplas etapas, decisões e interações. O impacto disso na demanda por computação é exponencial. “Uma interação com um agente de IA pode consumir até 1.000.000 vezes mais poder computacional do que uma consulta tradicional”, escreveram.

A lógica é cumulativa. Uma consulta simples consome uma unidade de computação. Modelos de raciocínio — que “pensam” antes de responder — já exigem cerca de 100 vezes mais. Quando se adiciona a camada de agentes, capazes de utilizar ferramentas externas, revisar respostas e iterar tarefas, o consumo pode ser até 10 mil vezes maior do que o de um modelo de raciocínio. O efeito combinado leva a um salto de até 1 milhão de vezes por interação.

Esse avanço ajuda a explicar por que a demanda por IA não se limita à fase de treinamento de modelos, mas tende a crescer de forma estrutural com o uso em larga escala.

O relatório usa a Anthropic como exemplo dessa dinâmica. A empresa, criadora dos modelos Claude, viu sua receita recorrente anualizada saltar de cerca de US$ 1 bilhão para US$ 30 bilhões em apenas 15 meses, impulsionada por produtos como o Claude Code e o Claude Cowork. Segundo dados citados, 31% das empresas norte-americanas já utilizam suas soluções — toda essa demanda roda majoritariamente sobre GPUs da Nvidia.

Um fosso competitivo difícil de replicar

O Safra argumenta que a vantagem da Nvidia não está em um produto isolado, mas em um ecossistema integrado que combina quatro pilares: chips de alta performance (GPUs), redes proprietárias de data center, acesso privilegiado à cadeia de suprimentos e o software CUDA.

Esse conjunto forma uma barreira de entrada incomum até mesmo para o setor de tecnologia. “O maior fosso da Nvidia não é apenas técnico, mas institucional: o mundo da IA foi treinado para operar em CUDA”, aponta o relatório.

Além disso, o ecossistema CUDA — com cerca de 7,5 milhões de desenvolvedores e centenas de bibliotecas otimizadas — cria um alto custo de migração para outras plataformas.

“Um potencial concorrente precisaria replicar todas as quatro camadas ao mesmo tempo. Replicar uma, duas ou três não é suficiente. Quando seu produto chega ao mercado, a próxima geração da Nvidia já elevou o padrão de performance”, escreveram.

Crescimento, margens e geração de caixa

As projeções do Safra reforçam a tese de longo prazo da Nvidia, com números que combinam expansão acelerada e alta rentabilidade:

Parte relevante desse montante deve ser devolvida aos acionistas. “A empresa pode devolver cerca de 20% do valor e mercado atual via dividendos e recompras”, aponta o relatório.

O documento também destaca a chamada demanda soberana — governos investindo em infraestrutura de IA não com base em retorno financeiro, mas por razões estratégicas. Segundo o banco, esse vetor já gerou mais de US$ 30 bilhões em receita no último ano fiscal, mais que o triplo do período anterior.

Esse tipo de demanda tende a ser menos sensível a preço e a ciclos econômicos. Uma pesquisa da McKinsey & Company citada no relatório mostra que 71% de executivos, investidores e autoridades públicas consideram a IA um “imperativo estratégico” ou uma “preocupação existencial”. Hoje, mais de 50 países já desenvolvem infraestrutura de IA baseada nas plataformas da empresa.

Além dos projetos de “IA soberana” e das big techs como principais clientes, os analistas ressaltam outros motores estruturais de crescimento: a expansão contínua de data centers por hyperscalers e a migração corporativa de CPU para GPU.

Esse último vetor sugere que a IA tende a se consolidar como infraestrutura básica em diversos setores da economia.

O relatório também confronta um dos principais receios do mercado: uma eventual desaceleração nos investimentos em IA pelas big techs. A avaliação é que esse risco é superestimado.

Primeiro, porque reduzir investimentos enquanto concorrentes avançam pode gerar perdas competitivas difíceis de recuperar. Segundo, porque o grupo de hyperscalers ainda possui balanços sólidos e ampla capacidade de alavancagem — o que abriria espaço para até US$ 1,7 trilhão adicionais em investimentos nos próximos anos.

Por fim, a monetização já começa a aparecer. A Meta Platforms, por exemplo, tem conseguido expandir simultaneamente o volume e o preço dos anúncios, impulsionada por melhorias em recomendação de conteúdo via IA — um sinal de que o retorno sobre esses investimentos já começa a se materializar.

O que está em jogo

O Safra não ignora os riscos. O principal é a concentração de clientes: cinco hyperscalers (Google, Amazon, Microsoft, Meta e Oracle) respondem por cerca de 60% da receita de data centers, divisão que representa aproximadamente 90% do faturamento da companhia. Qualquer mudança no ritmo de investimento desses gigantes pode ter impacto direto nos resultados.

Outro ponto de atenção é o avanço dos ASICs — chips desenvolvidos internamente por essas mesmas empresas, como TPU (Google), Trainium (AWS) e MTIA (Meta). Hoje, a Nvidia ainda domina cerca de 78% do mercado de aceleradores de IA, mas a expectativa é de uma leve erosão dessa fatia, para algo próximo de 72% até 2031, à medida que essas alternativas ganhem escala.

Há também o componente geopolítico. A dependência da Taiwan Semiconductor Manufacturing Company (TSMC), em Taiwan, para a produção dos chips mais avançados expõe a empresa a riscos de cadeia de suprimentos e tensões regionais — com alternativas fora da ilha ainda distantes em escala relevante.

Ainda assim, a conclusão do Safra é direta: o mercado segue subestimando a magnitude da transformação em curso. A Nvidia não está mais atrelada apenas ao próximo ciclo de semicondutores. Ela ocupa uma posição central em uma mudança de infraestrutura global, que conecta computação, energia e inteligência artificial. “A demanda por IA está se tornando estrutural — e não apenas um ciclo tecnológico”, concluíram.

Comentários

Deixe seu comentário abaixo: