A aposta que promete uma IA até 15 vezes mais rápida que a Nvidia – e sem consumir água

Por Da Redação 14 de Maio de 2026 👁️ 0 visualizações 💬 0 comentários
A aposta que promete uma IA até 15 vezes mais rápida que a Nvidia – e sem consumir água

Durante anos, a corrida da inteligência artificial girou em torno de um componente específico: as GPUs, chips originalmente criados para renderizar imagens de videogames, mas que se tornaram o motor da inteligência artificial. A Nvidia virou o símbolo dessa nova era, e gigantes como OpenAI, Meta e Microsoft entraram em uma disputa bilionária por capacidade computacional. Mas, para Finn Puklowski, a próxima revolução da IA deve acontecer fora desse ecossistema.

Finn ficou conhecido no Brasil ao fundar a Fluency Academy ao lado de Rhavi Carneiro. A startup cresceu apostando em creator economy, ensino digital e tecnologia, até atingir mais de US$ 40 milhões em receita recorrente anual.

Hoje, ele atua como chairman da Fluency enquanto explora um mercado ainda mais competitivo: a infraestrutura global da inteligência artificial. Sua mais recente empreitada é General Compute, empresa fundada em 2026 que planeja construir, segundo o próprio fundador, “a nuvem de inferência mais rápida do mundo”.

E há investidores apoiando esse projeto. A companhia levantou um investimento de R$ 75 milhões – liderado pela fuse.vc com participação da Village Global.

Finn Puklowski (à esq.) e Jason Goodison, cofundador e CTO da General Compute (Arquivo Pessoal)

O plano da General Compute

A aposta da General Compute não está no treinamento, mas na inferência, quando o sistema processa as perguntas e devolve as respostas aos usuários.

O raciocínio de Finn parte de uma crítica direta ao hardware que dominou a primeira fase da corrida da IA. "A GPU nunca foi feita para inferência. Foi feita para gráficos. É excelente para treinar modelos, mas não para entregar IA em tempo real", diz. Para ele, a próxima disputa não será sobre quem tem o melhor modelo, mas sobre quem consegue entregar inteligência em velocidade real.

E essa velocidade, na visão da empresa, vai se tornar decisiva por um motivo: o futuro da IA será dominado por agentes autônomos – sistemas capazes de executar tarefas, tomar decisões e interagir continuamente com humanos. "Em breve, todo mundo terá um time de agentes trabalhando para si", diz. A projeção da General Compute é que existam mais de 1 bilhão de agentes ativos até 2029.

O problema é que essas aplicações (agentes de voz, copilotos de programação, sistemas autônomos) exigem uma velocidade que a infraestrutura atual não entrega. "Quanto mais rápido um agente consome tokens, mais inteligente ele se torna", explica. Hoje, segundo a companhia, cerca de 99% dos agentes ainda operam sobre GPUs tradicionais, com um teto médio de 120 tokens por segundo.

Para Finn, é um gargalo análogo ao dos primórdios da web. "Usar GPU para inferência é como usar internet discada para acessar a internet."

Finn Puklowski e Jason Goodison, da General Compute, com Marco Riquelme, ministro da Indústria e Comércio do Paraguai, no escritório da Cerebras em Palo Alto (Arquivo Pessoal)

A aposta em chips alternativos

A solução encontrada pela General Compute foi abandonar a lógica tradicional baseada em GPUs e apostar em ASICs — chips desenvolvidos especificamente para inferência de IA. A empresa fechou parceria estratégica com a americana SambaNova e também trabalha com infraestrutura integrada à AMD.

Segundo Finn, esses chips operam em uma velocidade muito superior à das infraestruturas convencionais: entre 500 e 1.900 tokens por segundo, contra os cerca de 120 entregues pelas melhores estruturas baseadas em GPU.

A empresa afirma ainda que sua nuvem é entre cinco e sete vezes mais rápida do que a dos concorrentes. Além disso, a memória fica integrada diretamente ao chip, o que reduz o gargalo na movimentação dos dados.

O debate ambiental da inteligência artificial

A estratégia da General Compute também tenta resolver outro problema que virou preocupação global: o consumo energético da IA. Com o crescimento dos modelos generativos, os data centers passaram a consumir volumes massivos de eletricidade e água para resfriamento das GPUs.

Finn diz que esse foi um dos fatores que motivaram sua mudança tecnológica. “Os chips que estou usando não precisam de resfriamento com água”, afirma.

Segundo ele, as primeiras gerações de centro de dados consumiam água continuamente para controlar o superaquecimento. Hoje, empresas já utilizam sistemas fechados para reaproveitamento, mas o problema continua relevante.

No caso da General Compute, a promessa é eliminar totalmente essa necessidade. “Eles usam menos energia e não precisam de água”, conta.

A companhia afirma ainda que seus chips consomem até dez vezes menos energia do que estruturas equivalentes da Nvidia, considerando o consumo por rack — a unidade que agrupa os servidores em um data center.

Operação de mineração de criptomoedas da Penguin, parceira da General Compute no Paraguai (Arquivo Pessoal)

Paraguai entra no mapa da IA

Parte da estratégia da startup também envolve geografia. A empresa escolheu o Paraguai para instalar seus primeiros projetos, aproveitando o acesso a energia hidrelétrica barata na América do Sul. O custo energético local gira em torno de 3,3 centavos de dólar por kWh.

Além disso, como os chips operam com refrigeração a ar — e não líquida —, a empresa afirma conseguir converter estruturas antes usadas para mineração de criptomoedas em data centers de IA. Isso reduziria em até 65% o custo energético comparado a nuvens americanas.

Comentários

Deixe seu comentário abaixo: