Startup diz ter superado limite do ChatGPT e provoca pedidos de revisão científica
Uma startup pouco conhecida de Miami, nos EUA, afirma ter criado uma arquitetura de inteligência artificial capaz de reduzir em até 1.000 vezes o custo computacional de modelos de linguagem de grande porte. A empresa, chamada Subquadratic, saiu do modo sigiloso nesta terça-feira, 6, dizendo ter resolvido um dos principais gargalos técnicos da indústria de IA: o crescimento exponencial do processamento necessário para lidar com textos longos.
O primeiro modelo da empresa, chamado SubQ 1M-Preview, teria sido construído sobre uma arquitetura “subquadrática”, expressão usada para definir sistemas cujo custo computacional cresce de forma linear, e não quadrática, conforme o tamanho do contexto analisado aumenta. Na prática, isso significaria que dobrar a quantidade de dados processados exigiria apenas o dobro da capacidade computacional — e não quatro vezes mais, como ocorre nos modelos atuais.
A startup afirma que seu sistema consegue reduzir em quase 1.000 vezes o processamento necessário em contextos de até 12 milhões de tokens, unidade usada para medir texto em modelos de IA. Se confirmada, a mudança teria impacto direto no custo operacional de ferramentas como assistentes de código, buscadores inteligentes e sistemas corporativos baseados em IA generativa.
A empresa também anunciou três produtos em fase beta privada: uma API, interface de programação para integração de sistemas, um agente de programação em linha de comando chamado SubQ Code e um mecanismo de busca chamado SubQ Search. A startup levantou US$ 29 milhões em rodada semente com investidores ligados a empresas como OpenAI, Anthropic, Stripe e Brex. Segundo o site The New Stack, a avaliação da companhia chegou a US$ 500 milhões.
O principal argumento técnico da Subquadratic envolve um conceito chamado atenção esparsa, técnica que tenta evitar cálculos considerados desnecessários dentro dos modelos de IA. Hoje, sistemas baseados na arquitetura Transformer, dominante desde 2017, precisam comparar cada palavra com todas as outras dentro de um texto para compreender contexto e significado. Esse processo cresce de forma quadrática e se torna extremamente caro conforme os documentos aumentam.
A Subquadratic afirma ter criado um sistema capaz de identificar apenas as relações relevantes entre palavras, ignorando interações redundantes. O método recebeu o nome de SSA, sigla para Subquadratic Sparse Attention, ou atenção esparsa subquadrática.
Segundo a empresa, o ganho de eficiência cresce proporcionalmente ao tamanho do contexto. Em textos de 128 mil tokens, o modelo teria velocidade até 7,2 vezes maior que arquiteturas tradicionais. Em 1 milhão de tokens, o ganho subiria para mais de 52 vezes.
A promessa da empresa é reduzir a necessidade de estruturas auxiliares usadas hoje pelo mercado, como sistemas de recuperação de dados, bancos vetoriais e técnicas complexas de engenharia de prompts.
Pesquisadores questionam benchmarks e cobram validação independente
Apesar dos números apresentados pela startup, a reação da comunidade técnica foi dividida entre curiosidade e desconfiança. Especialistas apontaram que os testes divulgados focam justamente em tarefas nas quais a arquitetura da empresa deveria ter vantagem, como recuperação de informações em contextos longos e programação.
Entre os resultados divulgados estão 81,8% no SWE-Bench Verified, benchmark voltado a engenharia de software, e 95% no RULER 128K, teste usado para medir raciocínio em longos contextos textuais.
Pesquisadores também chamaram atenção para a ausência de avaliações amplas envolvendo matemática, segurança, raciocínio geral e desempenho multilíngue. Outro ponto criticado foi o fato de alguns benchmarks terem sido executados apenas uma vez, sem margem estatística de erro.
O engenheiro Will Depue afirmou nas redes sociais que os números “não parecem compatíveis” com a promessa de escalabilidade linear. Já o pesquisador John Rysana avaliou que a proposta não parece fraude, mas sim uma implementação mais eficiente de técnicas já estudadas no setor.
As comparações com a startup Magic.dev também surgiram rapidamente. Em 2024, a empresa anunciou um modelo com contexto de 100 milhões de tokens e ganhos similares de eficiência, mas ainda não demonstrou adoção ampla no mercado.
A própria Subquadratic reconhece que utiliza pesos derivados de modelos de código aberto como ponto de partida. O CTO Alexander Whedon, ex-Meta e ex-chefe de IA generativa da TribeAI, afirmou que a empresa pretende divulgar um relatório técnico completo “em breve”.
A discussão ocorre em um momento em que empresas como OpenAI, Google e Anthropic ampliam continuamente o tamanho de contexto de seus modelos, mas ainda enfrentam dificuldades para manter qualidade de raciocínio em documentos extensos.
Caso a arquitetura da Subquadratic seja validada de forma independente, o impacto pode atingir diretamente o mercado de infraestrutura de IA, reduzindo a dependência de sistemas externos de busca e gerenciamento de contexto. Se as promessas não se confirmarem, a startup tende a entrar para a lista de empresas que anunciaram avanços revolucionários sem adoção prática relevante.
Nenhum comentário disponível no momento.
Comentários
Deixe seu comentário abaixo: