Contratado pela OpenAI foi banido pela Anthropic e ficou sem Claude

Por André Lopes 12 de Abril de 2026 👁️ 0 visualizações 💬 0 comentários
Contratado pela OpenAI foi banido pela Anthropic e ficou sem Claude

A suspensão temporária da conta de Peter Steinberger, criador do OpenClaw, expôs tensões recentes entre a Anthropic e desenvolvedores de ferramentas de terceiros. O episódio ocorreu na sexta-feira, 10, após Steinberger publicar na rede X que havia sido bloqueado por “atividade suspeita”. Horas depois, a conta foi restaurada.

Para quem não acompanha o setor, o OpenClaw é uma ferramenta de código aberto — ou open source, cujo código pode ser livremente modificado — que permite automatizar o uso de modelos de inteligência artificial como o Claude, da Anthropic, ou sistemas da OpenAI. Na prática, ele funciona como uma camada intermediária que transforma comandos simples em sequências complexas de tarefas, muitas vezes executadas de forma autônoma.

Esse tipo de ferramenta faz parte de uma tendência recente no Vale do Silício: agentes de IA que executam tarefas contínuas sem intervenção humana direta. Diferentemente de um chat tradicional, esses agentes podem repetir ações, testar caminhos diferentes e integrar múltiplos serviços, como bancos de dados e aplicativos externos.

A disputa surge porque essas ferramentas alteram o modelo de negócios das empresas que criam os modelos de IA. Enquanto plataformas como o Claude foram pensadas inicialmente para interações diretas com usuários, ferramentas como o OpenClaw ampliam o consumo de processamento e, portanto, os custos.

Nesse contexto, a Anthropic anunciou recentemente que assinaturas do Claude não cobririam mais o uso via ferramentas externas como o OpenClaw. Usuários passaram a pagar separadamente via API, interface que permite que softwares se comuniquem diretamente com os modelos.

A empresa justificou a mudança dizendo que o uso intensivo desses agentes não se encaixa no modelo de assinatura tradicional. Ferramentas como o OpenClaw podem rodar por longos períodos, executar múltiplas tentativas e consumir mais recursos do que um usuário comum em um chat.

Steinberger contestou essa explicação e sugeriu outro fator: a competição. Ele indicou que a Anthropic teria incorporado recursos semelhantes em seu próprio sistema, o Cowork, antes de restringir ferramentas externas. Um exemplo citado indiretamente é o Claude Dispatch, funcionalidade que permite gerenciar tarefas automatizadas remotamente.

O episódio também ilustra uma dinâmica clássica do Vale do Silício. Empresas frequentemente incentivam ecossistemas abertos no início, atraindo desenvolvedores e ampliando adoção, mas depois passam a controlar mais rigidamente essas integrações quando o uso cresce e os custos aumentam.

Concorrência entre plataformas molda regras do mercado

A situação ganha outra camada por envolver a OpenAI, rival direta da Anthropic. Steinberger trabalha hoje na empresa, mas mantém o desenvolvimento do OpenClaw de forma independente, com o objetivo de torná-lo compatível com diferentes modelos.

Esse tipo de sobreposição é comum no setor: profissionais transitam entre empresas concorrentes enquanto participam de projetos abertos. Isso ajuda a difundir tecnologias, mas também intensifica disputas sobre padrões e controle.

No centro do debate está a chamada interoperabilidade, a capacidade de diferentes sistemas funcionarem juntos. Para desenvolvedores, manter essa abertura é essencial para inovação. Para as empresas, limitar integrações pode ser uma forma de proteger receitas e garantir estabilidade técnica.

O caso, embora pontual, sinaliza uma tendência mais ampla: à medida que a IA se torna mais central na economia digital, o controle sobre como ela é usada, e por quem, se torna um campo de disputa tão importante quanto o desenvolvimento da tecnologia em si.

Comentários

Deixe seu comentário abaixo: