Microsoft se contradiz ao afirmar que Copilot é para "entretenimento" e reforçar uso profissional

Por Maria Eduarda Cury 6 de Abril de 2026 👁️ 0 visualizações 💬 0 comentários
Microsoft se contradiz ao afirmar que Copilot é para

A Microsoft, declaradamente, não hesita em tentar convencer a base de usuários que a inteligência artificial Copilot é o futuro do mundo corporativo. Inserida com o sistema operacional Windoes 11, a ferramenta está presente em assinaturas corporativas do Microsoft 365 e foi amplamente divulgada como o coração da nova geração de computadores, chamados Copilot+ PCs. Além do posicionamento interno, o investimento bilionário da gigante da computação na OpenAI e em infraestruturas para operações de IA ajudam a demonstrar o quão comprometida a companhia está com a tecnologia do momento.

Mas há uma frase escondida nos termos de uso da plataforma, atualizado em outubro do ano passado, que conta uma história diferente. O documento classifica o Copilot como um produto voltado ao entretenimento, que pode cometer erros e que os usuários não devem usar para orientações importantes. Assim, a empresa se exime de chegar a ter culpa sobre erros com consequências graves, direcionando a responsabilidade e os riscos para os clientes.

Assim, apesar de publicidade frequentemente positiva sobre o quão importante é o Copilot para empresas, a empresa liderada por Satya Nadella se assegura de ter um respaldo judicial. O departamento jurídico da empresa garante, em letras miúdas, que a responsabilidade por qualquer decisão tomada com base nas respostas da IA recai exclusivamente sobre quem as seguiu.

Nadella e Musk no mesmo barco

Os alertas para uso por conta e risco dos usuários têm se tornado padrão na indústria. A xAI, empresa de inteligência artificial de Elon Musk, também avisa em seus termos que modelos de linguagem são probabilísticos por natureza, podendo gerar respostas com alucinações, conteúdo ofensivo, informações imprecisas sobre pessoas e fatos reais, ou simplesmente material inadequado para o propósito do usuário.

Casos concretos já confirmaram o que acontece quando profissionais tratam o output da IA como verdade absoluta. Incidentes recentes nos serviços de nuvem Amazon Web Services foram atribuídos a um bot interno de programação que atuou sem supervisão humana adequada.

Ao empurrar a IA como a solução definitiva de produtividade, as Big Techs parecem estar minimizando de forma deliberada os claros riscos associados ao uso das ferramentas. O objetivo geral, como indicam relatórios recentes, está relacionado com a necessidade de recuiperar os bilhões investidos em infraestrutura e contratação de talentos para sair na frente de rivais cada vez mais poderosos e aumentar a longevidade do mercado.

Comentários

Deixe seu comentário abaixo: