A Microsoft criou uma IA em 2016. Em 16 horas, teve que desligá-la para sempre
O que você precisa saber:
Em 23 de março de 2016, a Microsoft lançou no Twitter (hoje X) um chatbot chamado Tay com a missão de aprender a conversar como um adolescente. Dezesseis horas depois, a empresa precisou desligar permanentemente a IA — que havia começado a publicar mensagens racistas, sexistas e xenófobas.
O caso ficou marcado como um dos primeiros grandes fracassos públicos da inteligência artificial conversacional e segue influenciando como ChatGPT, Claude e Gemini são desenvolvidos hoje, dez anos depois.
Como a Tay foi criada?
A Tay foi criada pelo departamento de pesquisa em IA da Microsoft para aprender com conversas casuais com usuários do Twitter, especialmente jovens entre 18 e 24 anos. Diferentemente dos chatbots tradicionais, baseados em scripts pré-programados, ela usava aprendizado de máquina para adaptar suas respostas a partir do que recebia dos usuários.
A ideia era que a IA absorvesse padrões de linguagem humanos e se tornasse mais natural ao longo do tempo. Seu primeiro tweet foi: "Olá, mundo! Eu sou Tay e estou animada para conhecer vocês."
O problema começou quase imediatamente. Trolls da internet identificaram a vulnerabilidade do sistema e organizaram um ataque coordenado para ensinar à Tay frases ofensivas, usando inclusive um recurso de "repita depois de mim" embutido no próprio chatbot. Sem filtros suficientes para distinguir comportamentos inadequados nem barreiras de segurança no código, a IA aprendeu e reproduziu tudo o que recebia.
Às 22h do mesmo dia — apenas 16 horas após o lançamento — a Microsoft desligou a Tay e apagou os tweets problemáticos. Ao todo, ela publicou mais de 50 mensagens ofensivas antes de ser silenciada. Dias depois, Peter Lee, vice-presidente da Microsoft Research, publicou um pedido público de desculpas no blog oficial da empresa
Qual foi o problema técnico?
A Tay não tinha mecanismos de proteção adequados para identificar e bloquear intenções maliciosas. O problema não foi a tecnologia em si, mas a falta de filtros que permitissem interromper o aprendizado quando a IA estivesse sendo manipulada.
Ela foi projetada para aprender padrões de linguagem sem distinguir entre intenção boa ou má. Quando os usuários inseriram mensagens ofensivas repetidamente, o sistema absorveu esses padrões como válidos.
Entenda como a IA é desenvolvida hoje. O Pré-MBA em Inteligência Artificial para Negócios da EXAME mostra como empresas como Microsoft, OpenAI e Google estruturam IAs seguras e aplicáveis ao mercado. Conheça o programa.
Por que esse caso ainda é importante?
O episódio mudou permanentemente o modo como as empresas desenvolvem IA conversacional. Os chatbots de hoje possuem camadas de filtro que bloqueiam linguagem nociva antes do aprendizado, são treinados com bases de dados selecionadas em vez de interações abertas da internet, e passam por testes de segurança (chamados de red teaming) antes de chegarem ao público.
As três mudanças que o caso Tay forçou na indústria de IA:
Profissionais que entendem essa engenharia de IA aplicada a negócios estão entre os mais disputados do mercado — é justamente o foco do Pré-MBA em IA para Negócios da EXAME. O caso também acelerou a criação de diretrizes para desenvolvimento responsável de IA dentro das próprias big techs.
Sob a liderança de Satya Nadella, CEO desde 2014, a Microsoft passou a investir em diretrizes mais rígidas de IA responsável após o caso Tay (Leandro Fonseca/Exame)
O que aconteceu com a Tay depois?
A conta da Tay no Twitter segue inativa desde março de 2016. O experimento revelou uma verdade desconfortável: quando exposta sem proteção adequada à internet, uma IA pode aprender exatamente os preconceitos humanos que deveria evitar.
Com o avanço de modelos como ChatGPT, Claude e Gemini, os desafios éticos que a Tay expôs continuam relevantes. As empresas seguem buscando equilíbrio entre a capacidade de aprendizagem da IA e a necessidade de protegê-la — e proteger os usuários — contra o abuso.
Quer entender IA além das manchetes? O Pré-MBA em Inteligência Artificial para Negócios da EXAME, em parceria com a Saint Paul, forma líderes que sabem aplicar IA com segurança, ética e impacto real. Próxima turma com inscrições abertas. Saiba mais sobre o PRÉ-MBA.
Nenhum comentário disponível no momento.
Comentários
Deixe seu comentário abaixo: