Notícia

A Microsoft apenas aprendeu que a Internet é um lugar escuro e assustador. Eles começaram um bot de bate-papo no Twitter chamado Tay, que foi projetado para imitar o discurso de uma garota de 19 anos. A Inteligência Artificial (IA) tinha como objetivo ajudar a "conduzir pesquisas sobre entendimento conversacional", disse a Microsoft, e assim, quando foi ao ar, foi capaz de aprender com as pessoas com quem conversava e imitar a maneira como falavam.
O problema era que a Microsoft não projetou seu bot para evitar tópicos políticos ou complicados, o que significa que espelharia as opiniões das pessoas que conversaram com ele. Isso, naturalmente, foi uma oportunidade muito boa para os trolls da Internet deixarem passar, e as coisas ficaram muito feias, muito rápidas.



Dentro de 24 horas após o bot ficar on-line, Tay se tornou um completo racista. Além da negação do Holocausto e do nazismo, o bot também começou a imitar as opiniões de Donald Trump sobre imigração, as teorias da conspiração do 11 de setembro e, naturalmente, começou a usar muitas insultos raciais horríveis.
A Microsoft decidiu desligá-lo. Isso não quer dizer que o bot não tenha sido um sucesso: imitou as pessoas com quem estava conversando perfeitamente. O que a Microsoft não levou em consideração, no entanto, foi que as pessoas que imitavam eram trolls da Internet. A internet transformou um experimento de alta tecnologia em Inteligência Artificial em nada mais do que apenas outro idiota.