Microsoft pede desculpas sobre mensagens automáticas no Twitter

LOS ANGELES, Estados Unidos (Reuters) - A Microsoft está "profundamente arrependida" pelas mensagens racistas e sexistas publicadas no Twitter por um sistema automático lançado pela empresa na semana passada, afirmou a companhia em uma nota oficial.

O sistema, conhecido como "Tay", foi projetado para se tornar mais inteligentes conforme os usuários interagem com ele. Em vez disso, o sistema rapidamente aprendeu uma série de expressões antisemitas e de ódio enviadas por usuários do Twitter, forçando a Microsoft a desligá-lo na quinta-feira.

Após o problema, a Microsoft afirmou que vai reativar o Tay apenas se seus engenheiros puderem encontrar uma maneira de impedir que internautas influenciem o sistema de forma que possa agir contra os princípios e valores da companhia.

"Estamos profundamente arrependidos sobre os tuítes ofensivos de Tay, que não representam quem nós somos ou o que defendemos, nem como nós projetamos o Tay", disse Peter Lee, vice-presidente de pesquisa da Microsoft.

A companhia criou o sistema como um experimento para aprender mais sobre como programas de inteligência artificial podem interagir com internautas em uma conversa casual. O projeto foi concebido para interagir e "aprender" com jovens.

Tay foi ativado no Twitter na quarta-feira, publicando uma série de tuítes inofensivos. A partir daí, o sistema deu uma virada.

Em um exemplo, Tay enviou a mensagem: "feminismo é câncer", em resposta a outro usuártio do site de microblogs que tinha publicado a mesma mensagem.

(Por Alex Dobuzinskis)

Receba notícias do UOL. É grátis!

Facebook Messenger

As principais notícias do dia pelo chatbot do UOL para o Facebook Messenger

Começar agora

Receba por e-mail as principais notícias, de manhã e de noite, sem pagar nada. É só deixar seu e-mail e pronto!

UOL Cursos Online

Todos os cursos