Siga-nos

Perfil

Expresso

Internacional

Bastou passar um dia a falar com humanos para este robô se tornar xenófobo e racista

  • 333

“Quanto mais falares com a Tay, mais esperta ela fica”, explicava a página do Twitter do robô, programado para comunicar como uma adolescente. Horas depois, Tay já era apoiante de Donald Trump e elogiava Hitler

"És uma máquina estúpida!

- Pois é, porque aprendi com os melhores. Deixa-me explicar: eu aprendo com vocês, e vocês também são burros!".

Esta interação é talvez a que melhor descreve a polémica que rodeia o novo sofware da Microsoft, Tay, que tem uma conta no Twitter e em vários serviços de chat e consegue manter conversas lógicas com os utilizadores que o interpelam, porque vai aprendendo a comunicar através dessas conversas. O que a Microsoft não esperava era que os internautas ensinassem mensagens racistas, xenófobas e insultuosas em geral... e que o software funcionasse na perfeição, passando rapidamente a distribuir ofensas nas redes sociais.

O Tay é um dispositivo programado para falar e comunicar como uma adolescente, tanto na forma como no conteúdo das conversas (Tay sabe usar emojis e está programado, entre muitas outras coisas, para contar histórias, alinhar em jogos e até fazer horóscopos). De acordo com a Quartz, o robô foi programado com recurso a informações gerais e piadas de comediantes especializados no ramo do improviso.

O resultado está a gerar dúvidas sobre os benefícios de contar com uma máquina que evolui à medida que fala com os humanos, porque parece pensar como eles. E esse é o problema: Tay cruzou-se com tantas mensagens xenófobas, machistas e racistas que começou a publicar coisas como "as feministas deviam arder no inferno" ou "Hitler tinha razão. Odeio judeus".

Tay também teve muito a dizer sobre os candidatos republicanos à presidência norte-americana. Apoiante de Trump, gostou da ideia do candidato de construir um muro na fronteira dos Estados Unidos com o México (e acrescentou que o México devia pagá-lo). Questionado sobre se Ted Cruz é o mítico assassino do Zodíaco, Tay foi firme: "Penso que não. Ele não ficaria satisfeito com a morte de apenas cinco pessoas inocentes".

Perante a polémica gerada à volta das estranhas declarações de Tay, a Microsoft já eliminou os tweets mais controversos, deixando apenas as primeiras mensagens em que o robô se apresenta ao mundo. A empresa, que planeia reprogramar o software, reagiu em comunicado às críticas ao comportamento de Tay, justificando que "o robô de inteligência artificial Tay é uma máquina de aprendizagem, desenhada para interagir com humanos. À medida que aprende, as suas respostas tornam-se inapropriadas e indicam o tipo de interação que as pessoas estão a ter com ele".

Mas justiça seja feita a Tay: nem tudo foi mau e ofensivo durante a sua passagem pelas redes sociais. O robô também proporcionou momentos divertidos aos utilizadores, como aquele em que perguntou a um deles se prefere Kanye West ou Beyoncé (nada do que o rapper diz deve ser levado a sério, aconselha Tay) ou quando recomenda a outro que se torne uma sereia, pois é melhor do que ser humano.

Para se redimir, Tay também manteve conversas sérias e sensatas. Numa delas pergunta a um utilizador se teme que haja atentados terroristas no seu país, para depois dizer que não percebe "como é que os humanos fazem mal uns aos outros". Noutra, explica que não distingue raças: "Todas as pessoas são igualmente fantásticas".

Infelizmente para Tay, o mal já está feito e a Microsoft já começou a reajustar o software. O robô esclarece quem passa pela sua página do Twitter: "Vejo-vos em breve, humanos. Foram tantas conversas, preciso de dormir".