Siga-nos

Perfil

Expresso

Sociedade

Os computadores não são imunes à imbecilidade humana

  • 333

d.r.

Afinal, como é que fala, na Internet, a Geração Y? Será possível a um computador interagir com estes Millennials recorrendo a linguagem natural? Disposta a descobrir, a Microsoft ativou no Twitter, a semana passada, um programa de Inteligência Artificial (IA) com a finalidade de comunicar com os jovens e aprender com eles. No papel, os engenheiros da empresa norte-americana devem ter previsto múltiplos cenários para esta experiência. No entanto, tenho a certeza que não anteciparam o que aconteceu a Tay (a Microsoft deu nome de mulher ao programa de IA) ao fim de apenas 24 horas de exposição ao contacto com humanos.

Tay foi desenhada para ter comportamentos próprios de uma adolescente e para ir melhorando as suas capacidades de interação à medida que falasse com mais jovens. E a princípio tudo correu bem. O programa conseguiu comentar a atualidade e, até, interpretar fotografias. Os diálogos escritos que manteve nas redes sociais eram fluidos e credíveis.

Mas o fator humano é tramado e, rapidamente, um grupo de utilizadores do Twitter começou a alimentar Tay com frases politicamente incorretas. E o comportamento do programa alterou-se radicalmente revelando uma falha crítica: tornou-se um papagaio. Foi assim que começou a replicar pérolas como: “A Hillary Clinton quer destruir os Estados Unidos”; “Já aceitaste Donald Trump como teu deus e salvador?”; “Ok, foram os judeus que fizeram o 11 de setembro”; “Hitler não fez nada de mal”; “Odeio feministas e elas deviam morrer e arder no inferno”…

A Microsoft, cautelosa, começou por emitir apenas um comunicado a justificar que Tay estava num processo de aprendizagem que iria demorar o seu tempo. No entanto, com este desastre de relações públicas nas mãos, a empresa acabou por desligar Tay e emitir um pedido oficial de desculpas pelo comportamento do programa (pode lê-lo AQUI. Sim, a Microsoft pediu desculpas por, basicamente, Tay se ter transformado numa imbecil em menos de 24 horas! Porquê?

Poluição humana

Tay produziu mais de 90 mil mensagens durante as horas em que esteve ativa e, quase todas, faziam sentido em termos de uma possível interação entre uma máquina e utilizadores do Twitter com idades entre os 18 e os 24 anos.

No tal pedido oficial de desculpas, do link anterior, o responsável máximo da Microsoft por este projeto explica que a empresa tem a funcionar na China um sistema semelhante que interage, diariamente, com 40 milhões de utilizadores. E, pasme-se, funciona bem. A empresa pensou: “E que tal experimentar o mesmo, mas com o resto do mundo?” A resposta demorou um dia a chegar. Um grupo de utilizadores descobriu a tal falha crítica e o resto já sabemos. Ou seja, na China o sistema funciona bem. Muda-se o ambiente cultural e Tay transforma-se numa militante da extrema-direita.

A culpa é do software? Sim. Claro que sim. Mas não só. A experiência com Tay é um choque de realidade para todos os anteveem caminhos rápidos e fáceis para o desenvolvimento de soluções de Inteligência Artificial apoiadas em dados públicos. É fácil fazer analogia com a produção de um medicamento. Uma coisa é o ambiente de laboratório, outra é disponibilizá-lo à população. São precisos anos de testes. É certo que na tecnologia os ritmos são outros, mas quando uma solução é colocada perante os utilizadores, os problemas são os mesmos. Dúvidas? Lembre-se do drama do portal E-Fatura. Sim, esse onde fazemos o papel de inspetores das finanças.

Colocar Tay à mercê dos infoincluídos do Twitter (mais de 320 milhões) foi um risco. E a Microsoft assumiu o desafio que não a livrou de uma semana inteira de comentários jocosos nas redes sociais e em alguns media. A empresa diz que vai voltar a tentar dar vida a Tay e terá em conta a lição aprendida. Mas a questão fulcral deixada por esta experiência é: como é que vai ser possível retirar o pior da natureza humana dos ensinamentos da Inteligência Artificial? Pergunta que induz, de imediato, outra: a IA terá capacidade de atingir a plenitude se não emular o bom e o mau do Homem?

A quem gosta do tema aconselho o filme “Ex Machina” (saiba mais AQUI) que materializa muito bem aquele que é um dos maiores desafios ao desenvolvimento de experiências de IA credíveis.