Siga-nos

Perfil

Expresso

Sociedade

As emoções separavam os homens das máquinas mas elas já nos entendem

Investigadores do MIT criaram modelos de machine learning para a perceção de emoções

Os computadores podem facilitar grande parte das atividades humanas no presente, e poderão substituí-las num futuro próximo, mas há algo em que estes não são tão bons. Ou não eram. Uma capacidade que apenas a Humanidade conseguiu aperfeiçoar com milhões de anos de evolução e que era até agora a grande fronteira entre o homem e a máquina. Trata-se da aptidão para detetar e avaliar estados emocionais apenas com recurso ao olhar, de perceber o outro sem recurso a palavras ou ações. Mas isso está prestes a mudar. Era uma questão de tempo. A verdade é que as sensações e as emoções também são algoritmos de processamento de dados bioquímicos — e que os humanos são essencialmente uma coleção de algoritmos biológicos, como Yuval Noah Harari lembra em “Homo Deus: História Breve do Amanhã” —, pelo que também não é tão estranho assim que se tente dar capacidades humanas às máquinas.

Este ano tornou-se mais claro que computadores estão a ganhar uma espécie de sensibilidade e que esta terá muitas aplicações na vida quotidiana. Em janeiro, a vice-presidente da empresa de consultoria Gartner expressou que “em 2022, os dispositivos pessoais saberão mais sobre o estado emocional dos seus utilizadores do que a sua própria família”. E o que no início do ano parecia uma excentricidade de Annette Zimmermann acabou por ganhar força científica nos últimos meses. Primeiro foi a Universidade de Ohio a anunciar que tinha criado um algoritmo com uma capacidade sobre-humana de detetar emoções e agora a confirmação deu-se com uma demonstração do MIT Media Lab.

O grupo de trabalho do Massachusetts Institute of Technology criou um conjunto de modelos de machine learning capazes de ler expressões faciais e compreender emoções humanas. Mas isso não é tudo. O laboratório norte-americano conseguiu que a nova ferramenta tenha a possibilidade de se adaptar a novos contextos — por exemplo outras culturas, onde as expressões faciais para determinada emoção diferem — sem perder precisão. O objetivo não é novo, mas a combinação de redes neurais individuais (em vez do mapeamento de um conjunto de expressões) mostrou-se mais eficaz do que as abordagens anteriores.

“Se quisermos robôs com inteligência social, temos que fazê-los responder de forma inteligente e natural aos nossos humores e emoções, mais como os seres humanos”, considera Oggi Rudovic, coautor do artigo do MIT Media Lab. Mas qual a relação entre o cérebro humano e os processadores dos computadores? E porque continuamos a tentar equiparar-nos mutuamente? Há muito que nos comparamos a máquinas, e no século XIX o cérebro humano era descrito como se de uma máquina a vapor se tratasse, mas hoje isso já não faz sentido. “Porquê usar computadores como modelo para entender a mente”, questiona-se também Harari, mas aqui a questão é a oposta. Porque queremos que os computadores se tornem o mais semelhante possível aos humanos?

São várias as justificações apresentadas para os avanços da computação afetiva, cujo mercado se estima valer 35 mil milhões de euros daqui a quatro anos, e as grandes tecnológicas também estão atentas a estas inovações. Perceber as emoções dos utilizadores é um dos grandes objetivos de gigantes como a Apple, Amazon, Google ou o Facebook, e existem já empresas a especializarem-se em sistemas de inteligência artificial relacionados com o lado mais emocional de cada um. É o caso da Affectiva — cuja ferramenta Emotion AI é utilizada por mais de 1000 marcas em todo o mundo e tem o canal CBS, a MARS e a Kellogg’s entre os clientes — e de outros nomes menos conhecidos, como a BeyondVerbal ou a Sensay, que estão a criar produtos empresarias a partir das mais recentes inovações tecnológicas. Certo é que no futuro os dispositivos vão reconhecer, interpretar, processar e até simular emoções humanas, com as questões éticas a crescerem à mesma velocidade que a tecnologia.