Siga-nos

Perfil

Economia

Economia

Facebook vai remover conteúdos falsos que possam causar violência no mundo físico

A entrada do campus do Facebook em Menlo Park, na Califórnia

Maria João Bourbon

Rede social está a criar parceiras com organizações locais e internacionais para a ajudarem na verificação de factos e do seu potencial de estimular a violência. Política foi testada no Sri Lanka e deve começar a ser implementada nos próximos meses

Maria João Bourbon

Maria João Bourbon

em Menlo Park

Jornalista

A maior rede social do mundo anunciou esta quarta-feira que vai começar a remover conteúdos incorretos ou enganadores que possam contribuir para a violência física ou pôr em causa a integridade física.

Denominada “real-world harm policy” (política para a violência física, numa tradução livre), a nova medida foi apresentada durante um encontro de jornalistas nacionais e internacionais na sede do Facebook, em Menlo Park, no qual o Expresso participou.

“A nossa responsabilidade é não só reduzir este tipo de conteúdos [como acontecia até agora], mas também removê-los”, sublinhou Tessa Lyons, gestora de produto focada na integridade da News Feed (Mural) do Facebook.

“Reduzir a distribuição da desinformação – em vez de a remover totalmente – exige o equilíbrio certo entre a liberdade de expressão e a segurança da comunidade”, sublinhou um porta-voz da multinacional. “Existem certas formas de desinformação que têm contribuído para a violência física e estamos a alterar a política para eliminar este tipo de conteúdos.”

A empresa vai começar a implementar esta política “dentro dos próximos meses”. Nela estão incluídas não só as publicações em texto, mas também as imagens manipuladas.

Membros da equipa de desinformação do Facebook explicam aos jornalistas a estratégia de combate às fake news

Membros da equipa de desinformação do Facebook explicam aos jornalistas a estratégia de combate às fake news

Maria João Bourbon

Nova política testada no Sri Lanka

Para ajudar no processo de verificação, a empresa está a criar parcerias com organizações locais e internacionais, entre as quais organizações da sociedade civil e serviços de inteligência.

Estas irão verificar a veracidade da informação publicada no Facebook e a probabilidade de esta contribuir para originar violência no mundo real – especialmente nos casos em que a rede social não tem toda a informação sobre o que se passa no terreno.

Caso determinado conteúdo seja confirmado como falso e com potencialidade de estimular ou escalar a violência, será removido da rede social.

O Facebook tem sido acusado de propagar conteúdos falsos que incitam à violência, em países como o Sri Lanka, a Birmânia ou a Índia. Foi por ter identificado este novo tipo de desinformação que a tecnológica liderada por Mark Zuckerberg decidiu lançar estas novas medidas.

Apesar de ter sido lançada esta quarta-feira, a nova política já foi testada no mês passado no Sri Lanka, onde a empresa removeu conteúdos falsos que alegadamente exacerbaram o discurso de ódio e os confrontos entre muçulmanos e a maioria budista. Um deles foi uma publicação que afirmava que os muçulmanos estariam a envenenar os budistas com comida oferecida ou vendida aos mesmos – e que foi identificada por organizações locais como tendo potencial para escalar os confrontos no país.

O Expresso viajou a convite do Facebook.