Siga-nos

Perfil

Expresso

&conomia à 6ª

2016, o ano em que a mentira passou a ser verdade

Em 2016, a palavra do ano eleita pelos Dicionários Oxford foi post-truth, ou pós-verdade em português, um adjetivo que classifica as circunstâncias nas quais os factos objetivos têm menos influência sobre a opinião pública do que apelos à emoção e a crenças pessoais.

A palavra pós-verdade foi usada pela primeira vez em 1992 pelo argumentista e dramaturgo Sérvio-Americano Steve Teish na revista “The Nation”. Teish, refletindo sobre a guerra no Golfo Pérsico, lamentava que “nós, como pessoas livres, livremente decidimos que queremos viver num mundo de pós-verdade”. Apesar de mais de duas décadas de existência, e de, desde a sua criação, ter sido empregue com alguma regularidade, o uso da palavra pós-verdade aumentou cerca de 2000% em 2016. Esta explosão deveu-se a acontecimentos como o Brexit e a eleição de Donald Trump como Presidente dos Estados Unidos. Ambas as campanhas foram marcadas pela disseminação de notícias falsas e boatos. Por exemplo, que custava ao Reino Unido cerca de 470 milhões de dólares por semana a sua permanência na União Europeia e que o Presidente Barack Obama foi o fundador do ISIS, sendo Hillary Clinton a sua cofundadora. Recorde-se também o falhanço do acordo de paz na Colômbia e o impeachment de Dilma no Brasil, eventos também marcados pelo poder da pós-verdade.

As instituições democráticas que poderiam e deveriam deter a proliferação de mentiras e boatos pouco fizeram porque essas instituições são em sim mesmas compostas por pessoas que, mesmo reconhecendo a falsidade de algumas notícias, cedem facilmente a preconceitos. Hoje em dia é tão fácil e rápido disseminar um boato com consequências devastadoras que a pós-verdade é uma arma de destruição maciça na política contemporânea.

Plataformas como o Facebook, Twitter, ou Whatsapp favorecem o uso e a proliferação de boatos e mentiras. Como grande parte das histórias são partilhadas por utilizadores que são “nossos amigos” e nos quais depositamos confiança, legitimamos, quase que de olhos fechados, a veracidade dos conteúdos. Mais, os algoritmos utilizados pelas redes sociais fazem com os utilizadores recebam notícias que sejam do seu interesse e se coadunem com o seu ponto de vista político, religioso e cultural. Criam-se assim efeitos de “herding” ou seja, seguimos o que os amigos seguem, partilhamos o que estes partilham, criando-se bolhas de contra-informação, má informação, preconceitos, e, no caso da política, uma polarização extrema à esquerda e à direita.

O Facebook aceitou culpas e reagiu, à semelhança do que o Google já tinha feito, ou seja, anunciou que sites que partilhem informações falsas não poderão usar a rede de anúncios do Facebook. A imprensa que tradicionalmente se responsabiliza por verificar a veracidade dos conteúdos que publica vai mais longe e exige que as redes sociais mantenham uma equipa editorial e filtros que consigam identificar a veracidade das notícias.

Filtrar as notícias: uma profilaxia que pode ser perniciosa

Filtrar e classificar conteúdos nas redes sociais parece ser o caminho adequado para combater a disseminação de boatos que apelam a preconceitos e radicalizam posições dos

cidadãos. Mas como não há bela sem senão, esta profilaxia pode ser perniciosa. Esta é a opinião de Jeff Ely, professor na Northwestern University, em Chicago, que usa a teoria de jogos para explicar que a prevenção das notícias falsas nas redes sociais pode gerar maior proliferação das mesmas.

Veja-se então como. Considere que inicialmente existem dois jogadores. Um jogador consiste no grupo que fabrica uma história falsa e o outro jogador é o leitor que não é capaz de identificar a veracidade da história. Mesmo que o leitor saiba que existem grupos que publicam conteúdos noticiosos falsos, existe a crença de que a história publicada poderá ser verdadeira. Se a crença for suficientemente forte, o leitor lê a história e partilha-a com outros utilizadores da rede social. Considere agora um terceiro jogador, o Facebook, na pessoa de Mark Zuckerberg, que decide filtrar os conteúdos noticiosos que são publicados.

Existem dois efeitos que influenciam o jogo. O efeito imediato consiste na alteração da perspetiva do leitor sobre a veracidade das notícias publicadas. O leitor irá agora acreditar com acrescida convicção que as histórias que lê no Facebook são verdadeiras, e deste modo estará ainda mais propenso a ler e a partilhar os conteúdos. Um segundo efeito, chamado de incentivo estratégico, afeta o grupo que fabrica as histórias falsas. Para estes, apesar de poder ser mais difícil publicar uma história falsa, os benefícios de o fazer são mais altos. Um Facebook mais credível é um suporte digital mais apetecível para a disseminação de boatos porque os leitores mais acreditarão na veracidade dos mesmos.

Mais do que filtrar conteúdos seria importante educar os cidadãos para que não aceitem mentiras e preconceitos de olhos fechados. A mentira até tem pernas curtas, o pior é quando a verdade reposta não apaga os estragos de um boato. Por isso, desejo que 2017 seja um ano de racionalidade e de maior veracidade na informação que nos rodeia. Pense duas vezes antes de partilhar o que lê.