Press "Enter" to skip to content
Início » Internet » Facebook, notícias falsas e o debate sobre a sabedoria das massas

Facebook, notícias falsas e o debate sobre a sabedoria das massas

Compartilhe

 

A opinião coletiva sobre determinados temas resulta ser correta. Porém, sabedoria ou inteligência coletiva no Facebook é algo questionável.

A empresa, muito criticada pelas polêmicas notícias falsas durante as eleições norte-americanas, iniciou um plano para resolver o problema. Uma das chaves para esse plano é exatamente se valer do usuário como parte da massa inteligente para detectar as notícias falsas.

E essa pode não ser uma boa ideia.

 

 

 

A sabedoria das massas funciona… às vezes

 

Apesar da sabedoria das massas funcionar bem para resultados técnicos (de várias pessoas questionadas, a mesma informação é dita de forma próxima pela maioria delas), não há uma conclusão objetiva sobre sua eficiência.

Quando é preciso avaliar a qualidade ou veracidade de uma questão, tudo se complica. Muitos dos responsáveis por serviços como o Reddit ou o Digg sabem disso.

Um exemplo claro disso aconteceu na Amazon. Um pesquisador revelou um estranho padrão em determinadas qualificações dos livros da loja. Alguns títulos garantiam melhores qualificações (os livros da saga Harry Potter) e outros piores, mas alguns com uma curva curiosa: muitas pontuações com uma estrela, e muitas com cinco estrelas, o que gerava uma curva em forma de ferradura: os livros controvertidos geravam críticas e elogios, mas obtendo vendas muito elevadas.

 

 

 

Votações e prejuízos

 

 

O problema com esse sistema é que quando um leitor vai comprar um livro e vê as pontuações e qualificações, ele já não atua de forma independente, mas o faz com influência positiva ou negativa. Isso já exclui a validade da sabedoria das massas.

A primeira fase do Digg permitia que todos os usuários votassem nas notícias. O Reddit fez um bom uso do mesmo princípio. Cada um desses serviços contava com um algoritmo para gerenciar os votos positivos e negativos, transformando a comunidade em moderadora dos conteúdos.

Isso gerou vários problemas.

Para começar, o grupo de usuários que tentavam enganar o sistema. Muitos dos serviços teve problemas com isso – algo que até hoje acontece com sistemas de comentários -, com grupos de pressão que visavam prejudicar ou favorecer certos conteúdos. As chamadas máfias ou clusterização de usuários nesses grupos a favor ou contra um tema, como em todos os subgrupos que se mostram de acordo com certos aspectos específicos de uma mesma questão.

Além disso, quando vemos as enquetes, o efeito mostra que a percepção das mesmas já fica condicionada. Não vemos a notícia da mesma forma se um monte de gente qualifica a mesma como positiva ou negativa.

Soma-se à isso ao fato das pessoas dedicarem mais tempo à esse sistema que perfila o tipo de conteúdo que aparece nesses sites sociais de notícias, que precisam se esforçar para evitar que as pessoas que realizam bem o seu trabalho sejam promovidas a postos de maior responsabilidade, ao ponto de não poderem mais formular nem mesmo os objetivos de um trabalho, alcançando o máximo nível de incompetência.

Evitar todos esses problemas e aproveitar a sabedoria das massas de forma coerente é algo muito complexo. Nem mesmo o Reddit, anárquico por excelência, se livrou desses problemas.

Recentemente, ficamos sabendo que seu fundador, Steve Huffman, utilizou seus “superpoderes” de administrador para modificar os comentários de apoio à Trump, algo que sujou a imagem do Reddit.

 

 

 

Facebook e a comunidade como detectora de notícias falsas

 

O Facebook passa a ter uma tarefa titânica.

Os usuários poderão marcar qualquer notícia como falsa, e a partir daí uma série de investigadores dedicados vão avaliar se todos esses votos negativos podem efetivamente qualificar uma nota como falsa ou suspeita.

A partir daí, outros mecanismos serão adotados: determinadas organizações vão colaborar com a tarefa de validar e comprovar as notícias, detectando e marcando as mesmas como suspeitas.

As notas não desaparecerão do sistema, mas se um usuário quiser compartilhá-las para propagar a mentira, terá que fazê-lo com uma advertência clara do que está fazendo.

Pode ser que funcione. Mas o Facebook é tão grande que as tarefas de verificação podem ser insustentáveis. Sempre haverá mais itens a serem verificados do que pessoas para fazer isso.

Mas o problema maior está no fato de como dar esse poder aos usuários. Ainda que seja algo interessante, pode acabar criando no Facebook os mesmos problemas vistos no Reddit ou no Digg.

Lidar com isso é algo bem complexo, e será interessante ver como os acontecimentos vão se desenvolver.

Os falsos, e os verdadeiros.


Compartilhe
@oEduardoMoreira