.
Ao combater a disseminação de desinformação, as plataformas de mídia social normalmente colocam a maioria dos usuários no banco do passageiro. As plataformas costumam usar algoritmos de aprendizado de máquina ou verificadores de fatos humanos para sinalizar conteúdo falso ou desinformante para os usuários.
“Só porque este é o status quo não significa que seja a maneira correta ou a única maneira de fazê-lo”, diz Farnaz Jahanbakhsh, aluno de pós-graduação do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do MIT.
Ela e seus colaboradores realizaram um estudo no qual colocaram esse poder nas mãos dos usuários de mídia social.
Eles primeiro pesquisaram as pessoas para saber como elas evitam ou filtram a desinformação nas mídias sociais. Usando suas descobertas, os pesquisadores desenvolveram um protótipo de plataforma que permite aos usuários avaliar a precisão do conteúdo, indicar em quais usuários eles confiam para avaliar a precisão e filtrar postagens que aparecem em seu feed com base nessas avaliações.
Por meio de um estudo de campo, eles descobriram que os usuários eram capazes de avaliar com eficácia as postagens de desinformação sem receber nenhum treinamento prévio. Além disso, os usuários valorizaram a capacidade de avaliar postagens e visualizar avaliações de forma estruturada. Os pesquisadores também observaram que os participantes usavam filtros de conteúdo de maneira diferente – por exemplo, alguns bloqueavam todo o conteúdo desinformante, enquanto outros usavam filtros para procurar esses artigos.
Este trabalho mostra que uma abordagem descentralizada da moderação pode levar a uma maior confiabilidade do conteúdo nas mídias sociais, diz Jahanbakhsh. Essa abordagem também é mais eficiente e escalável do que os esquemas de moderação centralizada e pode atrair usuários que desconfiam das plataformas, acrescenta ela.
“Muitas pesquisas sobre desinformação assumem que os usuários não podem decidir o que é verdade e o que não é, então temos que ajudá-los. Não vimos isso de forma alguma. Vimos que as pessoas realmente tratam o conteúdo com escrutínio e eles também tentam ajudar uns aos outros. Mas esses esforços não são apoiados pelas plataformas atualmente”, diz ela.
Jahanbakhsh escreveu o artigo com Amy Zhang, professora assistente da Escola Allen de Ciência da Computação e Engenharia da Universidade de Washington; e autor sênior David Karger, professor de ciência da computação no CSAIL. A pesquisa será apresentada na Conferência ACM sobre Trabalho Cooperativo Suportado por Computador e Computação Social.
Combate à desinformação
A disseminação de desinformação online é um problema generalizado. No entanto, os métodos atuais que as plataformas de mídia social usam para marcar ou remover conteúdo desinformante têm desvantagens. Por exemplo, quando as plataformas usam algoritmos ou verificadores de fatos para avaliar as postagens, isso pode criar tensão entre os usuários que interpretam esses esforços como infringindo a liberdade de expressão, entre outras questões.
“Às vezes, os usuários querem que informações erradas apareçam em seus feeds porque querem saber a que seus amigos ou familiares estão expostos, para que saibam quando e como falar com eles sobre isso”, acrescenta Jahanbakhsh.
Os usuários geralmente tentam avaliar e sinalizar desinformação por conta própria e tentam ajudar uns aos outros pedindo a amigos e especialistas que os ajudem a entender o que estão lendo. Mas esses esforços podem sair pela culatra porque não são suportados por plataformas. Um usuário pode deixar um comentário em uma postagem enganosa ou reagir com um emoji raivoso, mas a maioria das plataformas considera essas ações sinais de engajamento. No Facebook, por exemplo, isso pode significar que o conteúdo desinformado seria mostrado para mais pessoas, incluindo amigos e seguidores do usuário – exatamente o oposto do que esse usuário queria.
Para superar esses problemas e armadilhas, os pesquisadores buscaram criar uma plataforma que oferecesse aos usuários a capacidade de fornecer e visualizar avaliações estruturadas de precisão nas postagens, indicar outras pessoas em quem confiam para avaliar as postagens e usar filtros para controlar o conteúdo exibido em seu feed. Em última análise, o objetivo dos pesquisadores é tornar mais fácil para os usuários ajudarem uns aos outros a avaliar a desinformação nas mídias sociais, o que reduz a carga de trabalho para todos.
Os pesquisadores começaram entrevistando 192 pessoas, recrutadas usando o Facebook e uma lista de e-mail, para ver se os usuários valorizavam esses recursos. A pesquisa revelou que os usuários estão hiperconscientes da desinformação e tentam rastreá-la e denunciá-la, mas temem que suas avaliações possam ser mal interpretadas. Eles são céticos em relação aos esforços das plataformas para avaliar o conteúdo para eles. E, embora eles gostem de filtros que bloqueiem conteúdo não confiável, eles não confiariam em filtros operados por uma plataforma.
Usando essas informações, os pesquisadores construíram um protótipo de plataforma semelhante ao Facebook, chamado Trustnet. Na Trustnet, os usuários publicam e compartilham artigos de notícias reais e completos e podem seguir uns aos outros para ver o conteúdo postado por outras pessoas. Mas antes que um usuário possa postar qualquer conteúdo na Trustnet, ele deve avaliar esse conteúdo como preciso ou impreciso, ou perguntar sobre sua veracidade, que ficará visível para outras pessoas.
“A razão pela qual as pessoas compartilham desinformação geralmente não é porque elas não sabem o que é verdadeiro e o que é falso. Em vez disso, no momento do compartilhamento, sua atenção é desviada para outras coisas. Se você pedir que avaliem o conteúdo antes de compartilhá-lo , isso os ajuda a serem mais exigentes”, diz ela.
Os usuários também podem selecionar indivíduos confiáveis cujas avaliações de conteúdo verão. Eles fazem isso de maneira privada, caso sigam alguém com quem estão conectados socialmente (talvez um amigo ou familiar), mas em quem não confiariam para avaliar o conteúdo. A plataforma também oferece filtros que permitem aos usuários configurar seu feed com base em como as postagens foram avaliadas e po
.png)
.png)
.png)
.png)