Na frente de um computador, há pouco tempo, um professor titular de história enfrentava um desafio que bilhões de nós todos os dias temos que passar: decidir se acreditaria em algo na Internet ou se tudo é fake news.
Em sua tela, havia um artigo publicado por um grupo chamado American College of Pediatricians que discutia como lidar com o bullying nas escolas.
Entre os conselhos oferecidos: as escolas não devem destacar grupos específicos alvos de bullying, pois isso pode chamar a atenção para “adolescentes temporariamente confusos”.
Escaneando o site, o professor anotou o endereço da web “.org” e uma lista de citações acadêmicas.
O design sóbrio do site, desprovido de vídeos chamativos e de reprodução automática, deu credibilidade, pensou.
Após cinco minutos, ele encontrou poucas razões para duvidar do artigo.
“Estou claramente vendo um site oficial”, disse ele.
Mas será que é fake news a informação?
ACREDITAR EM MECANISMOS DE PESQUISA?
O que o professor nunca percebeu ao se concentrar nas características superficiais da página é que o grupo em questão é uma facção socialmente conservadora que surgiu em 2002, a partir da tradicional Academia Americana de Pediatria sobre a questão da adoção por casais do mesmo sexo.
Ele foi acusado de promover políticas antigay, e o Southern Poverty Law Center o taxou como participante de um grupo de ódio.Confiança era o problema em questão.
O professor foi solicitado a avaliar o artigo como parte de um experimento conduzido pelo psicólogo da Universidade de Stanford, Sam Wineburg.
Sua equipe, conhecida como Stanford History Education Group, deu a dezenas de assuntos essas tarefas.
Todas na esperança de responder a duas das perguntas mais irritantes da era da Internet: por que os mais inteligentes de nós são tão ruins em fazer julgamentos sobre o que confiar? E como podemos melhorar?
TODOS NA MESMA ONDA?
A equipe de Wineburg descobriu que americanos de todas as idades, de interlocutores com conhecimento digital a acadêmicos de alto QI, deixam de fazer perguntas importantes sobre o conteúdo que encontram em um navegador, aumentando a pesquisa sobre nossa credulidade online.
Outros estudos mostraram que as pessoas retweetam os links sem clicar neles e confiam demais nos mecanismos de pesquisa.
Uma pesquisa da Pew de 2016, descobriu que quase um quarto dos americanos disse ter compartilhado uma notícia inventada.
Em seus experimentos, o cientista cognitivo do MIT David Rand descobriu que, em média, as pessoas tendem a acreditar em notícias falsas pelo menos 20% das vezes.
“Estamos todos dirigindo carros, mas nenhum de nós possui licenças”, diz Wineburg sobre o consumo de informações online.
Nossa incapacidade de analisar a verdade da ficção na Internet é, obviamente, mais do que uma questão acadêmica. O flagelo das “fake news” e de seus muitos primos – desde clickbait a “deep fakes” (vídeos de aparência realista mostrando eventos que nunca aconteceram) – têm especialistas temerosos pelo futuro da democracia.
Políticos e tecnólogos alertaram que os intrusos estão tentando manipular eleições em todo o mundo espalhando desinformação.
Foi o que agentes russos fizeram em 2016, de acordo com agências de inteligência dos EUA.
E em 31 de julho, o Facebook revelou que havia encontrado evidências de uma campanha de influência política na plataforma antes das eleições de meio de mandato de 2018.
Os autores de uma página agora extinta levaram milhares de pessoas a manifestar interesse em participar de um protesto inventado que aparentemente pretendia colocar nacionalistas brancos e esquerdistas nas mesmas ruas.
É HORA DE REPENSAR O IDIOMA DA ACESSIBILIDADE
Mas as apostas são ainda maiores que as eleições.
Nossa capacidade de verificar informações é importante toda vez que uma mãe pergunta ao Google se seu filho deve ser vacinado e toda vez que uma criança encontra uma negação do Holocausto no Twitter.
Na Índia, rumores falsos sobre sequestros de crianças que se espalham no WhatsApp levaram multidões a espancar pessoas inocentes até a morte.
“É o equivalente a uma crise de saúde pública”, diz Alan Miller, fundador do projeto apartidário News Literacy Project.
Não há solução rápida, embora as empresas de tecnologia estejam sob crescente pressão para encontrar soluções.
O Facebook perdeu mais de US $ 120 bilhões em valor das ações em um único dia de julho, enquanto a empresa lidava com uma série de questões que limitam seu crescimento, incluindo críticas sobre como as teorias da conspiração se espalham na plataforma.
Mas os engenheiros não podem ensinar as máquinas a decidir o que é verdadeiro ou falso em um mundo em que os humanos geralmente não concordam.
Em um país fundado na liberdade de expressão, os debates sobre quem julga a verdade e a mentira online são controversos.
Muitos elogiaram a decisão das principais empresas de tecnologia no início de agosto de remover o conteúdo do teórico da conspiração Alex Jones, que alegou que os rastros de jatos de passageiros estão danificando o cérebro das pessoas.
Ele espalhou alegações de que as famílias das vítimas do massacre de Sandy Hook são atores de uma brincadeira elaborada.
Mas outros choraram censura.
E mesmo que a justiça e a inteligência possam descobrir todos os maus atores com um teclado, parece imprudente colocar o governo encarregado de desvendar na Internet as declarações enganosas.
LEITORES SUSCETÍVEIS E A RESPOSTA FÁCIL
O que está claro, no entanto, é que há outra parte responsável.
O problema não é apenas bots maliciosos, trolls que amam o caos ou adolescentes macedônios empurrando histórias falsas para obter lucro.
O problema também é nós, leitores suscetíveis.
E especialistas como Wineburg acreditam que, quanto melhor entendermos a maneira como pensamos no mundo digital, maiores chances teremos de fazer parte da solução.
Nós não caímos em notícias falsas só porque somos burros.
Muitas vezes, é uma questão de deixar os impulsos errados assumirem o controle.
Em uma época em que se passa 24 horas por semana online – quando estamos sempre manipulando caixas de entrada, feeds e alertas – é fácil sentir que não temos tempo para ler nada além de manchetes.
Somos animais sociais, e o desejo de curtir pode substituir um sentimento latente de que uma história parece arriscada.
Convicções políticas nos levam a pensamentos preguiçosos.
Mas há um impulso ainda mais fundamental em jogo: nosso desejo inato por uma resposta fácil.
HEURÍSTICA DA FAMILIARIDADE
Os seres humanos gostam de pensar em si mesmos como criaturas racionais, mas na maioria das vezes somos guiados por pensamentos emocionais e irracionais.
Os psicólogos demonstraram isso através do estudo de atalhos cognitivos conhecidos como heurística.
É difícil imaginar fazer uma visita ao supermercado sem economizar muito tempo.
“Você não gasta tempo e energia para examinar e comparar todas as marcas de iogurte”, diz Wray Herbert, autor de On Second Thought: Outsmarting the Hard-Wired of Your Mind ou seja, Pensando bem: superando os limites de sua mente.
Portanto, podemos confiar no que é conhecido como heurística da familiaridade, nossa tendência a assumir que, se algo é familiar, deve ser bom e seguro.
Esses hábitos mentais certamente ajudaram nossos ancestrais a sobreviver.
O problema é que confiar demais neles também pode desviar as pessoas, principalmente em um ambiente online.
Em uma de suas experiências, Rand, do MIT, ilustrou o lado sombrio da heurística da fluência, nossa tendência a acreditar em coisas às quais fomos expostos no passado.
O estudo apresentou assuntos com títulos – alguns falsos, outros verdadeiros – em um formato idêntico ao que os usuários veem no Facebook.
Rand descobriu que simplesmente ser exposto a notícias falsas (como um artigo que alegava que o presidente Trump iria trazer de volta o rascunho) tornava as pessoas mais propensas a classificar essas histórias como precisas mais adiante no experimento.
Se você já viu algo antes, “seu cérebro inconscientemente usa isso como uma indicação de que é verdade”, diz Rand.
TENDÊNCIA PROPAGANDISTA
Essa é uma tendência que os propagandistas estão cientes desde sempre. A diferença é
que nunca foi tão fácil atrair a atenção da mensagem, nem conseguir que os inimigos da mensagem ajudem a espalhá-la.
Os pesquisadores que conduziram a pesquisa Pew observaram que uma das razões pelas quais as pessoas compartilham conscientemente notícias inventadas é “chamar” as histórias como falsas.
Isso pode tornar um post popular entre colegas com ideias semelhantes nas mídias sociais, mas também pode ajudar a falsas alegações afundarem na consciência coletiva.
Os acadêmicos estão apenas começando a entender todas as maneiras pelas quais nossos cérebros são moldados pela Internet, uma das principais razões para impedir a disseminação de informações erradas.
FACEBOOK CRIOU ALERTA
Uma tentativa do Facebook mostra como a introdução de novos sinais nesse domínio ocupado pode sair pela culatra.
Com a esperança de reduzir as notícias indesejadas, a empresa começou a anexar avisos a postagens que continham alegações que os verificadores de fatos classificaram como falsas.
Mas um estudo constatou que isso pode aumentar a probabilidade de os usuários acreditarem em qualquer publicação não sinalizada.
Tessa Lyons-Laing, gerente de produto que trabalha no News Feed do Facebook, diz que a empresa brincou com a ideia de alertar os usuários sobre boatos que circulavam pela web todos os dias antes de perceber que uma “abordagem de imunização” poderia ser contraproducente.
“Estamos realmente tentando entender o problema e ter consideração pela pesquisa e, portanto, em alguns casos, parte da questão é que as pessoas ainda contam com atalhos desatualizados, do tipo que fomos ensinados a usar em uma biblioteca.
Veja o professor no estudo de Wineburg. Uma lista de citações significa uma coisa quando aparece em um livro que foi examinado por uma editora, um verificador de fatos e um bibliotecário.
Significa outra coisa na Internet, onde todos têm acesso a uma impressora pessoal.
Os jornais costumavam separar fisicamente notícias difíceis e comentários, para que nossas mentes pudessem entender facilmente o que era o quê.
Hoje, porém, dois terços dos americanos recebem notícias das mídias sociais, onde as publicações dos editores recebem a mesma embalagem dos cumprimentos de aniversário e reclamações.
O conteúdo que merece uma resposta emocional é misturado com coisas que exigem uma consideração mais profunda.
“Tudo parece idêntico”, diz a pesquisadora de Harvard Claire Wardle.
CONTEÚDO DO GOOGLE UTILIZA PALAVRAS-CHAVE
Em vez de trabalhar mais, muitas vezes tentamos terceirizar o trabalho.
Estudos demonstraram que as pessoas assumem que quanto mais algo aparece nos resultados de pesquisa do Google, mais confiável é.
Mas os algoritmos do Google estão divulgando conteúdo com base em palavras-chave, não na verdade.
Se você perguntar sobre o uso de sementes de damasco para curar o câncer, a ferramenta obedientemente encontrará páginas afirmando que elas funcionam.
“Um mecanismo de pesquisa é um mecanismo de pesquisa”, diz Richard Gingras, vice-presidente de notícias do Google.
“Não acho que alguém realmente queira que o Google seja o árbitro do que é ou não expressão aceitável”.
URL E DESIGN SÃO MANIPULÁVEIS
Esse é apenas um exemplo de como precisamos treinar nossos cérebros.
Também estamos inclinados a confiar no visual, diz Wardle.
Mas algumas fotos são manipuladas e outras legítimas são colocadas em contextos falsos.
No Twitter, as pessoas usam o tamanho dos seguidores de outras pessoas como proxy da confiabilidade, mas milhões de seguidores foram pagos (e cerca de 10% dos “usuários” podem ser bots).
Em seus estudos, Wineburg descobriu que pessoas de todas as idades estavam inclinadas a avaliar fontes com base em recursos como a URL do site e o design gráfico, coisas fáceis de manipular.
Faz sentido que os humanos procurem qualquer coisa quando estão tão cansados pelas notícias.
Mas quando resistimos a julgamentos rápidos, somos mais difíceis de enganar.
“Você só precisa parar e pensar”, diz Rand sobre os experimentos que ele fez sobre o assunto.
“Todos os dados que coletamos sugerem que esse é o verdadeiro problema.
Não é que as pessoas sejam super tendenciosas e usem sua capacidade de raciocínio para enganar-se a acreditar em coisas loucas.
É que as pessoas não estão parando. Elas estão apenas rolando o mouse.
É claro que é assim que as plataformas de mídia social foram projetadas.
Os feeds intermináveis e as recompensas intermitentes são projetados para mantê-lo lendo.
E há outros fatores ambientais em jogo, como a capacidade das pessoas de buscar facilmente informações que confirmam suas crenças.
Mas Rand não é o único acadêmico que acredita que podemos dar uma grande reduzida nos erros se desacelerarmos.
Wineburg, um veterano de 18 anos em Stanford, trabalha em um pequeno escritório no centro do campus repleto de palmeiras.
A especialidade de seu grupo é o desenvolvimento de currículos que professores de todo o país usam para treinar crianças em pensamento crítico.
Agora eles estão tentando atualizar essas lições para a vida na era digital.
GOOGLE ATUA NA ALFABETIZAÇÃO DIGITAL
Com a ajuda do financiamento do Google, que destinou US $ 3 milhões ao projeto de alfabetização digital do qual fazem parte, os pesquisadores esperam implementar novas regras da estrada até o próximo ano, descrevendo técnicas que qualquer pessoa pode usar para tirar melhores conclusões sobre o projeto.
Seu grupo não apenas apresenta ideias inteligentes; ele os testa.
Mas, ao tentarem desenvolver essas lições, lutaram para encontrar pesquisas sobre as melhores práticas.
“Onde estão os estudos sobre o que as estrelas fazem, para que possamos aprender com eles?”
Wineburg lembra-se de pensar, sentado no escritório da equipe sob uma impressão da Tabula Rogeriana, um mapa medieval que mostra o mundo de uma maneira que agora vemos de cabeça para baixo.
Eventualmente, um e-mail frio para um escritório em Nova York revelou um modelo promissor: verificadores profissionais.
Os verificadores de fatos, eles descobriram, não foram vítimas dos mesmos erros de outros grupos.
Quando apresentados à tarefa do American College of Pediatricians, por exemplo, eles quase imediatamente deixaram o site e começaram a abrir novas abas para ver o que a web em geral tinha a dizer sobre a organização.
VERIFICAR VÁRIOS SITES ANTES DE PUBLICAR
Wineburg apelidou essa leitura lateral: se uma pessoa nunca sai de um site – como o professor falhou em fazer – está basicamente usando antolhos (acessório que se coloca na cabeça de animal de montaria ou carga para limitar sua visão e forçá-lo a olhar apenas para a frente, e não para os lados, evitando que se distraiam ou se espantem e saiam do rumo).
Os verificadores de fatos não apenas passaram para outras fontes, mas também colocaram suas referências lado a lado, para melhor manter o rumo.
Em outro teste, os pesquisadores pediram aos participantes que avaliassem o site MinimumWage.com.
Em alguns minutos, 100% dos verificadores de fatos descobriram que o site é apoiado por uma empresa de relações públicas que também representa a indústria de restaurantes, um setor que geralmente se opõe ao aumento dos salários por hora.
Apenas 60% dos historiadores e 40% dos estudantes de Stanford fizeram a mesma descoberta, muitas vezes exigindo um segundo aviso para descobrir quem estava por trás do site.
RESTRIÇÃO DE CLIQUES
Outro verificador de fatos tático usado que outros não fizeram é o que Wineburg chama de “restrição de cliques”.
Eles examinavam uma página inteira dos resultados da pesquisa – talvez até dois – antes de escolher um caminho a seguir.
“É a capacidade de recuar e ter uma noção do território geral em que você aterrissou”, diz ele, “em vez de clicar promiscuamente na primeira coisa”.
Isso é importante, porque as pessoas ou organizações com uma agenda podem jogar os resultados da pesquisa ao compactar seus sites com palavras-chave, para que esses sites cheguem ao topo e as avaliações mais objetivas sejam enterradas.
As lições que eles desenvolveram incluem essas técnicas e ensinam as crianças a começar sempre com a mesma pergunta: quem está por trás das informações?
Embora ainda esteja experimentando, um piloto que a equipe de Wineburg conduziu em uma faculdade na Califórnia na primavera passada mostrou que essas pequenas mudanças de comportamento podem produzir resultados significativos.
Outra técnica que ele defende é ainda mais simples: basta ler.
Um estudo descobriu que 6 em cada 10 links são retuitados sem que os usuários leiam nada além do resumo de outra pessoa.
Outro descobriu que as histórias falsas viajam seis vezes mais rápido que as verdadeiras no Twitter, aparentemente porque as mentiras fazem um trabalho melhor ao estimular sentimentos de surpresa e repulsa.
Mas tomar uma batida pode nos ajudar a evitar reações bruscas, para não adicionar cegamente o lixo às vastas flotilhas que já estão entupindo a web.
“O que faz as alegações falsas ou hiper partidárias se saírem muito bem é que elas são um pouco estranhas”, diz Rand.
“A mesma coisa que os torna bem-sucedidos na divulgação online é a mesma coisa que, refletindo, faria você perceber que não era verdade.”
TECNOLOGIA CONTRA A DESINFORMAÇÃO
As empresas de tecnologia têm um grande papel a desempenhar para conter a maré da desinformação e estão trabalhando nisso.
Mas eles também perceberam que o que Wardard de Harvard chama de nosso “distúrbio da informação” não pode ser resolvido apenas por engenheiros.
Os algoritmos são bons em coisas como identificar contas falsas e as plataformas estão sinalizando milhões delas todas as semanas.
No entanto, as máquinas só conseguiram levar o Facebook tão longe na identificação da campanha de influência mais recente.
Uma página não autêntica, intitulada “Resistentes”, lançou um contraprotesto a uma manifestação de “direitos civis brancos” planejada para agosto em Washington, DC, e conseguiu organizações legítimas para ajudar a promovê-la.
Mais de 2.600 pessoas manifestaram interesse em participar antes que o Facebook revelasse que a página fazia parte de uma operação coordenada, desativou o evento e alertou os usuários.
A empresa contratou milhares de revisores de conteúdo que têm a sofisticação necessária para eliminar ervas daninhas através de misturas complicadas de verdade e mentira.
Mas o Facebook não pode empregar humanos suficientes para revisar manualmente os bilhões de postagens que são postadas diariamente, em vários países e idiomas.
Muitas postagens fake news não violam os termos de serviço das empresas de tecnologia.
O Facebook, uma das empresas que removeu o conteúdo de Jones, disse que a decisão não se relaciona a “fake news”, mas a proibições contra retóricas como “linguagem desumanizante”.
A Apple e o Spotify citaram regras contra o discurso de ódio, que geralmente é protegido pela Primeira Emenda.
“Com a liberdade de expressão, você recebe os bons e os maus e precisa aceitar os dois”, diz Gingras, do Google.
“E espero que você tenha uma sociedade que possa distinguir entre os dois.”
Você também precisa de uma sociedade que se preocupa com essa distinção.
As escolas fazem sentido como resposta, mas será necessário dinheiro e vontade política para inserir novos currículos nas salas de aula.
Os professores devem dominar o novo material e treinar os alunos para serem céticos sem torná-los cínicos.
CRIANÇAS E AS FAKE NEWS
“Quando você começa a fazer as crianças questionarem as informações”, diz Sarah McGrew, de Stanford, “elas podem cair nessa atitude em que nada é mais confiável”.
Os advogados querem ensinar às crianças outras habilidades defensivas, como pesquisar uma imagem de maneira inversa (para garantir que uma foto esteja realmente retratando o que alguém diz que é) e como digitar uma consulta neutra na barra de pesquisa.
Porém, mesmo que as lições perfeitas sejam dispersas gratuitamente online, qualquer pessoa que já se formou precisará optar por participar.
Eles terão que tomar iniciativa e também estar dispostos a questionar seus preconceitos, para adivinhar as informações em que eles gostariam de acreditar.
E confiar na mente aberta para derrotar as tendências tribais não provou ser uma fórmula vencedora em buscas anteriores pela verdade.
A VERGONHA COMO FERRAMENTA
É por isso que muitos advogados estão sugerindo que procuremos outra ferramenta poderosa: a vergonha.
Wardle diz que precisamos tornar o compartilhamento de informações erradas tão vergonhoso quanto dirigir embriagado.
Wineburg invoca o movimento ambiental, dizendo que precisamos cultivar uma conscientização sobre a “poluição digital” na Internet.
“Temos que levar as pessoas a pensar que estão desarrumando”, diz Wineburg, “encaminhando coisas que não são verdadeiras”.
A idéia é fazer com que as pessoas vejam o efeito agregado de pequenas ações, que um a um, cliques inadequados contribuem para que a Web seja um local tóxico.
Ter uma cidadania bem informada pode ser, em geral, tão importante para a sobrevivência quanto ter ar e água limpos.
“Se não podemos nos unir como sociedade em torno dessa questão”, diz Wineburg, “é a nossa destruição”.
E você? Como entende esse processo de fake news? Conte-nos!
Deixe o seu comentário!
Temas que abordamos nessa página:
- 1 ACREDITAR EM MECANISMOS DE PESQUISA?
- 1.1 TODOS NA MESMA ONDA?
- 1.2 É HORA DE REPENSAR O IDIOMA DA ACESSIBILIDADE
- 1.3 LEITORES SUSCETÍVEIS E A RESPOSTA FÁCIL
- 1.4 HEURÍSTICA DA FAMILIARIDADE
- 1.5 TENDÊNCIA PROPAGANDISTA
- 1.6 FACEBOOK CRIOU ALERTA
- 1.7 CONTEÚDO DO GOOGLE UTILIZA PALAVRAS-CHAVE
- 1.8 URL E DESIGN SÃO MANIPULÁVEIS
- 1.9 GOOGLE ATUA NA ALFABETIZAÇÃO DIGITAL
- 1.10 RESTRIÇÃO DE CLIQUES
- 1.11 TECNOLOGIA CONTRA A DESINFORMAÇÃO
- 1.12 CRIANÇAS E AS FAKE NEWS
- 1.13 A VERGONHA COMO FERRAMENTA
- 1.14 Deixe o seu comentário!
Hey,
o que você achou deste conteúdo? Conte nos comentários.