Tópicos | desinformação

O presidente Jair Bolsonaro (PL) foi denunciado à Comissão Interamericana de Direitos Humanos (CIDH) e à relatoria da Organização dos Estados Americanos (OEA) por ameaças à liberdade de expressão. A representação pede que as entidades solicitem informações sobre as ações de combate a desinformação ao Planalto.

A denúncia feita pelo Observatório para Monitoramento dos Riscos Eleitorais no Brasil (Demos) conta com apoio de outras entidades ligadas aos direitos humanos e liberdade de expressão, como a Abraji, APIB e ABJD.

##RECOMENDA##

A iniciativa reforça que Bolsonaro adota uma estratégia de enfraquecer seus adversários com fake news e que ele se apresenta como defensor da liberdade de expressão, mas restringe o direito aos que aderem suas ideias.

"O governo Bolsonaro e sua rede de apoio constroem um discurso que busca caracterizar o controle de abusos nos discursos desinformativos como uma forma de censura. Evocando uma aparência de legalidade, o presidente tenta impor obstáculo que impedem o exercício da moderação de conteúdo, permitindo a difusão de discursos nocivos", aponta o observatório.

Conforme o levantamento enviado, só em 2020, Bolsonaro fez 1.682 declarações falsas, mas seu histórico de desinformação já pôde ser percebido ainda na disputa à Presidência, em 2018, quando estimulou o disparo de mensagens falsas e manipuladas com mecanismos para viralizar discursos de ódio.

A Comissão Europeia apresentou nesta quinta-feira (16) um novo código de boas práticas que conta com o apoio de várias plataformas digitais para intensificar o combate à desinformação das redes sociais.

Entre as plataformas que assinaram sua adesão ao novo código, destacam-se gigantes como Meta, Google, Twitter, Microsoft, Vimeo e TikTok, além de entidades como Repórteres Sem Fronteiras (RSF) e Avaaz.

##RECOMENDA##

As próprias plataformas de assinatura participaram da elaboração do texto, que contém cerca de quarenta compromissos – o dobro do código anterior, de 2018 – e indicadores para medir seu cumprimento.

"Acho que é realmente um pacote poderoso de novas medidas que chega em um momento em que a Rússia está usando essa informação como arma (...) e também quando vemos ataques à democracia em geral, e é hora de agir", disse a vice-presidente da Comissão Europeia, Vera Jourova.

Por seu lado, o comissário europeu para o Mercado Interno, Thierry Breton, salientou que se trata de "uma questão sensível (...) porque tem impacto no nosso cotidiano" e também porque "refere-se aos nossos valores fundamentais ".

O código anterior baseava-se unicamente na autorregulação, com resultados considerados insuficientes pela Comissão Europeia. Desta vez, a adesão ao código continua voluntária, mas para "plataformas muito grandes" (chegando a 45 milhões de usuários na UE) ajuda a cumprir as obrigações estabelecidas na Lei de Serviços Digitais (conhecida por sua sigla em inglês, DSA ).

A DSA, que está em processo de adoção, exige que essas plataformas se esforcem para “reduzir o risco” de desinformação e prevê multas de até 6% de seu faturamento global. Um dos principais compromissos é acabar com os lucros da desinformação.

Plataformas de veiculação de anúncios, como a Alphabet, controladora do Google, estão comprometidas em bloquear anúncios com conteúdo de conspiração e verificar de onde eles vêm. Elas também estão comprometidas em combater ativamente anúncios que contenham desinformação.

Os signatários do código devem fornecer aos usuários ferramentas para identificar e relatar informações falsas ou enganosas e devem cooperar mais estreitamente com os verificadores de fatos em todos os idiomas da UE.

Os verificadores também obtêm suporte adicional, em particular por terem acesso a dados agregados e anônimos. Ao contrário do conteúdo ilegal, a desinformação não estará sujeita à remoção imediata devido ao princípio da liberdade de expressão. Em vez disso, levaria os usuários a recorrer a fontes confiáveis de informação, particularmente aquelas que atendem aos padrões estabelecidos pela Journalism Trust Initiative, da qual a RSF e a AFP são parceiras.

As plataformas também estão comprometidas em tornar a publicidade política mais transparente, identificando-as claramente como tal e informando aos usuários por que foram direcionadas.

Sem citar nomes, o ministro Edson Fachin, atual presidente do Tribunal Superior Eleitoral (TSE), disse, nesta quarta-feira (15), que "mentes autoritárias" propagam "desinformações para deseducar a população". O ministro comentava sobre a importância de proteger a democracia por meio das leis e das normas constitucionais.

Durante sua fala no IX Encontro Nacional de Escolas Judiciárias Eleitorais (ENEJE) na sede do TSE, em Brasília, Fachin interpretou o atual momento atravessado no país com lideranças tentando insuflar a população através de informações falsas. “É convocatório o tempo do agora. Mentes autoritárias assacam desinformações para deseducar. Cabe às mentes democráticas vigiar e educar para a paz cidadã”, declarou.

##RECOMENDA##

O ministro entende que a democracia passou a ser questionada em meio à insatisfação de parte da população. Porém, a solução seria aperfeiçoar a democracia ao invés de estimular o regresso da ditadura.

“No momento em que o descontentamento democrático tem se demonstrado em nível mundial, a educação para a cultura democrática, para uma cidadania consciente, se revela ainda mais essencial para a preservação do espírito democrático”, afirmou.

Para o magistrado, o respeito às instituições é fundamental para evitar recuos. “É preciso reafirmar nossa esperança, o valor da institucionalidade. É que essa sociedade não convive com a ideia de retrocesso democrático. Nenhum recuo nesses valores pode ser admitido”, frisou.

A atuação da Justiça Eleitoral também se mostra fundamental para defender a Constituição. “E nós, órgãos da Justiça Eleitoral, somos agentes que temos deveres, dentre eles o de não cruzar os braços para operar à luz da nossa responsabilidade no campo do diálogo, da reflexão coletiva e do fortalecimento dos valores democráticos”, complementou Fachin.

Dezenas de perfis que se passavam por ONGs ambientalistas e disseminavam informações falsas sobre a Amazônia estavam ligados a dois militares do Exército, constatou o relatório de ameaças encomendado pela Meta, detentora do Facebook e Instagram, publicado nessa quinta-feira (7). As contas foram derrubadas pela plataforma.

A análise da agência Graphika, contratada pela Meta para monitorar as postagens, identificou que a rede de fake news era controlada pela dupla que estava "servindo ativamente no exército em dezembro de 2021, de acordo com registros do governo brasileiro de pagamentos de funcionários federais".

##RECOMENDA##

A rede de desinformação contava com 14 contas e 9 páginas no Facebook, e 39 contas no Instagram. Todas foram derrubadas sob a justificativa de apresentar "comportamento inautêntico coordenado".

Defensores do governo federal

O documento indica que os perfis enalteciam o governo federal, criticavam defensores do Meio Ambiente e defendiam que nem todo desmatamento é ruim. Os perfis também apoiaram os atos do último 7 de setembro e o Projeto de Lei 490, que modifica as regras de demarcação de território indígena. 

As primeiras páginas surgiram em 2022, como a “Resistência Jovem” e “Orgulho Sem Terra”, que postavam memes sobre questões sociais, como a reforma agrária e a pandemia.

Em 2021, os perfis passaram a fingir ser ONGs e ativistas, como a “NatuAmazon” e a “Amazônia Sustentável”, mas não alcançaram tanto engajamento. Cerca de 1.200 seguidores acompanhavam as páginas no Facebook e mais de 23 mil no Instagram.



Exército se afasta dos envolvidos

Em nota, o Exército alegou que soube das contas através da imprensa e que “não fomenta a desinformação por meio das mídias sociais”.

"A instituição possui contas oficiais nessas mídias e obedece as políticas de uso das empresas responsáveis por essas plataformas. Assim, o Exército já entrou em contato com a empresa Meta para viabilizar, dentro dos parâmetros legais vigentes, acesso aos dados que fundamentaram o relatório, no que diz respeito à suposta participação de militares nas atividades descritas", destacou o documento.

"A Instituição requer de seus profissionais o cumprimento de deveres militares, tais como o culto à verdade, a probidade e a honestidade", complementou.

Divertidos e fáceis de compartilhar, os memes dominam o espaço das redes sociais, somando incontáveis interações seja no formato de vídeos, imagens legendadas ou bordões cativantes. Mas, com o grande alcance, o conteúdo pode perder o contexto e passar a espalhar ideias falsas com um agravante: a ausência de responsabilização.

Foi o que aconteceu quando, em meados de fevereiro, o presidente Jair Bolsonaro foi à Rússia no momento de uma desescalada do conflito com a Ucrânia. Em seguida, usuários passaram a compartilhar satiricamente que o presidente brasileiro teria "evitado a 3ª Guerra Mundial".

##RECOMENDA##

O tipo das publicações era variado: desde um vídeo falso de Vladimir Putin reconhecendo a ajuda, até uma montagem da revista Time declarando Bolsonaro o "Nobel da Paz de 2022". Os autores das postagens garantem que se tratavam apenas de memes, mas o conteúdo passou a convencer alguns usuários.

Para as professoras da área da Educação Adriana Rocha Bruno, da Universidade Federal do Estado do Rio de Janeiro, e Lucila Pesce, da Universidade Federal de São Paulo, isso pode acontecer devido a uma característica intrínseca dos memes: o humor.

"O humor nos afeta de modo muito singular, pois é relaxante, descontraído e passa a ideia de 'inofensivo'. Daí o perigo enorme que os memes podem representar para a desinformação, pois podem ser facilmente aceitos de forma acrítica", explicaram.

A mensagem através do humor

"Quando eu uso uma piada para dizer, por exemplo, que Bolsonaro foi à Rússia para resolver a guerra, isso começa a ser naturalizado. As pessoas riem, acham engraçado, mas vão capturando a ideia", concordou Raquel Recuero, do Laboratório de Pesquisa em Mídia, Discurso e Análise de Redes Sociais da Universidade Federal de Pelotas.

Outros exemplos não faltam nas redes: em julho de 2021, durante a campanha de vacinação contra a Covid-19 no Brasil, passou a circular a alegação de que a ex-presidente Dilma Rousseff teria dito que "se a segunda dose da vacina é a que garante a imunização, então deveriam dar a segunda dose primeiro". Não havia registro da frase e a assessoria da ex-presidente negou a alegação ao AFP Checamos.

No entanto, em janeiro de 2022, a mesma declaração voltou a circular nas redes mencionando a terceira dose. Apesar do tom cômico, muitos usuários reagiram às publicações questionando como a autora de uma frase do tipo poderia ter ocupado o Palácio do Planalto.

Viés de confirmação e educação digital

Para Yasmin Cuzri, coordenadora do projeto Moderação de Conteúdo Online, da FGV-Rio, essas interpretações podem se dar pelo fato de nem todos os usuários saberem ler um conteúdo na internet de forma racionalizada.

"A educação digital no Brasil é muito atrasada. As pessoas precisam aprender nas escolas a diferenciar o que é uma informação científica do que é somente uma informação sem verificação, sem base", apontou a especialista.

A esse ponto se soma o viés de confirmação, que faz com que os usuários tenham maior predisposição a acreditar em conteúdos que estejam de acordo com as suas crenças pessoais.

"Então, mesmo quem tem educação digital, às vezes cai no viés de confirmação. Enquanto as pessoas que não têm educação digital nem sequer sabem como se defender disso", pontuou Cuzri.

Nas mãos de figuras públicas, essa combinação de elementos pode levar a um resultado perigoso: a ausência de responsabilização.

Quando a alegação satírica de que Bolsonaro teria evitado a 3ª Guerra Mundial viralizou, o ex-ministro do Meio Ambiente Ricardo Salles compartilhou uma imagem sugerindo que a emissora CNN havia reportado a influência do presidente brasileiro no conflito russo-ucraniano.

Diversos usuários reagiram perguntando ao político se a imagem era real, ou elogiando a atuação de Bolsonaro. Mas, ao ter o conteúdo marcado com o alerta de "informação falsa", o ex-ministro alegou se tratar da "ironia do meme".

Viktor Chagas, professor e coordenador do projeto de extensão Museu de Memes da Universidade Federal Fluminense, explica que essa pode ser uma estratégia para "inverter o jogo": "Sob o argumento de que a minha intenção era outra, eu lanço mão da estratégia retórica de afirmar que aquilo era apenas uma piada, para inverter o jogo. De vilão, passo a ser vítima".

Assim, aqueles que compartilham desinformação sob o argumento do humor podem fugir da responsabilização, pontuaram Rocha Bruno e Pesce, "visto que há certo consenso de que piadas, brincadeiras, não se checam".

Por isso, "hoje, mais do que nunca, precisamos, ao acessar ou criar memes, questionar a serviço de que ou quem aquela ideia está sendo direcionada. Quem se beneficia e/ou se prejudica com aquele meme?", recomendam as professoras.

Protagonista nas eleições de 2018, a fake news ainda ameaça o sistema eleitoral e atrai cada vez mais atenção do Tribunal Superior Eleitoral (TSE) para o pleito deste ano. Para verificar a publicação de conteúdos que possam atrapalhar a escolha do eleitor, alunos do Mestrado em Ciência de Dados da Universidade de São Paulo (USP) desenvolveram um detector online de notícias falsas. 

O combate às fake news começa com a identificação das informações que chegam diariamente pelas redes sociais. Com um clique, o sistema gratuito verifica o link inserido através de uma Inteligência Artificial que foi ensinada sobre as características de um conteúdo falso e aponta a probabilidade de não ser verdadeiro. 

##RECOMENDA##

Integrante da equipe de produção da plataforma com mais sete pessoas, o especialista em Ciências de Dados e aluno da disciplina de Probabilidade e Estatística, Gilsiley Henrique Darú, comentou sobre as etapas iniciais do projeto. 

"Primeiro ensinamos o vocabulário. Foram mais de 100 mil reportagens para ela aprender vocabulários. Uma vez que ela aprendeu, a gente passou a ensinar quando aqueles vocábulos aparecem juntos e aumentam a probabilidade de ser uma fake news", descreveu. 

Características de uma fake news

Antes de repassar os padrões de comportamento às redes neurais artificiais do detector, os mestrandos da USP verificaram o que levam as matérias a serem consideradas suspeitas.  

Sensível aos aspectos da campanha de desinformação sustentada no WhatsApp e Twitter, Darú explicou que "reportagens pequenas tendem a ser falsas, mesmo que você coloque uma coisa verdadeira. Outro exemplo, se você recebe um e-mail com a palavra 'urgentíssimo', com certeza ela vai entender que aumenta a probabilidade de ser fake news. Outros exemplos são erros de português e textos com muita voz passiva". 

Na dúvida, cheque

Em alguns casos, até os seres humanos têm dificuldade de reconhecer informações reais e enganosas. Ainda em processo de aprimoramento, o detector pode ficar confuso com o uso de características subjetivas do texto e figuras de linguagem.  

"Quando a gente tentou identificar onde tínhamos mais erros, a gente percebeu que textos com sarcasmo é uma característica muito difícil de ensinar uma IA ainda hoje", acrescentou. 

Com a margem de êxito de 96% dentro da base que lhe foi ensinada, apesar do alto índice de assertividade, a plataforma não substitui a verificação dos usuários ao se deparar com conteúdos duvidosos.

"Nós podemos ajudar as pessoas a avaliar se aquela informação realmente é verdadeira ou não, dando uma probabilidade, mas nunca a pessoa pode substituir a capacidade humana, a verificação das fontes e o jornalismo sério", destacou Darú.   

O Facebook apresentou nesta quarta-feira (9) novas ferramentas para combater a desinformação dentro dos grupos da rede social, incluindo o uso de inteligência artificial para bloquear publicações com dados falsos.

Mais de 1,8 bilhão de pessoas usam todos os meses grupos do Facebook, que permitem que os membros se reúnam em torno de todos os tipos de assuntos.

##RECOMENDA##

Críticos dizem que os grupos são alvos fáceis para a difusão de informações enganosas ou falsas, por terem grandes audiências alinhadas ao redor de uma ideia ou tema específico.

Os administradores dos grupos podem optar pelo recurso de inteligência artificial que rejeita automaticamente postagens consideradas falsas por terceiros verificadores, disse Maria Smith, vice-presidente de Comunidades do Facebook.

Os grupos do Facebook foram concebidos pelo fundador Mark Zuckerberg como uma maneira mais íntima de construir comunidades, fornecendo espaços para os usuários se conectarem com seus hobbies e interesses.

“Nossa pesquisa mostra que essas mesmas funcionalidades – privacidade e comunidade – são frequentemente exploradas por atores nocivos, locais e estrangeiros, para espalhar informações falsas ou conspirações”, afirmaram as pesquisadoras Nina Jankowicz e Cindy Otis em uma coluna de opinião na Wired em 2020.

O Facebook também atualizou nesta quarta a ferramenta "suspender", que os administradores podem usar para impedir que usuários selecionados publiquem, comentem ou participem de um grupo.

Atualmente, a AFP trabalha com o Facebook por meio de seu programa de verificação em mais de 80 países e 24 idiomas.

No programa, que teve início em dezembro de 2016, o Facebook paga para usar verificações de informações de cerca de 80 organizações, incluindo meios de comunicação e serviços especializados, em sua plataforma, no WhatsApp e no Instagram.

Dois dias após a Rússia invadir a Ucrânia, uma conta na plataforma de mensagens Telegram se passou pelo presidente Volodymyr Zelensky e instou suas forças armadas a se renderem.

A mensagem não era autêntica, e o verdadeiro Zelensky logo negou o pedido em seu canal oficial do Telegram, mas o incidente evidenciou um grande problema: a desinformação que se espalha rapidamente, sem controle, neste aplicativo criptografado.

##RECOMENDA##

A conta falsa de Zelensky atingiu 20 mil seguidores no Telegram antes de ser encerrada, uma ação corretiva que, segundo especialistas, é rara.

De acordo com Oleksandra Tsekhanovska, chefe do Grupo Analítico de Guerra Híbrida do Centro de Mídia de Crise da Ucrânia, com sede em Kiev, os efeitos são tanto de curto quanto longo alcance.

"Para o Telegram, a prestação de contas sempre foi um problema, por isso era tão popular, mesmo antes da guerra, em grande escala com extremistas de direita e terroristas em todo o mundo", disse ele à AFP de sua casa nos arredores da capital ucraniana.

O Telegram tem 500 milhões de usuários, que compartilham dados individualmente e em grupos com relativa segurança. Mas o uso do app como um canal de transmissão unidirecional, no qual seguidores podem receber informações, mas não responder, significa que o conteúdo de contas não autênticas pode facilmente alcançar grandes públicos.

Notícias falsas costumam ser divulgadas por meio de grupos públicos ou chats, com efeitos potencialmente fatais.

"Alguém se passando por um cidadão ucraniano simplesmente entra no chat e começa a espalhar informações erradas ou coletar dados, como a localização de abrigos", explicou Tsekhanovska, que apontou que mensagens falsas levaram ucranianos a desligar seus telefones em um horário específico da noite, sob o argumento da cibersegurança.

Tal medida pode colocar as pessoas em risco, pois os cidadãos recebem avisos sobre ataques aéreos por meio de alertas em seus celulares.

- Frouxo e ausente -

Além disso, a arquitetura técnica do Telegram limita a capacidade de deter a disseminação de informações falsas: a falta de um fluxo público de mensagens e o fato de os comentários poderem ser facilmente desabilitados nos canais reduzem o espaço para reclamações.

Embora alguns canais tenham sido removidos, analistas consideram o processo de reparação pouco transparente e insuficiente.

"Há um contraste gritante com a forma como outras empresas são administradas hoje", observou Emerson Brooking, especialista em desinformação do Laboratório de Pesquisa Digital Forense do Atlantic Council.

O WhatsApp, serviço de mensagens rival, introduziu algumas medidas para combater a desinformação no começo da pandemia de covid-19. Restringiu o número de vezes que um usuário pode encaminhar algo e desenvolveu sistemas automatizados que detectam e sinalizam conteúdo censurável.

Ao contrário dos gigantes do Vale do Silício, como Facebook e Twitter, que têm programas muito públicos contra a desinformação, "o Telegram é notoriamente frouxo e ausente em sua política de moderação de conteúdo", afirmou Brooking.

Consequentemente, na pandemia, muitos recém-chegados ao Telegram, entre eles ativistas antivacina de destaque, se viram amparados pelo descontrole para compartilhar informações falsas sobre vacinas, segundo um estudo do Instituto para o Diálogo Estratégico.

- “Mais proativo” -

Diferente do Facebook, Google e Twitter, o fundador do Telegram, o russo Pavel Durov, administra sua empresa em relativo sigilo em Dubai.

No entanto, em 27 de fevereiro, ele admitiu por meio de sua conta, em russo, que "os canais do Telegram estão se tornando cada vez mais uma fonte de informações não verificadas relacionadas" ao conflito na Ucrânia.

Ele inicialmente chegou a dizer que restringiria alguns canais na Rússia e na Ucrânia "durante o conflito" devido à impossibilidade de verificar o conteúdo de todos eles, mas mudou sua posição depois que muitos usuários reclamaram, alegando que o Telegram era uma importante fonte de informação.

Oleksandra Matviichuk, advogada em Kiev e diretora do Centro para as Liberdades Civis, classificou a posição de Durov como "muito fraca".

"É preciso começar a ser mais proativo e encontrar uma solução real para essa situação, e não ficar parado sem interferir. É uma postura muito irresponsável por parte do dono do Telegram", disse.

Nos Estados Unidos, a menor utilização do Telegram o ajudou a evitar o escrutínio do Congresso, mas o assunto não passou despercebido.

Alguns usaram a plataforma para se organizar antes do ataque contra a sede do Congresso dos EUA no início de janeiro de 2021, e no mês passado o senador Mark Warner enviou uma carta a Durov pedindo-lhe que freasse as operações de informações russas no Telegram.

Prestes a assumir a Presidência do Tribunal Superior Eleitoral (TSE), o ministro Edson Fachin citou a Rússia ao comentar sobre a ameaça virtual às eleições deste ano e disse que o Brasil já pode estar sob ataque hacker. O presidente Jair Bolsonaro (PL) cumpre agenda no país euroasiático.

Em entrevista ao Estadão, Fachin confirmou que monitora a intervenção de hackers no processo eleitoral de alguns países, como a Macedônia do Norte.

##RECOMENDA##

"Em relação aos hackers que advêm da Rússia, os dados que nós temos dizem respeito a um conjunto de informações que estão disponíveis em vários relatórios internacionais e muitos deles publicados na imprensa. Há relatórios públicos e relatórios de empresas privadas, que a Microsoft fez publicar perto do fim do ano passado, que (mostram que) 58% dos ciberataques têm origem na Rússia", apontou.

O ministro alertou que o Brasil não possui legislação para controlar esse tipo de perigo e que 2022 será o maior teste para as instituições democráticas. "Nós queremos nessa articulação internacional tornar as eleições do Brasil uma espécie de case mundial sobre a democracia", definiu.

Na sua opinião, apesar de Bolsonaro pregar a desconfiança no processo eletrônico, caso seja derrotado nas urnas, ele não deve estimular uma rebelião como ocorreu nos Estados Unidos com a invasão ao Capitólio. 

"Eu não creio que irá acontecer. Tenho esperança de que não aconteça e vou trabalhar para que não aconteça. Mas, numa circunstância como essa, nós teremos, certamente, o maior teste das instituições democráticas do Brasil. Um grande teste para o Parlamento, que, na democracia representativa, representa a sociedade. Um grande teste para as Forças Armadas, que são forças permanentes, institucionais, do Estado, e que estou seguro que permanecerão fiéis à sua missão constitucional e não se atrelarão a interesses conjunturais. Também será um teste para a Justiça Eleitoral, que é uma instituição permanente do Estado. A nós caberá organizar, realizar as eleições, declarar os eleitos, diplomar e, em seguida, haverá posse para que cada um governe. É para efetivamente isso que vamos trabalhar", resumiu.

O TSE fechou acordo com Twitter, TikTok, Facebook, WhatsApp, Google, Instagram, YouTube e Kwai para combater o compartilhamento de fake news durante as eleições. Do outro lado, o Telegram ignora o contato com o Tribunal para participar do acordo que deve enfraquecera desinformação eleitoral.

Fachin pregou cautela e disse que ainda vai esperar uma posição do Congresso. No entanto, ele sugere uma conversa com os representantes da plataforma depois assumir o TSE.

"Até porque a nossa compreensão é de que uma plataforma, uma rede que tem milhões de usuários num determinado país, não pode se esconder por trás da transterritorialidade. O mundo não virou um planeta sem lei”, criticou.

O ministro reiterou que disseminar informações sabiamente falsas configura crime eleitoral e pode tomar medidas mais severas com os responsáveis. “Este é um ano também muito importante para a atuação do Ministério Público Eleitoral em favor da lisura e da normalidade das eleições”, destacou.

O Tribunal Superior Eleitoral (TSE) formalizou nesta terça-feira (15) um acordo com oito plataformas digitais para combater a desinformação durante as eleições presidenciais de 2022, depois da grande repercussão das eleições de 2018.

"É um momento importante da vida brasileira e da vida democrática. Nós todos estamos preocupados e empenhados em preservar um ambiente de debate livre, amplo, robusto mas que preserve certas regras mínimas de legalidade e de civilidade", disse o presidente do TSE, Luís Roberto Barroso, em um evento transmitido pelo Youtube.

O acordo foi assinado por representantes do Twitter, TikTok, Facebook, WhatsApp, Google, Instagram, YouTube e Kwai. O TSE também tentou contatar a plataforma Telegram, mas não obteve resposta, segundo confirmou a assessoria de imprensa do tribunal à AFP.

Essas empresas se comprometeram a colaborar com o TSE por meio de ferramentas específicas que fornecerão aos usuários 'links' para informações oficiais.

Também haverá canais específicos para denúncias por postagens que contenham informações falsas. No caso do Facebook, toda vez que a rede social receber um alerta para um possível conteúdo malicioso, será analisado por uma equipe que poderá eventualmente removê-lo. O serviço de mensagens do Whatsapp, por sua vez, terá um canal específico de denúncias de envio de mensagens ilegais em massa.

Com a incorporação do Kwai, os aplicativos renovaram um acordo parecido para as eleições municipais de 2020.

"Os aplicativos de mensagens se tornaram hoje um grande espaço público (...) estamos aqui, nesta sociedade, para que possamos empurrar as 'fake news', a desinformação, as teorias conspiratórias para a margem da história e permitirmos um debate público de maior qualidade", acrescentou o presidente do TSE.

O Brasil realizará a eleição presidencial em 2 de outubro e o segundo turno, caso seja necessário, será no dia 30 do mesmo mês. A maioria das pesquisas aponta uma provável disputa entre o ex-presidente Lula (2003-2010), que aparece como favorito, e o atual presidente.

As redes sociais foram uma peça-chave para a eleição de Bolsonaro em 2018. O próprio presidente fez uma campanha muito ativa nas redes, assim como muitos de seus seguidores, que divulgaram informações falsas sobre os adversários.

Bolsonaro, um usuário ativo das redes sociais, é atualmente alvo de várias investigações por espalhar notícias falsas. Plataformas como Youtube, Twitter e Facebook tomaram medidas contra algumas de suas publicações, enquanto o presidente tenta concentrar o maior número possível de seguidores no Telegram.

Esta plataforma é investigada pela Justiça, acusada de falta de colaboração para moderar a desinformação.

No mês passado, Bolsonaro chamou de "covardia" a possibilidade de que o TSE proíba o Telegram.

Barroso admitiu em uma entrevista ao jornal O Globo no domingo passado que a Justiça avalia proibir o aplicativo na véspera das eleições.

Em meio à pandemia de informações falsas, mesmo com a queda das taxas de óbito pela Covid-19 no Brasil, as tentativas de descredibilizar a imunização repercutiram na nova alta na ocupação de leitos de UTI. Contudo, o resultado mais preocupante é a incidência de vítimas que não foram vacinadas.

No Hospital Emílio Ribas, em São Paulo, 85% das mortes ocorrem por pacientes que não tinham o esquema de proteção completo. Conforme a gestão da unidade informou à Globo News, 100% dos leitos de UTI estão ocupados atualmente.

##RECOMENDA##

Números do estado

Em todo o estado, o índice de ocupação de leitos de UTI é de 71,6% e das enfermarias está em 66,1%.

Com a taxa de letalidade em 3,4%, desde o início da pandemia, 159.589 pessoas não resistiram aos efeitos do vírus e 4.745.504 testaram positivo.

Conforme a Secretaria de Saúde, 80,86% da população está com o esquema vacinal completo. Ao todo, foram 95.269.575 doses aplicadas.

As campanhas de vacinação em massa contra a Covid-19 alimentam um fluxo incessante de desinformação na Internet e nas redes sociais, boatos que exageram, ou inventam, efeitos colaterais dos imunizantes até transformarem o remédio em algo pior que a doença.

- Distorção dos dados sobre efeitos colaterais -

Desde o início das campanhas de vacinação, a farmacovigilância (ramo científico encarregado de detectar os efeitos colaterais dos medicamentos) tem servido de ferramenta para alarmar a opinião pública.

Na maioria dos países, quando uma pessoa ou profissionais de saúde detectam efeitos desconhecidos após uma vacinação, podem informá-los às autoridades, e estes registros costumam ser públicos.

Corresponde às autoridades sanitárias determinar se são efeitos colaterais.

Nestes registros, também são incluídos os óbitos. Uma pessoa vacinada ter morrido não significa, contudo, em absoluto, que tenha sido por causa do fármaco.

Os efeitos indesejáveis das vacinas anticovid-19, como miocardites, pericardites, ou tromboses, têm sido muito raros com base em bilhões de doses aplicadas no mundo todo.

E, apesar disso, as redes sociais têm divulgado uma grande quantidade de mensagens sobre os "milhares de mortos" supostamente causados pelas vacinas. Em geral, capturas de tela com dados destes registros públicos acompanham as mensagens, na tentativa de fazê-las parecer confiáveis.

Segue-se, com frequência, o mesmo método: falsificar os dados de farmacovigilância para assustar o leitor, como fez recentemente a deputada francesa Martine Wonner. Ela citou dados do sistema americano VAERS, que reflete indícios de efeitos suspeitos de estarem vinculados com as vacinas.

Estes dados não revelam, porém, qualquer vínculo de causa e efeito: podem "conter informações incompletas, inexatas, fortuitas, ou inverificáveis", adverte o próprio VAERS em sua página online.

No começo de novembro, em países como Taiwan e Austrália, foi detectado um grande fluxo de informação nas redes sobre mais falecimentos causados pelas vacinas do que pelo coronavírus.

- Especulações sem fundamento científico -

A teoria, segundo a qual as vacinas fragilizam ou mesmo destroem o sistema imunológico, é um clássico antivacina, reciclado agora com a pandemia.

No começo de janeiro, algumas publicações afirmaram, sem apresentar qualquer argumento científico como embasamento, que "pessoas totalmente vacinadas desenvolvem aids". Esta hipótese tem sido refutada à exaustão pela comunidade científica: as vacinas servem, ao contrário, para reforçar o sistema imunológico.

Outro rumor recorrente nas redes sociais é que a vacinação causa esterilidade. A AFP dedicou vários artigos de checagem a respeito deste tópico, desmentindo esta teoria.

Outro falso perigo: o fármaco causaria mal de Alzheimer. Esta também é outra especulação sem fundamento, escrita por um militante antivacinas.

Quando se começou a falar do método de RNA mensageiro, circulou a teoria de que este tipo de vacina modificaria o genoma humano. O fato: o RNA mensageiro da vacina não chega ao núcleo da célula, onde se encontra o nosso DNA, desmontando esta tese, também sem fundamento.

- Muitos vacinados entre os infectados? -

As estatísticas sobre vacinados, infectados e hospitalizados são distorcidas com frequência, ou retiradas de contexto, para afirmar que as vacinas são inúteis.

Muitas pessoas alegam, por exemplo, com base em números oficiais, que há, na França, mais infectados vacinados que não vacinados em números absolutos.

Isto não demonstra, contudo, que as vacinas são inúteis.

Independentemente das estatísticas, é necessário levar em consideração que, na França, mais de 75% da população está imunizada, um índice ainda maior entre certas faixas etárias.

Ao mesmo tempo, como se sabe desde o lançamento das vacinas, elas não previnem totalmente a infecção, nem a transmissão do vírus.

É, portanto, matematicamente inevitável que a proporção de vacinados seja muito elevada entre os infectados.

Em um exemplo teórico, se 100% de uma população está vacinada, 100% dos infectados, ou mesmo hospitalizados (ainda que sejam poucos), também estarão vacinados.

Isto não representa uma informação boa, ou ruim, sobre a vacina. Trata-se de um cálculo bem conhecido pelos estatísticos, conhecido como "paradoxo de Simpson". Desta maneira, é necessário raciocinar em termos de grupos populacionais iguais, e não em números absolutos.

Assim, observa-se que os casos positivos, as hospitalizações e as mortes são "claramente mais importantes para as pessoas não vacinadas do que para as vacinadas em uma população comparável", explica a unidade de estatística do Ministério francês da Saúde.

A chegada da variante ômicron, muito contagiosa, também alimentou as interpretações equivocadas das estatísticas.

O fato de que, entre as pessoas que testam positivo para Covid-19, as vacinadas são majoritariamente infectadas com a variante ômicron, levou alguns a concluírem que as vacinas aumentam o risco de contágio.

Na realidade, se a ômicron predomina entre os vacinados, é porque as vacinas são menos eficazes contra a ômicron do que contra a delta. Assim, quando uma pessoa vacinada é infectada neste momento, é principalmente pela ômicron.

Já os infectados não vacinados são apenas afetados não apenas pela ômicron, mas também – muito mais do que os vacinados – pela delta.

E os não vacinados não estão protegidos contra as formas graves da doença, se forem contaminados.

O Spotify adotará medidas para combater a desinformação sobre a Covid-19 em sua plataforma, anunciou neste domingo (30) a gigante sueca da música on-line, após um movimento de boicote lançado pela lenda do folk-rock Neil Young.

O número um do mundo do streaming musical incluirá links em todos os podcasts que mencionarem a covid, direcionando seus usuários para informações factuais e cientificamente verificadas, anunciou seu presidente e fundador, Daniel Ek, em um comunicado.

##RECOMENDA##

"Estamos trabalhando para adicionar um alerta de conteúdo para qualquer episódio de podcast que inclua discussão sobre a covid-19. Este alerta direcionará os ouvintes para o nosso Hub dedicado à covid-19, um recurso que dá acesso fácil a fatos orientados por dados, informação atualizada e compartilhada por cientistas, médicos, acadêmicos e autoridades de saúde pública ao redor do mundo, assim como links para fontes confiáveis", destacou Ek na nota, acrescentando que o recurso estará disponível nos próximos dias.

Esta semana, o prolífico roqueiro Neil Young exigiu que o Spotify retirasse suas músicas (com 2,4 milhões de seguidores e mais de seis milhões de ouvintes mensais), a menos que a plataforma se dispusesse a se livrar do controverso podcaster Joe Rogan, cujo programa é o mais popular da plataforma, mas é repetidamente acusado de propagar teorias da conspiração.

Rogan desaconselhou a vacinação em jovens e promoveu o uso não autorizado da ivermectina, um medicamento antiparasitário, para tratar o coronavírus.

"Percebi que não podia mais apoiar a desinformação no Spotify que ameaça a vida do público amante da música", disse Young, sobrevivente da pólio, em uma carta aberta.

Sua contestação veio após uma ação judicial apresentada por centenas de profissionais médicos pedindo ao Spotify que impedisse Rogan de promover "várias falsidades sobre as vacinas contra a covid-19", que, segundo eles, estariam criando "um problema sociológico de proporções devastadoras".

Rogan, que tem um contrato de exclusividade de US$ 100 milhões por vários anos com o Spotify, prevaleceu na decisão do Spotify.

Na quarta-feira, os sucessos de Young, incluindo "Heart of Gold", "Harvest Moon" e "Rockin' In The Free World" foram retirados da plataforma.

Mais de 80 organizações de verificação de fatos ("fact-checking") em todo mundo enviaram uma carta aberta ao YouTube, nesta quarta-feira (12), pedindo medidas mais eficazes para combater a desinformação.

"Todos os dias vemos que o YouTube é um dos principais vetores de desinformação online no mundo", denunciam esses meios e ONGs com sede em cerca de 40 países, como Estados Unidos (PolitiFact, The Washington Post), Espanha (Maldita.es), Senegal e Quênia (Africa Check).

##RECOMENDA##

"Não vemos muito esforço por parte do YouTube para aplicar políticas que resolvam o problema", dizem os signatários da carta à sua diretora, Susan Wojcicki.

O YouTube respondeu, afirmando que "investiu muito em políticas e produtos (...) para reduzir a disseminação de informação falsa".

"Houve progressos significativos", afirmou a porta-voz do YouTube Elena Hernández, acrescentando que a verificação de fatos é "uma peça de um quebra-cabeça maior para enfrentar a difusão da desinformação".

Os signatários do texto estão preocupados com a "desinformação desenfreada", que se acelerou com a pandemia da Covid-19.

Documentários conspiratórios e vídeos que promovem remédios falsos tiveram milhões de visualizações no YouTube, que, assim como o Google, pertence ao grupo Alphabet.

Os verificadores de fatos continuam preocupados com riscos como a desestabilização política e dizem estar dispostos a "trabalhar com o YouTube para pôr suas propostas em prática". Entre elas, está o combate a falta de transparência no funcionamento do algoritmo, a identificação dos "infratores reincidentes", ou os vídeos que não são em inglês e escapam da vigilância.

O Twitter anunciou nesta terça-feira (17) que está em teste uma ferramenta para permitir aos usuários sinalizar conteúdo suspeito de desinformação, um fenômeno que explodiu durante a pandemia.

“Estamos testando uma função que lhes permite sinalizar tuítes que pareçam enganosos”, informou a rede social em sua conta dedicada à segurança. Alguns usuários nos Estados Unidos, na Coreia do Sul e na Austrália já podem selecionar a opção "é enganoso" após clicar em "reportar o tuíte".

##RECOMENDA##

“Iremos avaliar se esta é uma estratégia eficaz. Começaremos em pequena escala", indicou a empresa, com sede em San Francisco. "Não reagiremos, nem poderemos responder a cada sinalização durante esta experiência, mas as suas contribuições nos ajudarão a identificar tendências, a fim de aumentar a velocidade e escala do nosso trabalho envolvendo a desinformação."

Assim como o Facebook e o YouTube, o Twitter costuma receber críticas por não lutar o suficiente contra a desinformação. Mas o Twitter não tem os mesmos recursos que seus vizinhos do Vale do Silício, portanto experimenta técnicas menos caras do que recrutar exércitos de moderadores.

É quase hora do almoço e no posto de vacinação contra a Covid-19 em Sofia os corredores estão praticamente vazios e alguns visitantes até hesitam. Não faltam doses, mas reina a desinformação na Bulgária, o país menos imunizado da UE.

Em plena quarta onda de Covid-19, apenas 15% dos 6,9 milhões de habitantes receberam o esquema de vacinação completo, muito abaixo da média da União Europeia (UE), com 53,3%, de acordo com uma contagem da AFP baseada em dados oficiais.

##RECOMENDA##

Nas ruas da capital, um aposentado explica que "não confia nas vacinas" desenvolvidas às pressas, enquanto um marceneiro, sorridente, prefere apostar nas propriedades da "rakia" (bebida alcoólica).

"Acho que tudo isso é uma invenção para gerar pânico", diz Gueorgui Dragoev, um operário da construção civil de 45 anos. "Se for verdade que o vírus existe, eu posso vencê-lo".

Desde o início da campanha na Europa, "somos sistematicamente os últimos", lamenta o ministro da Saúde, Stoytcho Katsarov, criticando que alguns búlgaros são muito "receptivos a teorias da conspiração".

As autoridades chegaram a destruir milhares de doses e doaram muitas outras a países como a Bósnia ou o Butão.

A AFP, que estabeleceu em março na Bulgária uma unidade de verificação de informações, dedicou metade de seus artigos ao coronavírus neste período.

Vídeos supostamente mostrando que a vacina contém chips que tornam o braço "magnético" foram compartilhados milhares de vezes no Facebook.

Outros internautas destacam os efeitos colaterais perigosos ou levantam uma suposta mobilização em massa contra o passe de saúde francês, usando imagens de uma multidão comemorando a vitória da França na Copa do Mundo de 2018.

Essas notícias falsas circulam por todo o mundo, mas neste país do Leste Europeu se espalham como um incêndio.

Nesta terra russófila, Nelly Ognyanova, professora da Universidade de Sofia, denuncia a sombra de Moscou, cuja vacina Sputnik V ainda não recebeu a aprovação do regulador europeu.

"Não é segredo que isso é parte de uma guerra híbrida do Kremlin", diz, referindo-se às fábricas de trolls online.

- "Não é uma decisão fácil" -

Da mesma forma, jornalistas e especialistas "têm uma responsabilidade particular pela desconfiança da vacina", diz a analista.

"A imprensa dá a palavra a especialistas" pouco competentes que defendem teses polêmicas. E isso, "em nome do pluralismo", embora, na realidade, "ponham as pessoas em perigo", criticou à AFP.

É preciso dizer que alguns ocupam cargos de prestígio, como Atanas Mangarov, chefe da unidade de covid no hospital de infectologia de Sofia. Durante toda a crise, ele foi desacreditado por rejeitar os benefícios da máscara ou das vacinas, e, em vez disso, defender o descanso ou as infusões para combater o vírus.

Katerina Nikolova, que veio a receber sua segunda dose da vacina Pfizer, diz que ficou "confusa com as opiniões contraditórias na televisão".

"Não é uma decisão fácil", reconhece.

Em meio a essa "confusão", os cidadãos não buscam a verdade das autoridades, de quem "desconfiam", acrescenta Parvan Simeonov, analista do Instituto Gallup.

A baixa taxa de vacinação também é explicada pelo "alto número de infecções", diz ele: ex-pacientes "postergam a injeção" para depois, como aconselham os médicos.

Estudos estimam que 2,5 milhões de pessoas contraíram o vírus, muito mais do que os números oficiais (cerca de 430.000 casos).

No país mais pobre da UE, poucos estão dispostos a se submeter aos testes de diagnóstico, muitas vezes caros.

Aqui não há passe sanitário ou medidas de confinamento. De acordo com Simeonov, os búlgaros só mudarão de atitude se o "medo" aumentar com a Covid-19, que matou cerca de 18.300 pessoas desde o início da pandemia, uma das maiores taxas de mortalidade na Europa.

O Facebook derrubou de suas plataformas uma rede internacional de desinformação sobre vacinas que vinha atuando de forma organizada na Rússia desde novembro de 2020, com intuito de espalhar notícias falsas sobre os imunizantes da AstraZeneca e da Pfizer em regiões específicas do mundo, entre elas o Brasil. As informações foram reveladas nesta terça-feira, 10, no Relatório de Comportamento Inautêntico Coordenado (CIB, na sigla em inglês), documento publicado mensalmente pela empresa.

Ao todo, foram removidas 65 contas do Facebook e 243 contas do Instagram, todas ligadas à empresa de marketing Fazze, com registro no Reino Unido, mas com operações na Rússia. Segundo o relatório da empresa de tecnologia, o público-alvo da campanha de desinformação orquestrada pela Fazze eram usuários da Índia, do Brasil, de outros países da América Latina e, em menor grau, dos Estados Unidos.

##RECOMENDA##

A Fazze foi banida das redes sociais do grupo por violar a política contra interferência estrangeira da plataforma (quando um país tenta manipular o debate público de outra região, por exemplo), algo que, diz o Facebook, se enquadra como "comportamento inautêntico coordenado", que são "esforços coordenados para manipular o debate público para um fim estratégico, onde contas falsas são centrais para a operação".

A campanha de desinformação começou em fóruns populares da internet, como Reddit e Medium, passando para a criação de contas falsas no Facebook e Instagram, onde o conteúdo enganoso seria repercutido nas redes sociais para usuários desavisados. Em seguida, "influenciadores digitais" eram utilizados para amplificar as mentiras, ajudados pela Fazze, que oferecia acesso a essas personalidades com muitos seguidores.

"As operações cada vez mais buscam usar vozes influentes autênticas para transmitir suas mensagens. Por meio delas, as campanhas enganosas ganham acesso ao público-alvo do influenciador, mas isso vem com um risco significativo de exposição", escreve o Facebook no relatório.

De novembro de 2020 a dezembro daquele mesmo ano, as vacinas da AstraZeneca eram alvo dos propagadores de notícias falsas, que diziam que o imunizante transformaria as pessoas em chimpanzés, trazendo imagens do filme Planeta dos Macacos (1968) para supostamente exemplificar o efeito nocivo das doses. Depois de cinco meses de inatividade, explica o Facebook, foi a vez da Pfizer, que supostamente teria maior taxa de mortalidade do que outras vacinas. As hashtags publicadas nas plataformas estavam em hindi, inglês, espanhol e português.

Cerca de 24 mil contas seguiram um ou mais desses perfis de desinformação no Instagram. Para o Facebook, tratou-se de uma operação de notícias falsas de baixo alcance, ou seja, não obteve sucesso, já que gerou pouco engajamento.

Não há informações sobre quem contratou a Fazze para iniciar a campanha de desinformação.

Estudos científicos com metodologias falhas e conclusões imprecisas estão intensificando a crise de desinformação sobre a Covid-19, o que desestimula a vacinação e coloca vidas em risco.

O intenso interesse público pela pandemia e o debate polarizado nos Estados Unidos sobre como abordá-la facilitam a disseminação de trabalhos de pesquisa equivocados na Internet, que fornecem supostos argumentos aos opositores à vacina. Quando o autor de um estudo se retrata, já é tarde demais.

"Assim que o artigo é publicado, o dano é irrevogável", disse Emerson Brooking, principal pesquisador residente do Laboratório de Pesquisa Digital Forense do Atlantic Council, que se especializa na identificação e exposição da desinformação.

As publicações científicas erradas "colocaram lenha na fogueira para os céticos da Covid-19 e os teóricos da conspiração. Com frequência, viralizam na Internet. Suas conclusões também são baseadas em artigos provocativos e enganosos de sites marginais", explicou Brooking à AFP.

A informação errada sobre as vacinas é especialmente perigosa, em um momento em que sua aceitação diminuiu nos Estados Unidos, onde as autoridades de saúde afirmam que quase todas as mortes recentes por Covid-19 ocorrem entre quem não está imunizado.

A revista médica Vaccines publicou um artigo revisado por pares no final de junho chamado "A segurança das vacinas Covid-19: deveríamos repensar a política". O texto concluía que as injeções contra a Covid-19 estavam causando a morte de duas pessoas em cada três que se salvavam. Esta suposta descoberta se espalhou rapidamente pelas redes sociais.

Um tuíte sobre este artigo de Robert Malone - um cientista crítico da vacina contra a Covid-19 - obteve milhares de retuítes. Um vídeo da conservadora Liz Wheeler, que disse que o estudo "vai deixar vocês boquiabertos", foi visto mais de 250.000 vezes no Facebook.

No entanto, a revista Vaccines depois se retratou pelo artigo que havia publicado, dizendo que continha "vários erros que afetam fundamentalmente a interpretação das conclusões".

Ao menos quatro membros do conselho da Vaccines foram demitidos como resultado da publicação desse estudo, incluindo Katie Ewer, professora associada e imunologista principal do Instituto Jenner da Universidade de Oxford.

"Deveriam saber que este documento teria um grande impacto", disse Ewer, que não participou de sua publicação. "O fato de ninguém na revista ter se dado conta disso (...) é muito preocupante, especialmente para uma revista dedicada a vacinas".

O tuíte de Malone sobre este artigo não está mais disponível, mas o vídeo de Wheeler ainda aparecia no Facebook semanas depois.

Algumas das revistas científicas mais importantes, incluindo a The Lancet e a New England Journal of Medicine, se retrataram por artigos relacionados à crise do coronavírus, mas um número, ainda limitado, de estudos imprecisos pode causar grandes danos na Internet.

Cerca de seis em cada dez brasileiros usam o WhatsApp e oito em cada dez têm conta no Facebook. Num país com mais de 200 milhões de habitantes, controlar a enxurrada de conteúdo - e de desinformação - será um desafio para as eleições de 2022. Para a professora e pesquisadora Patrícia Rossini, do Departamento de Comunicação e Mídia da Universidade de Liverpool, apenas a checagem do que é publicado nas redes sociais como tática de combate à desinformação não é o suficiente.

"Cancelar contas da plataforma, tirar do ar quem espalha desinformação, isso me parece - pelo menos foi nos EUA - bastante eficaz. Todas as pessoas que saíram das plataformas perderam muito o alcance", disse Patrícia, que acompanhou as duas últimas eleições presidenciais americanas e seu comportamento nas redes.

##RECOMENDA##

Existem particularidades do Brasil em relação ao consumo e difusão de notícias?

Uma tendência que a gente observa no Brasil é o crescente uso de WhatsApp como fonte de informação. Hoje, no Brasil, Facebook e WhatsApp são usados numa intensidade muito similar para o consumo de notícias, o que é algo bastante particular do Brasil. Eu me pergunto muito o que as pessoas consideram notícia.

Vimos publicações de Donald Trump serem censuradas. É possível uma reação parecida aqui?

Acho que é possível esperar uma reação mais enérgica durante o período eleitoral, em virtude de uma relação preexistente entre o Tribunal Superior Eleitoral e essas empresas. O custo para a democracia, para as instituições e para o próximo processo eleitoral é muito grande. E há o custo de não agir. O custo da inação, em termos de opinião pública, talvez seja mais alto. Ao mesmo tempo, isso não aconteceu ainda fora dos Estados Unidos, uma intervenção mais enérgica das plataformas.

Mas houve alguma mudança a partir da pandemia, não?

Sim. Porque qualquer coisa que você postar que tenha qualquer palavra que eles identifiquem como relacionada à covid, já há alguma informação que te manda o link de órgãos oficiais. Mas, em relação ao discurso político, a tendência dessas plataformas tem sido menos enérgica.

No Twitter, o perfil do deputado Osmar Terra (MDB-RS), por exemplo, divulga desinformação sobre a pandemia do novo coronavírus e a plataforma faz muito pouco para conter.

De maneira geral, as plataformas são muito pouco eficazes no combate à desinformação, e até mesmo na aplicação das próprias regras de moderação fora da língua inglesa. Não há escala nas plataformas para lidar com o volume de desinformação que circula fora da língua inglesa. O Twitter já entendeu que é melhor você tentar coibir o alcance. Tirar recursos como RT (retuíte), reply (resposta dada a um tuíte), eles já entenderam que isso é possível. Não entendo como isso não é feito de forma mais enérgica com usuários com muitos seguidores. Tenho alguma crença de que o que aconteceu nos EUA serviu como um alerta de que é preciso agir mais rápido e, talvez, de forma preventiva. Mas não sei se isso se transferiria para um pleito eleitoral fora dos EUA.

Isso parece preocupante, se pensarmos no volume de usuários do Facebook e do WhatsApp no Brasil.

Se alguém for atuar de forma mais rígida na eleição, imagino que seja o Facebook. O WhatsApp, sei que eles tentam trabalhar de forma próxima a governos e a órgãos de controle, como TSE, e há uma tentativa de identificar mau uso (da plataforma). A questão do WhatsApp acho que é mais complexa. Enquanto o Facebook poderia, preventivamente, dar informação correta sobre as eleições, mandar para o site do TSE, o WhatsApp não tem acesso a esse conteúdo.

Qual a importância desse posicionamento para as eleições no Brasil?

A gente gostaria de acreditar que é importante que você tenha plataformas com combate à desinformação, direcionando pessoas para fontes de informação que são críveis, relevantes e confiáveis. O problema é: é confiável para quem? Porque você pode mandar para o site do TSE, mas a pessoa precisa confiar no TSE. E se ela não confia?

Como lidar com isso?

Se houver um combate um pouco mais contundente, talvez seja possível. Cancelar contas da plataforma, tirar do ar quem espalha desinformação. Porque isso me parece - pelo menos foi nos EUA - ser bastante eficaz. Todas as pessoas que saíram das plataformas perderam muito o alcance. Tanto é que Trump teve uma tentativa de criar o próprio blog e desistiu porque tinha um alcance muito pequeno. No Brasil, é bastante clara a divisão entre quem confia no governo, no presidente e em seus seguidores, que, de propósito, estão seguindo a cartilha de Trump, colocando questionamento sobre a validade das eleições. Se Osmar Terra sair do Twitter, é possível, sim, que isso tenha um efeito maior. Porque essas pessoas caem no esquecimento se elas saem das plataformas.

Por que apenas a checagem de notícias pode não ser suficiente?

É um assunto problemático. As evidências científicas que nós temos mostram que o que a gente tem sobre eficácia de correção, seja correção por algoritmo, filtro, fact checking, são evidências mistas. Porque elas podem funcionar, mas funcionam para algumas pessoas, não para outras. Tem uma pesquisa que a indiana Sumitra Badrinathan fez, tentando mostrar como identificar desinformação no WhatsApp. Um mês depois, ela foi ver se as pessoas tinham aprendido, se eram capazes de identificar, e nada. Não adiantou absolutamente nada ter passado uma hora com uma série de participantes explicando para eles. O que ela encontrou é que, para a população em geral, os resultados não são nem melhores, nem piores. Mas, para as pessoas pró-governo, piorou. Ao longo do tempo, eles se tornaram menos capazes, após a intervenção, de identificar desinformação. É isso, são remédios que funcionam, mas não funcionam para todo mundo.

Tivemos, recentemente, a suspensão da conta do deputado Eduardo Bolsonaro (PSL-SP), mas a decisão foi revista pelo próprio Facebook, que disse ter havido um "equívoco". Falta transparência nas decisões por parte das plataformas?

Sem dúvida. Elas parecem, na maior parte do tempo, arbitrárias. Todas essas empresas, Facebook, Twitter, tendem a ser muito resistentes a agir contra conteúdo político de desinformação. Porque elas não querem ser acusadas de ser enviesadas. Eles sabem que, ao suspender ou banir Eduardo, vai dar muito problema.

Qual o seu maior receio para 2022?

O que me preocupa mais, no caso brasileiro, é para onde os usuários vão. Twitter, Facebook e WhatsApp estão sob escrutínio há algum tempo e, portanto, estão um pouco mais preparadas para lidar com demandas da Justiça Eleitoral. E nisso há a migração para o Telegram. No Telegram, vale tudo. São grupos de até 200 mil pessoas, um número absurdo. Preocupam essas outras plataformas, que poderiam se tornar perigosas nas eleições.

Em depoimento à Comissão Parlamentar de Inquérito da Covid, a médica microbiologista Natalia Pasternak classificou a desinformação com relação a pandemia da covid-19 como algo que possa ter contribuído com o número de mortes pela doença no País.

Mas, segundo ela, não é possível "mensurar quantas pessoas morreram de desinformação".

##RECOMENDA##

Ela criticou a falta de adoção, principalmente do presidente Jair Bolsonaro, do uso de equipamento de proteção, como máscaras, para tentar conter a disseminação do vírus.

Para a microbiologista, quando o presidente aparece sem máscara, cena comum para Bolsonaro em aparições públicas, ele "confunde as pessoas", fazendo com que assumam um "comportamento de risco" ao copiar o exemplo do chefe do Executivo e também dispensar seu uso.

Páginas

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando