O Debate Pré-eleitoral No Brasil e as ações dos envolvidos
Apesar do seu reconhecido impacto, o fato de que as fake news fundamentalmente subvertem a democracia, e principalmente processos eleitorais, é ainda alvo de controvérsias. Estudos mostraram, por exemplo, que foi a televisão a fonte dominante de aquisição de informação política no caso das eleições norte-americanas. Por outro lado, isso não necessariamente significa que a desinformação não tenha pautado o debate nos meios de comunicação de massas.
No período pré-eleitoral brasileiro, as discussões sobre o impacto das fake news no âmbito internacional chegaram à imprensa brasileira e ao Congresso Nacional e serviram de disparadores para a apresentação de uma série de novos projetos de lei buscando limitar a expressão on-line, seguindo tendência de pouca atenção aos princípios internacionais de liberdade de expressão.
Isso se refletiu em desconfiança da opinião pública em relação às notícias recebidas on-line. Segundo o Relatório sobre Notícias Digitais do Instituto Reuters de 2018, a confiança nas notícias no Brasil é alta em comparação com outros países, 59%. Já a confiança nas notícias encontradas em mídias sociais é inferior, de 32%. Ele mostrou ainda que 85% das pessoas entrevistadas manifestavam preocupação com o que é real ou falso nas notícias on-line. A mesma pesquisa, divulgada antes do início da campanha eleitoral, evidenciou que 35% dos entrevistados afirmavam já terem sido expostos a notícias completamente inventadas para fins políticos ou comerciais. Alguns dos fatores que podem ter colaborado para esse cenário são, além da presença da temática nos meios de comunicação de massas, a situação de polarização da opinião pública e a instabilidade política que afeta o país nos últimos anos.
A situação tem gerado uma queda de confiança nas instituições de modo geral, que afetou particularmente a grande mídia (incluindo provedores de conteúdos e plataformas). Os motivos apontados pelas pessoas entrevistadas para o ceticismo em relação aos veículos de comunicação foram o foco dessas empresas em atrair maior audiência, a priorização da velocidade em detrimento da qualidade na publicação de notícias e a politização e a divulgação de conteúdos ideológicos e não informativos.
Ações do setor público
O escândalo sobre o acesso de dados de milhões de usuários do Facebook para a empresa especializada em publicidade eleitoral Cambridge Analytica – e sua possível influência no plebiscito que definiu a saída do Reino Unido da União Europeia e nas eleições dos Estados Unidos – aumentou as preocupações sobre a possibilidade de manipulação da opinião pública durante as eleições brasileiras.
Em 7 de dezembro de 2017 foi criado um Conselho Consultivo sobre Internet e Eleições pelo Tribunal Superior Eleitoral (TSE), dedicado a realizar estudos e pesquisas sobre as regras eleitorais e a influência da Internet nas eleições e propor ações para o aperfeiçoamento das normas sobre o tema. Preocupava o TSE o risco das fake news e do uso de robôs para a disseminação de informações.
Entre os temas discutidos pelo Conselho estiveram a criação de campanhas de conscientização sobre fake news, a elaboração de manuais para orientar juízes nas decisões sobre remoção de conteúdos e a criação de uma ambiente virtual para o recebimento de denúncias. Durante as discussões houve participação das plataformas de Internet que apresentaram suas estratégias para o combate às notícias falsas durante as eleições.1 O diretor da Divisão de Crimes Cibernéticos do FBI também foi ouvido em uma das reuniões sobre a estratégia adotada na área nos Estados Unidos.
Foram promovidos dois seminários e um workshop com o tema “Internet e eleições” logo após a criação do Conselho e, em junho, foi realizado ainda um seminário internacional com apoio da União Europeia sobre o tema “Fake News: Experiências e Desafios”, com a participação de especialistas nacionais e internacionais e de diversos membros da Justiça Eleitoral.
Houve uma série de críticas à atuação do Conselho ainda no período pré-eleitoral. Sua composição gerou críticas de diferentes grupos da sociedade civil, dada a participação de um general do Centro de Defesa Cibernética do Departamento de Ciência e Tecnologia do Exército Brasileiro e do Diretor-Adjunto da Agência Brasileira de Inteligência (ABIN) e a presença de poucas organizações que vinham estudando e analisando este tema. A participação destes órgãos denotava uma ênfase na perseguição de usuários de Internet por meio de técnicas de vigilância e a possibilidade de censura de discursos legítimos foi denunciada por diversas organizações.
Uma vez iniciados os trabalhos, integrantes apontaram dificuldades em avançar nas discussões e opinaram que o TSE não estaria preparado para atuar nas eleições. Além disso, foi identificada uma tendência do órgão em priorizar o diálogo com a Polícia Federal, Exército e ABIN na tentativa de buscar meios de combater as fake news. Segundo informações divulgadas na imprensa, a ABIN teria apresentado uma proposta de monitoramento de dados de navegação (metadados) em redes sociais, mas não houve acordo entre os demais integrantes sobre a ação.
O Sigilo das Atas do Conselho Consultivo sobre Internet e Eleições
Uma preocupação em relação ao trabalho do conselho foi a decisão, anunciada no final de junho de 2018, de colocar as atas de suas reuniões em sigilo. A Artigo 19 se manifestou por meio de nota pública argumentando que “todas as informações relativas a essas iniciativas jamais deveriam ser consideradas sigilosas haja vista o inegável interesse público que permeia a questão”. Se eventuais remédios contra os danos da desinformação passam pelo fortalecimento da esfera pública de debate, pela transparência das informações e pela intensificação de políticas de acesso à informação, é de se estranhar que a discussão sobre o processo de desinformação não seja acessível ao público. Sabendo da proposição da ABIN de “monitorar preventivamente” usuários de Internet sob a justificativa de combate às fake news é importante alertar para o risco da combinação entre sigilo das informações e vigilância massiva e ilegal que o tratamento errôneo desta questão por parte do poder público pode desencadear.
Ainda antes do início do período de campanha eleitoral, o TSE determinou a retirada de conteúdos falsos sobre a candidata Marina Silva do Facebook. A decisão deu 48 horas para a remoção de cinco postagens de fake news e solicitou os dados pessoais dos criadores e administradores do perfil responsável pela publicação. Em sua argumentação, o ministro Sérgio Banhos afirmou que a garantia constitucional ao direito à liberdade de expressão não se estende a sua manifestação anônima, como no caso em questão. Foi a primeira vez em que foi aplicada a Resolução 23.551/2017 do TSE, que detalha as regras para a propaganda eleitoral e identifica as condutas consideradas ilícitas na campanha, como a divulgação de conteúdos sabidamente inverídicos.
O TSE propôs ainda um acordo de cooperação com os partidos políticos, no qual eles se comprometiam a manter um ambiente eleitoral “imune de disseminação de notícias falsas”. Do total de 35 partidos em atividade no país, 28 haviam assinado o documento até o início de julho. O Tribunal firmou também uma parceria com o Clube Associativo dos Profissionais de Marketing Político (Camp) e memorandos de entendimento com entidades representativas do setor de comunicação e as empresas Google e Facebook sobre o tema.
No Legislativo, foram diversas as tentativas de regular o tema das notícias falsas. Em março, o Conselho de Comunicação Social criou uma comissão específica para estudar os projetos de lei sobre notícias falsas. Foram analisadas 14 propostas, 13 da Câmara dos Deputados e uma do Senado e um parecer foi apresentado em junho. O texto incluiu uma breve análise dos projetos e concluiu que a solução da questão das fake news não passa apenas pela criminalização da prática ou a responsabilização das plataformas de Internet, como muitos dos projetos analisados propõe.
Projetos de lei sobre fake news analisados:
PL 6812/2017
PL 7604/2017
PL 8592/2017
PL 9532/2018
PL 9533/2018
PL 9554/2018
PL 9626/2018
PL 9647/2018
PL 9761/2018
PL 9838/2018
PL 9884/2018
PL 9973/2018
PLS 473
O documento apontou que as propostas não dão conta da complexidade do fenômeno e sugere a continuidade dos debates, com participação da sociedade. Finalmente, sugeriu que as futuras leis considerem:
* a necessidade de uma definição clara e bem delimitada do conceito de fake news;
Ações das empresas de Internet
As empresas de Internet, principalmente após as denúncias sobre a atuação da Cambrige Analytica, foram cobradas pelo poder público e sociedade civil para tomar medidas em relação à disseminação de desinformação e a proteção dos dados dos eleitores e eleitoras. Segundo informações divulgadas pelo Facebook, dados de 443 mil usuários brasileiros haviam sido compartilhados com a Cambridge Analytica, colocando o Brasil entre os dez países mais afetados, junto com Estados Unidos, Filipinas, Indonésia e Reino Unido. Antes do escândalo, a empresa havia anunciado que prestaria serviços no Brasil durante as eleições.
Sobre as plataformas havia a pressão de uma série de propostas legislativas que buscavam responsabilizá-las caso não retirassem conteúdos de terceiros considerados ilícitos ou ofensivos – flexibilizando a garantia dada pelo Marco Civil da Internet. Além disso, a revisão da Lei Eleitoral, por meio da Lei 13.488/2017, introduziu novas regras publicidade via Internet, tendo proibido a propaganda paga, com exceção do “impulsionamento” de conteúdos nas redes sociais e outras plataformas. Estava permitida, ainda, a publicidade em blogs, sites e páginas de redes sociais com conteúdos produzidos pelo candidato ou candidata ou pelo partido/coligação. Outras regras incluíram a proibição de veiculação de propaganda em determinadas páginas (pessoas jurídicas com ou sem fins lucrativos e órgãos públicos) e a proibição da venda de cadastros de e-mails. Também foi permitida a contratação de ferramentas de busca para a priorização de resultados, como por meio do serviço Google AdWords.
A cartilha “Propaganda Eleitoral na Internet”, publicada em junho pelo TSE, menciona explicitamente estas plataformas ao exemplificar no que consistiria o impulsionamento. “Com a nova redação dada ao art. 57-C da Lei nº 9.504/1997, a propaganda eleitoral na Internet passa a ser permitida durante o período eleitoral quando for utilizada com o único objetivo de impulsionar o alcance de publicações, como no Facebook e no Instagram. Esse impulsionamento deve ser contratado diretamente por meio das plataformas de mídias sociais”. O serviço do google também é explicitamente mencionado na cartilha do TSE: “fica liberado o uso de mídia paga para impulsionar essas publicações em mídias sociais e também para garantir posições de destaque nas páginas de respostas dos grandes buscadores, como o Google, por meio de anúncios contratados no Google AdWords”. Durante o primeiro turno das eleições o TSE definiu que somente candidatos ou candidatas poderiam impulsionar conteúdos nas redes sociais, por meio do CNPJ da campanha. A decisão respondeu a uma representação da coligação de Geraldo Alckmin (PSDB) contra Jair Bolsonaro (PSL) e determinou a retirada do conteúdo impulsionado por um empresário em favor do presidenciável do PSL, sob pena de multa.
A mudança que permitiu o impulsionamento gerou críticas de acadêmicos e sociedade civil, uma vez que a lei beneficiou algumas empresas que permitem aos usuários pagar para aumentar a visibilidade de seus conteúdos na venda de propaganda eleitoral.
A atuação das principais empresas de mídias sociais em resposta às pressões internacionais e nacionais sobre seu papel na disseminação da desinformação e manipulação da opinião pública em períodos eleitorais ocorreu em várias frentes. O Facebook desenvolveu estratégias para a checagem de conteúdos falsos em parceria com agências especializadas na checagem de fatos. Entre outras funcionalidades, o programa, que já havia sido implementado em outros países, inclui a marcação de conteúdos identificados como falsos e a notificação de usuários os que compartilharam. A consequência que causou maior polêmica é que esses conteúdos são também menos distribuídos e têm sua visibilidade reduzida. Sobre a questão da desinformação, a empresa anunciou, ainda, o apoio a algumas iniciativas de caráter educativo e ao projeto Comprova, que reuniu jornalistas de diferentes veículos para verificar notícias durante o período eleitoral.
Além disso, empresa já havia adotado algumas medidas de transparência como resposta às revelações sobre o uso de dados de seus usuários pela Cambridge Analytica. Uma delas foi uma ferramenta que permite aos usuários visualizar todos os anúncios que uma página no Facebook ou Instagram está veiculando. Com isso, é possível saber se um mesmo candidato está direcionando mensagens distintas para diferentes públicos. Outra medida foi a divulgação das informações sobre as pessoas que pagaram por anúncios relacionados a política.
O Facebook tomou medidas, ainda, (os anúncios podem ser acessados aqui: Protegendo as eleições; botão de contexto; supressão de votos e interferência em eleições) para remover usuários, páginas e conteúdos que promoviam a desinformação. A primeira ação ocorreu em julho e resultou na remoção de uma rede que envolvia 196 páginas e 87 perfis que, segundo a empresa, “se ocultava com o uso de contas falsas”, violando os Termos de Uso da plataforma, que determinam a necessidade de uso de uma identidade real. O argumento foi o de que elas formavam uma “rede coordenada (…) e escondia das pessoas a natureza e a origem de seu conteúdo com o propósito de gerar divisão e espalhar desinformação”. Anunciando um trabalho permanente de fiscalização e monitoramento de usuários, o comunicado chama estes “violadores” das políticas de “mal-intencionados” que promovem “conteúdo ruim” pela plataforma. Também revela que a empresa contava com mais de 20.000 pessoas ao redor do mundo para identificar tais comportamentos, além do uso de machine learning e inteligência artificial nas investigações.
No mesmo dia, vários veículos noticiaram que a ação atingia muitos membros do Movimento Brasil Livre (MBL), o que se confirmou por um tweet na conta oficial da organização. A medida gerou reações do Poder Judiciário, mídia, sociedade civil e políticos que observaram a atitude do Facebook como censura e violação à liberdade de expressão. No dia 27 de julho, o MBL entrou com um Mandado de Injunção (remédio presente no artigo 5º, inciso LXXI da Carta Magna a ser concedida “sempre que a falta total ou parcial de norma regulamentadora torne inviável o exercício dos direitos e liberdades constitucionais”), pedindo que o Presidente da República publicasse uma norma reguladora para estabelecer os parâmetros nos quais conteúdos poderiam ser removidos das plataformas online. Baseando-se no artigo 5º da Constituição e nos artigos 3º e 8º do Marco Civil da Internet, a ação usa do argumento da liberdade de expressão enquanto direito fundamental como defesa contra a “alteração e/ou remoção de usuários – páginas e perfis – ou de conteúdos em geral das plataformas denominadas redes sociais sem que haja prévio aviso aos atingidos e sem que seja observado o devido processo legal, garantidos os direitos ao contraditório e à ampla defesa”. Por fim, a ação pede que a norma a ser editada preveja uma notificação prévia ao responsável pelo conteúdo e sanções às empresas que não observarem tal norma. O ministro Alexandre Moraes negou seguimento ao mandado no dia 22 de Agosto, argumentando “que o impetrante deixa de demonstrar a titularidade de direito constitucional ou prerrogativas inerentes à nacionalidade, à soberania ou à cidadania, cujo exercício esteja sendo inviabilizado em virtude de ausência de norma regulamentadora”.
Em agosto, novamente a empresa anunciou a remoção de outros 74 grupos, 57 contas e 5 páginas por violarem a política de identidade real e spam. De acordo com o anúncio, a rede permitia e encorajava “a obtenção de seguidores e curtidas, e até a troca de Páginas, com o objetivo de falsamente ampliar o engajamento em busca de ganho financeiro”. No dia 27 o Ministério Público Federal em Goiás entrou com uma representação na Procuradoria Geral da República em desfavor do Facebook, WhatsApp, Twitter e Youtube acusando as plataformas de “graves violações do direito humano à comunicação, especialmente contra a liberdade de manifestação de pensamento, expressão intelectual, artística, científica e de informação de brasileiros usuários da rede mundial internet”. A representação argumenta que as plataformas estariam “prejudicando a regularidade do processo político-eleitoral em curso no Brasil, contra a ordem soberana nacional, a cidadania brasileira, o pluralismo político, fundamentos do Estado Democrático de Direito, ao teor do artigo 1º, caput e incisos I, II e V, da Constituição da República”.
Assentando sua argumentação na liberdade de expressão e manifestação do pensamento e no direito humano à comunicação, a representação acusa as plataformas de estarem “impondo censura, bloqueios de acesso, banindo de usuários brasileiros, por motivações discriminatórias, o que caracteriza grave violação ao ordenamento jurídico brasileiro”. Ainda segundo o documento o argumento de combate à “supostas fake news” resultara na “imposição de restrição de alcance orgânico, censura, bloqueio de acesso e banimento de usuários, numa verdadeira espiral de silêncio (…) que ofendem intensamente a Constituição Federal e a legislação brasileira”. Valendo-se da neutralidade da rede (art.19 do Marco Civil da Internet), o MPF cita a não responsabilização das plataformas por conteúdos de terceiros para argumentar que ela “proíbe que os provedores de aplicações realizem diretamente controle relativamente ao conteúdo publicado por terceiros, à medida que condiciona a sua indisponibilidade ao cumprimento de ordem judicial específica”. A lembrança da defesa da neutralidade da rede é importante, pois é ela que garante que o poder econômico ou interesse comercial se sobreponha à liberdade de expressão e à busca da informação.
No dia 22 de agosto, após o início da campanha eleitoral, foi anunciada a remoção de mais páginas e grupos caracterizados como de “comportamento inautêntico e coordenado” do Facebook e Instagram, desta vez em uma ação de impacto global não relacionada diretamente com o contexto brasileiro. Segundo o anúncio, as atividades tinham origem na Rússia e Irã e miravam usuários no Oriente Médio, América Latina, Reino Unido e Estados Unidos. Em setembro, a empresa anunciou novas medidas para proteger as eleições, que incluíam a remoção de perfis falsos, páginas redirecionadas destinadas a assuntos diversos que foram redirecionadas para uso político, aplicativos que estimulavam o “voto virtual” e “santinhos digitais” com números falsos de candidatos que concorriam às eleições.
Novas contas e páginas foram removidas na semana anterior ao segundo turno das eleições. A ação, anunciada no dia 22 de outubro, envolveu 68 páginas e 43 perfis que, segundo o Facebook, violavam suas políticas de identidade real e spam. No texto, a empresa afirmou que tem observado “spammers usando cada vez mais conteúdo sensacionalista político – em todos os espectros ideológicos – para construir uma audiência e direcionar tráfego para seus sites fora do Facebook, ganhando dinheiro cada vez que uma pessoa visita esses sites”.
A ausência de transparência, do devido processo legal e de um mecanismo de controle participativo e plural tornam os bloqueios e retiradas de conteúdos potencialmente danosos à liberdade de expressão. Em consequência disso, as plataformas provedoras de serviços acabam sendo constantes alvos de crítica vindas de todos os pontos do espectro político e de organizações de defesa dos direitos humanos, que vêm argumentando pela adoção dos padrões e recomendações internacionais como baliza para suas políticas de conteúdo seus termos de serviços. O relatório “#Fake News: innocuous or intolerable?”, fruto de um encontro promovido pela agencia Britânica Wilton Park aponta que para além do combate ao incentivo econômico à desinformação, há a questão da “falta de transparência acerca de como as plataformas tecnológicas trabalham”, como por exemplo o conhecimento sobre a decisão de seus algoritmos.
O Twitter anunciou em agosto as ações relacionadas às eleições no Brasil. Elas incluíram a verificação de contas de candidatos e partidos, a criação de um canal exclusivo para o diálogo com autoridades eleitorais, o apoio a campanhas informativas da Justiça Eleitoral e a iniciativas de educação digital promovidas por outras entidades e a melhoria de sua tecnologia de combate ao spam e a robôs “maliciosos”. A empresa já vinha anunciando medidas nessa área, incluindo a redução da visibilidade de perfis suspeitos automação maliciosa – que passam por um teste como a inserção de um número de telefone para voltarem a operar normalmente –, mudanças no cadastro de novos usuários, auditorias em contas existentes e o uso de inteligência artificial para a detecção do que denominam “comportamentos mal-intencionados”. A plataforma não permitiu a promoção de propaganda política durante as eleições.
O Google anunciou poucas medidas voltadas especificamente para o período eleitoral. As principais foram o apoio ao Projeto Comprova e o pacote de ferramentas Voto Informado, que incluiu um site especial que concentrava informações sobre cada candidato ou candidata e a disponibilização de “painéis do conhecimento” nas buscas, com um resumo das informações dos candidatos. A empresa estabeleceu ainda uma parceria com o TSE para disponibilizar informações confiáveis sobre o processo de votação.
A ação mais importante anunciada pelo Google em resposta aos debates sobre desinformação foi a revisão de seus algoritmos para “colocar mais ênfase em resultados confiáveis no lugar de fatores como novidade ou relevância”, que ocorreu ainda em 2017 e até março deste ano continuava disponível apenas nos Estados Unidos (A empresa anunciou ainda a promoção de iniciativas de pesquisa e checagem e de formação para a mídia como estratégias de combate à desinformação e o Brasil é citado como um dos países onde o Google realiza esse tipo de formação). Ainda no ano passado, a empresa tinha lançado um sistema de “selos” para identificar notícias verificadas por agências de checagem e ofereceu um curso sobre checagem no Brasil.
Em uma iniciativa mais ampla voltada para a produção jornalística, também foram lançadas medidas focadas na distribuição de notícias no YouTube que buscam contextualizar as informações dentro da plataforma. Sem fazer uma relação direta com a possibilidade de compra de anúncios durante a campanha eleitoral, o Google disponibilizou novas funcionalidades relacionadas à publicidade, que permitem aos usuários saber por que uma propaganda está sendo exibida.
Ações da imprensa tradicional e agências de checagem
Frente a queda na sua credibilidade (e no caso dos jornais e revistas impressos, do seu mercado) e as preocupações com a desinformação, os veículos de comunicação tradicionais têm buscado reivindicar para si o papel de promotores do jornalismo de qualidade. A questão é controversa e a postura gerou críticas por parte da sociedade civil, uma vez que, por mais que o jornalismo profissional possua técnicas de verificação dos fatos e adote um código de ética que implica em certos cuidados com a divulgação de informações, a imprensa tradicional nunca esteve isenta de erros ou parcialidade.
Ainda assim, nestas eleições, muitos assumiram o papel de checagem das notícias que circulavam pela rede com suas próprias iniciativas. Entre eles estiveram o Estadão Verifica, do grupo Estado, o Fato ou Fake, do conglomerado Globo, e o Folha Informações, do grupo Folha. Utilizando diferentes metodologias, os projetos checaram tanto informações que circulavam em redes sociais, enviadas ou não por leitores, quanto declarações dos candidatos e candidatas às eleições.
Outra novidade entre os esforços dos meios tradicionais por combater a desinformação foi o Projeto Comprova, que reuniu 24 veículos de comunicação num esforço coordenado e colaborativo visando “enfraquecer as sofisticadas técnicas de manipulação e disseminação de conteúdo enganoso que vemos surgir ao redor do mundo”. O projeto foi idealizado e desenvolvido pelo First Draft – coalizão internacional que atua no combate à desinformação – e o Centro Shorenstein de Mídia, Política e Políticas Públicas da Universidade de Harvard, em parceria com a Associação Brasileira de Jornalismo Investigativo (Abraji), o Instituto para o Desenvolvimento do Jornalismo (Projor), o Projeto de Jornalismo do Facebook e a Iniciativa de Notícias do Google – que foram responsáveis pelo financiamento da iniciativa.
O foco do Comprova foi a checagem de informações que circularam on-line durante as eleições e não de declarações públicas de políticos, candidatos e candidatas ou outras autoridades. No total foram publicadas 146 checagens de informações disseminadas via redes sociais e aplicativos de mensagens, dessas 92% se mostrou falsa.
Como em eleições anteriores, houve a atuação, ainda, das chamadas agências de checagem. A checagem de informações é parte integrante da prática jornalística desde o século passado. Em alguns casos, as redações de jornais ou revistas tinham uma equipe específica dedicada a essa atividade. Com o avanço dos meios digitais, tornou-se comum a criação de iniciativas exclusivamente dedicadas à checagem. No Brasil, o site E-Farsas, dedicado à verificação de boatos espalhados pela Internet, orgulha-se de dizer que combate notícias falsas desde 2002.
Mais recentemente, popularizaram-se iniciativas de jornalismo investigativo dedicadas à verificação da veracidade das declarações de figuras públicas, inclusive em períodos eleitorais. No Brasil, agências especializadas em checagem de fatos se disseminaram a partir de 2015, com a criação da Lupa e da Aos Fatos. Experiências anteriores ocorreram nas eleições de 2010, com os projetos “Mentirômetro” e Promessômetro da Folha de S. Paulo e 2014, com os projetos “Preto no Branco”, do jornal O Globo, e “Truco”, da Agência Pública, que atua desde então, tendo também verificado discursos públicos nas eleições de 2016 e 2018.
As agências de checagem se tornaram mais centrais nas eleições deste ano por conta dos escândalos relacionados à disseminação de notícias falsas no processo eleitoral estadunidense em 2016. Com isso, assumiram também a missão de verificar conteúdos que circulavam pela Internet. A parceria com grandes plataformas de mídias sociais, como Google e Facebook, as colocou no centro das atenções e polêmicas, uma vez que suas análises poderiam determinar a visibilidade ou não de uma notícia on-line.
Episódios de equívocos nas checagens no período pré-eleitoral contribuíram para o aumento das críticas ao papel dessas agências em definir o que seria ou não verdadeiro. Um exemplo foi o caso do envio de um terço do Papa Francisco para o ex-presidente Lula. A notícia, que já estava sendo amplamente compartilhada nas redes, foi classificada como falsa por duas agências de checagem com base em notícias oficiais publicadas pelo Vaticano. No entanto, no dia seguinte à verificação, novos fatos revelados pelo Vaticano e pessoas envolvidas no episódio evidenciaram que a situação não era tão exata quanto parecia e uma das agências retificou a informação publicada anteriormente. O problema é que por conta da checagem inicial, as notícias sobre o fato teve sua visibilidade reduzida no Facebook e as pessoas que as compartilharam foram notificados de que o conteúdo era falso, comprometendo a credibilidade dos veículos que a publicaram.
1Segundo documentou o jornal O Estado de S. Paulo, as atas das reuniões do Conselho Consultivo foram classificadas como “reservadas” e não foram disponibilizadas para acesso via Lei de Acesso à Informação. Ver <https://politica.estadao.com.br/blogs/estadao-verifica/tse-coloca-sigilo-em-atas-de-reunioes-sobre-fake-news-e-eleicoes/>. Acesso em nov. 2018.