2026: a primeira eleição presidencial da era pós-vergonha
Cobertura eleitoral será marcada pela inteligência artificial generativa acelerando a produção de desinformação em um ecossistema em que o imediato e o espetacular importam mais do que a verdade
A era da pós-verdade acabou quando Donald Trump tomou posse em seu segundo mandato na presidência dos Estados Unidos, aplaudido por todos os líderes das big techs, que financiaram sua eleição. Naquele dia, 20 de janeiro de 2025, começou a era da pós-vergonha.
Quando a verdade factual foi vencida pelos números do que mais engaja nas redes, um líder antivacina se tornou o equivalente ao ministro da Saúde dos EUA e os bilionários da tecnologia trataram de eliminar suas iniciativas de diversidade, inclusão e moderação de conteúdo. Mais ainda, esses mesmos bilionários inauguraram uma corrida para inundar o ambiente de informação com opiniões convenientes e tornar o acesso à informação o máximo possível mediado por máquinas de encher linguística. Tempos estranhos já estão aí.
No Brasil, tivemos relativo espaço para respirar desde as eleições de 2022, ou pelo menos desde o 8 de janeiro seguinte. Mas, nas eleições de 2026, equipes reduzidas e mal financiadas de repórteres terão de cobrir a primeira eleição presidencial da era da pós-vergonha.
Uma das coisas que mais bagunçaram o ambiente de informação na última década foi o fato de que a mentira era manufaturada e distribuída com as ferramentas de direcionamento das redes sociais. A distinção entre o que é fato e o que é mentira foi bagunçada, porque os mentirosos passaram a poder disparar desinformação de acordo com o perfil dos alvos desejados. “Pós-verdade” foi escolhida pelo dicionário Oxford como a palavra do ano em 2016, depois da primeira eleição de Trump.
Em 30 de novembro de 2022, um mês depois da última eleição presidencial brasileira, a base tecnológica “tradicional” da pós-verdade ficou obsoleta quando entraram no mercado as “máquinas de encher linguística”, o ChatGPT e correlatos. Vieram com uma interface muito simples, que qualquer criança poderia usar – uma caixinha perguntando “o que você quer saber?” Enganosamente, os geradores de lero-lero apresentavam-se como buscadores. E assim foram adotados entusiasticamente, potencializando a mentira e afirmações descuidadas dos fatos em escala hiperindustrial.
Derivados da tradução, os grandes modelos de linguagem (LLMs) são treinados com um banco de dados glutão, que se alimentou de tudo o que saiu na internet por um par de décadas – inclusive spam e as postagens em redes sociais que atribuíam a Caio Fernando Abreu e Clarice Lispector qualquer frase açucarada que alguém inventasse. Aliás, recentemente, pedi por curiosidade ao ChatGPT três frases do escritor gaúcho e ele me trouxe uma de Clarice, uma de Mario Quintana e uma do Renato Russo.
Os LLMs são impressionantes como modelos estatísticos de linguagem; seu papel é gerar frases prováveis, não necessariamente factuais. Sendo “máquinas de encher linguística”, eles calculam a chance de que uma palavra venha após outra num universo de frases existentes filtrado pela pergunta feita. Palavras não são fatos; por mais que fatos sejam descritos em palavras, nem os fatos se resumem às palavras e nem as palavras descrevem só fatos. Desde Saussure, no começo do século passado, os linguistas sabem que a correspondência entre significante e significado não se valida no que é dito, mas na cabeça de quem ouve ou lê. É dessa falta de distinção que surge a maior parte dos problemas no uso dessas ferramentas.
Facílimas de usar, essas ferramentas têm o tom autoconfiante de um homem branco de meia-idade jogando conversa fora numa mesa de bar (tenho lugar de fala). Ainda assim, advogados as usam para gerar petições; estudantes, para fazer seus trabalhos; trabalhadores, para dar ilusão de produtividade ao chefe; jornalistas, para caçar clique. Muitos quebraram a cara, como o anônimo que fez a lista das vilãs inexistentes de novela para a Exame ou o comentarista esportivo da SportTV que inventou partidas inexistentes ao vivo. Mas muito mais gente, especialmente em altos postos hierárquicos, segue na esperança de logo poder terceirizar tudo à máquina e talvez poder fazer jornalismo sem jornalistas.
Poucas ocasiões atraem tanto esse tipo de esperança quanto uma eleição, em que é preciso resumir documentos longos como programas de governo e encontrar ligações ocultas entre doadores em bases de dados imensas, de preferência com velocidade.
Como eu não tenho credenciais para ser negacionista da tecnologia, venho testando as ferramentas de inteligência artificial disponíveis para ver o que é possível usar em quê. Até agora, porém, tenho achado a utilidade delas bastante limitada. Sendo probabilísticas, dificilmente dão oito respostas iguais à mesma pergunta feita dez vezes e você não tem como prever onde vai discrepar dos fatos. Essa foi a melhor taxa de acerto que tive ao tentar usar duas ferramentas de IA diferentes para classificar milhares de cláusulas contratuais em tipificações específicas (uma tarefa de linguagem). Um mesmo texto repetido não era classificado de maneira idêntica em todas as vezes pela mesma ferramenta. Agora: revisando por amostragem, a chance de achar que está tudo certo é alta. Se revisar e corrigir tudo, levará mais tempo do que levaria ao fazer de jeitos tradicionais. É o que um pesquisador do Direito chamou de “paradoxo valor-verificação” no uso da IA.
Uma das bases da pós-vergonha, porém, é que não importa se está tudo certo ou não. O que importa é o efeito imediato, e quanto mais imediato ou espetacular, melhor. Isso cabe perfeitamente na definição de “bullshit” feita por Harry G. Frankfurt no seu clássico livrinho traduzido no Brasil como “Sobre Falar Merda”: a “bullshit” é pior do que a mentira, porque a mentira pelo menos se importa com a verdade para dizer o oposto. Uma “bullshit” lançada no debate público pode até de vez em quando corresponder aos fatos, mas isso é acidente; o que importa é que o autor da afirmação causou o efeito desejado por ele. Não devia ser necessário dizer que isso é o oposto do que se espera do jornalismo, mas por via das dúvidas deixo dito.
A gororoba cuspida pelos aplicativos de inteligência artificial, o chamado “slop”, já ultrapassou em volume tudo o que é feito por gente. No próximo ano, isso deve se acelerar. Especialmente em termos de imagens espetaculares, e espero que aqui no Brasil não tenhamos aviões despejando diarreia na cabeça das pessoas. Aspirantes a golpistas já têm acesso a cursinhos que ensinam o “prompt certeiro” para fazer o doutor Drauzio Varella, uma das vozes de maior credibilidade no Brasil, vender qualquer garrafada a quem cair no golpe. Um ano eleitoral traz demandas muito além da comercial para que isso ocorra.
As redações, porém, encontram-se de várias maneiras fragilizadas para cobrir melhor a era da pós-vergonha. Uma das principais fragilidades é o regime de caça-clique que colonizou a internet na era da pós-verdade. O preço pago por mil visualizações de anúncios programáticos caiu tanto, junto com o alcance de links publicados em redes sociais, que as publicações passaram a ver a necessidade de multiplicar o número de notícias que produzem para tentar manter a receita. Jornalismo declaratório sempre houve, mas as redes sociais criaram uma abundância de declarações e memes e fotos e vídeos. As empresas criaram setoristas especializados em pescar para noticiar declarações ou vídeos absurdos que “bombaram nas redes”. A dependência foi tanta que, quando o X foi suspenso no Brasil, em 2024, foram mobilizados correspondentes no exterior para reportar o declaratório de lá.
Esse ambiente de caça ao clique gerou, na eleição de 2024, candidatos que davam declarações especificamente visando bombar nas redes sociais, contratando inclusive gente para fazer “cortes”, multiplicando ainda mais os absurdos. Um infame candidato xingou uma jornalista no ar para depois se desculpar no intervalo dizendo que era “apenas para os cortes”. A repórter teve a gentileza de não reagir com a cadeira, mas outros não tiveram.
Hoje, é cada vez mais barato campanhas usarem abertamente ou às escondidas aplicações de inteligência artificial para gerar múltiplas versões segmentadas de uma mensagem, necessitando de dinheiro para direcionar. Essas aplicações também podem gerar vídeos bastante convincentes e em quantidade, que dará trabalho checar e desmentir. Com mais gente usando “máquinas de encher linguística” como buscadores (que eles não são), pesquisadores alertam para a possibilidade de direcionamento da opinião pública. Com mais buscadores mesmo resumindo resultados por IA, com todos os problemas já detectados disso, o risco iminente é o do “Google Zero”, ou o virtual fechamento da torneira da audiência de busca, hoje principal canal do qual todas as publicações com presença digital dependem.
Os bucaneiros do ambiente de atenção seguem à solta e se candidatarão cada vez mais. Outros não se candidatarão, mas atuarão em seus canais personalistas, como vêm atuando. Ainda outros bucaneiros seguirão anônimos, espalhando gororoba pela internet. Se a imprensa não aprendeu de que maneira cobri-los sem amplificá-los na era da pós-verdade, não sei se conseguirá fazê-lo na era da pós-vergonha, quando ela própria, a imprensa, corre desesperadamente atrás dos mesmíssimos cliques.
Para tentar ter alguma chance de virar esse jogo, é preciso ter uma compreensão muito sólida do que a publicação quer representar. E é fundamental buscar apoio e legitimidade num grupo pequeno, mas crescente de leitores fiéis, uma comunidade com quem se tem relação direta. Com isso, fica menos tenso encarar os grandes números de tráfego casual vindo das big techs como uma miragem em grande parte descomprometida com o que a publicação representa. Uma miragem com a qual não é possível contar para pensar onde se quer chegar, porque as big techs abrem e fecham a torneira como e quando preferirem. E, hoje, o que elas preferem é a gororoba dos geradores de lero-lero, que muitas vezes quer mais clique do que futuro.
Resta desejar a todos um feliz Natal, muito descanso nas férias ou recesso, caso tenham, e serenidade e paciência no novo ano que virá com voracidade.
Este texto faz parte da série O Jornalismo no Brasil em 2026. A opinião dos autores não necessariamente representa a opinião da Abraji ou do Farol Jornalismo.




