Em 2023, quando surgiram as primeiras imagens falsas criadas por inteligência artificial, como o Papa vestido de rapper ou Donald Trump sendo preso em plena rua, o mundo riu, mas também se alertou: estávamos entrando em uma era em que a mentira pode ser perfeitamente encenada por algoritmos.
Dois anos depois, isso deixou de ser previsão. Agora é método.
A política brasileira acaba de oficializar esse novo modo de fazer campanha: vídeos emocionais, roteiros fictícios, personagens gerados por IA e discursos moldados para reforçar uma narrativa antiga — ricos contra pobres, elite contra povo, centrão contra esquerda, e vice-versa.
Política por prompt
Partidos brasileiros já deram início à pré-campanha de 2026 com vídeos produzidos por inteligência artificial. Os conteúdos são sintéticos, gerados por empresas contratadas, e buscam provocar indignação emocional em torno de diversos temas.
Estamos falando de teatro político gerado por código. E o povo percebe, mas é justamente por parecer um “inocente desenho animado” que a mensagem cola. A forma é leve, simples, acessível e quase lúdica. Mas o conteúdo carrega estratégias sofisticadas de manipulação de massas.
São personagens simpáticos, situações cotidianas, narrativas emocionais… Tudo roteirizado por inteligência artificial para provocar revolta e engajamento.
A IA como roteirista da manipulação
É aqui que mora o risco. A política sempre usou emoção. Sempre contou histórias. Mas essas histórias partiam de vivências humanas, de erros e acertos de pessoas reais.
Quando entregamos esse papel à inteligência artificial, sem deixar isso claro ao eleitor, estamos cruzando uma linha perigosa: a da manipulação emocional em escala industrial.
E o mais grave: essa prática está sendo usada deliberadamente para alimentar conflitos institucionais, acirrar polarizações e antecipar campanhas fora do calendário legal.
Não é tecnologia a serviço da democracia. É tecnologia a serviço do controle narrativo.
O futuro da campanha não pode ser falso
Como membro do CAMP, o Clube Associativo dos Profissionais de Marketing Político, sei o quanto a entidade luta nos bastidores para proteger a integridade do processo eleitoral. Por meio da participação em audiências públicas no TSE, fomos a única entidade a pedir expressamente a proibição das deepfakes nas eleições.
Fomos ouvidos.
A decisão do Tribunal Superior Eleitoral, em 27 de fevereiro de 2024, que proibiu qualquer uso de deepfake nas campanhas eleitorais, foi histórica. Como disse nosso presidente, Bruno Hoffmann:
“Essa vedação expressa é crucial. Não podemos dar margem, ou autorizar, mesmo com advertência, algo que tenha ‘fake’ no nome”.**
Mas o que está acontecendo agora, com os vídeos produzidos por IA, não é apenas deepfake visual. É deepfake emocional. É a tentativa de produzir engajamento baseado em simulações: sem aviso, sem transparência, sem humanidade.
Política não é um produto e o eleitor não é algoritmo
Algoritmos não sentem. Não têm senso de justiça nem responsabilidade moral. Podem simular lágrimas, mas não sentem indignação. Podem construir uma narrativa perfeita, mas jamais terão biografia.
Quando entregamos à IA a tarefa de construir personagens políticos, matamos a autenticidade. Transformamos a política em produto, e o eleitor, em consumidor manipulado.
E pior: abrimos espaço para que os verdadeiros autores das campanhas desapareçam. Quem comanda os prompts? Quem define o tom? Quem responde por um conteúdo viral e destrutivo gerado em segundos?
IAí? Precisamos de limites claros
A inteligência artificial tem papel legítimo na política: pode organizar dados, acelerar processos internos, otimizar fluxos de atendimento. Mas, quando ela substitui o humano no coração do discurso, não é mais ferramenta. É disfarce.
Campanhas políticas precisam ser feitas por pessoas. Com emoção real, responsabilidade real, consequência real.
Quando um partido usa IA para gerar narrativas fictícias em massa, sem rotular, sem avisar, sem distinguir o que é real do que é simulado, ele não está informando. Está manipulando.
O eleitor merece saber quem está falando com ele
A regulamentação da inteligência artificial na política não é censura; é um ato de defesa da democracia. Transparência é o mínimo que se exige de quem quer representar o povo.
Se o vídeo foi gerado por IA, que isso fique claro. Se a voz foi simulada, que isso seja avisado. Se a cena é fictícia, que não se passe por real.
Sem esse compromisso mínimo com a verdade, o que se institucionaliza não é só uma nova linguagem, é uma nova forma de manipulação. Uma estratégia que se esconde atrás da tecnologia para induzir emoção, moldar opinião e capturar o voto com base em distorções.
Regulamentar a IA é garantir que o debate político continue sendo feito entre pessoas de verdade: com responsabilidade, limites e consequências.
Conclusão: o risco não está na IA mas no uso político e emocional sem limites
O que estamos vendo não é inovação democrática. É uma forma renovada de manipulação: narrativas simplificadas, roteiros distorcidos e emoções programadas. E o mais grave: tudo isso feito por máquina: sem aviso, sem transparência, sem limites.
Por isso, regulamentar a inteligência artificial não é um capricho técnico. É uma urgência democrática.
O TSE já deu um passo importante ao proibir deepfakes nas eleições de 2024. Agora, é hora de avançar. As regras para as eleições de 2026 ainda estão sendo escritas. E mais do que resoluções eleitorais, o Brasil precisa de uma legislação permanente que trate da inteligência artificial no ambiente político como uma questão de segurança institucional e proteção da soberania democrática.
E que fique claro: não estamos falando em regular redes sociais ou punir plataformas por postagens de usuários, sem decisão judicial ou por pressão política. O ponto aqui é outro: trata-se de vídeos manipulados por inteligência artificial, com autoria, intenção e finalidade político-eleitoral. Conteúdos que não surgem espontaneamente. São pensados, roteirizados, produzidos para manipular a opinião pública e isso exige responsabilização.
Não podemos continuar lidando com esse desafio apenas a cada dois anos, com ajustes pontuais. É hora de o Legislativo assumir seu papel histórico e criar um marco legal robusto que traga clareza, limite e responsabilidade ao uso da IA na política. A democracia exige regras para proteger o que ela tem de mais valioso: a confiança pública.
(*) LINCOLN XAVIER é estrategista em marketing político, com experiência comprovada em mandatos e eleições. Instagram: @linkdolincoln
(**) Fonte: Comunicado oficial do Clube Associativo dos Profissionais de Marketing Político (CAMP), publicado em 27 de fevereiro de 2024, após decisão do TSE sobre o uso de deepfakes nas eleições municipais.
Os artigos assinados são de responsabilidade dos autores e não refletem necessariamente a opinião do site de notícias www.hnt.com.br
Clique aqui e faça parte no nosso grupo para receber as últimas do HiperNoticias.
Clique aqui e faça parte do nosso grupo no Telegram.
Siga-nos no TWITTER ; INSTAGRAM e FACEBOOK e acompanhe as notícias em primeira mão.