
Ouça este conteúdo
O sistema eleitoral brasileiro prepara-se para enfrentar, em 2026, um de seus maiores desafios tecnológicos: a consolidação da Inteligência Artificial (IA) generativa como ferramenta de campanha. Se, por um lado, a tecnologia promete otimizar a comunicação política e o engajamento nas eleições, por outro, ela carrega riscos sistêmicos que podem comprometer a integridade do voto e o livre exercício da democracia.
O risco mais imediato e visível é a proliferação de deepfakes – conteúdos em áudio, vídeo ou imagem gerados por IA que mimetizam pessoas reais com precisão perturbadora. Essas ferramentas permitem a criação de declarações falsas de candidatos, capazes de influenciar a opinião pública de forma irreversível antes mesmo que qualquer desmentido seja eficaz. A técnica do deep learning torna essas manipulações cada vez mais difíceis de detectar pelo eleitor comum, criando um ambiente de desconfiança generalizada em que a própria noção de “fato” é colocada em xeque.
Além das deepfakes, o uso de algoritmos para o impulsionamento de conteúdo permite um nível de segmentação (microdirecionamento) que pode isolar eleitores em “bolhas digitais” ou “câmaras de eco”. Nesses espaços, o eleitor recebe apenas informações que reforçam seus preconceitos, sendo bombardeado por suposições e mensagens opinativas massificadas que limitam sua autodeterminação e capacidade de diálogo. O uso de bots durante as eleições para simular apoio popular e o disparo em massa de desinformação amplificam esse efeito, distorcendo a percepção da realidade política.
Diante desse cenário, o Tribunal Superior Eleitoral (TSE) tem agido para estabelecer balizadores éticos e legais. A Resolução 23.732/2024 já delineou regras importantes para o uso da IA na propaganda, como a obrigatoriedade de rotulagem de conteúdos gerados artificialmente e a proibição estrita de deepfakes que visem prejudicar candidaturas.
Recentemente, tribunais regionais também avançaram na regulamentação da governança interna dessas soluções, enfatizando o uso ético e transparente de modelos de larga escala (LLMs). No entanto, a velocidade da inovação tecnológica muitas vezes supera a capacidade de resposta legislativa, deixando lacunas que exigem uma vigilância constante das instituições.
A integridade das eleições de 2026 dependerá de um equilíbrio delicado entre a liberdade de expressão e a proteção do processo democrático. A solução para os riscos da IA não é meramente técnica, mas multifatorial: envolve a educação midiática do eleitor, a responsabilização rigorosa de partidos e plataformas e uma atuação célere do Judiciário como garantidor das “regras do jogo”. O objetivo final é assegurar que a tecnologia sirva para ampliar o debate, e não para silenciá-lo sob o peso de algoritmos e falsidades sintéticas.
Fernando Schumak Melo é advogado, professor, jornalista e cientista político.



