O avanço acelerado da inteligência artificial (IA) generativa vem transformando profundamente o cenário democrático, trazendo desafios técnicos, sociais e jurídicos sem precedentes. Com a aproximação das eleições de 2026, a principal preocupação das autoridades brasileiras está na proliferação dos deepfakes, conteúdos hiper-realistas capazes de manipular a percepção do eleitor e comprometer a integridade do processo eleitoral.
Diante desse cenário, instituições como o Supremo Tribunal Federal (STF) e o Tribunal Superior Eleitoral (TSE) passaram a estabelecer novas diretrizes para regulamentar o papel das Big Techs, o uso de ferramentas digitais e a responsabilidade das plataformas no combate à desinformação.
O que são Deepfakes e como funcionam?
Os deepfakes são conteúdos digitais — vídeos, áudios ou imagens — manipulados por algoritmos de inteligência artificial para simular falas, expressões faciais e comportamentos de pessoas reais em situações que nunca aconteceram.
Teccnicamente, essas ferramentas utilizam redes neurais profundas (deep learning) treinadas com grandes volumes de dados, permitindo a criação de materiais extremamente convincentes. Em muitos casos, torna-se difícil distinguir o que é real do que é artificial, tanto para o eleitor comum quanto para órgãos de fiscalização.
Diferentemente das fake news tradicionais, geralmente baseadas em texto, os deepfakes possuem um potencial de dano muito maior, pois:
- Geram forte impacto emocional
- Viralizam rapidamente nas redes sociais
- Podem causar prejuízos irreversíveis à imagem de candidatos
Esse cenário exige uma atuação mais rigorosa das autoridades e das plataformas tecnológicas.
A mudança no marco legal: a responsabilidade das plataformas digitais
Um dos marcos mais relevantes para o setor tecnológico ocorreu em junho de 2025, quando o STF declarou a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet. A decisão alterou significativamente o regime de responsabilização das plataformas digitais no Brasil.
O fim do “porto seguro” das Big Techs
Até então, as plataformas operavam sob o chamado “porto seguro” (safe harbour), sendo responsabilizadas apenas se descumprissem uma ordem judicial específica. Com a nova interpretação, passou a valer um regime mais rigoroso, baseado em três pilares principais:
- Dever de cuidado proativo
As empresas devem agir preventivamente diante de falhas sistêmicas na remoção de conteúdos que envolvam crimes graves, como atos antidemocráticos, terrorismo e incitação à violência. - Presunção de responsabilidade
Há responsabilidade presumida em casos de conteúdos impulsionados por anúncios pagos ou disseminados por redes artificiais, como bots. - Transparência algorítmica
A falta de clareza sobre algoritmos que priorizam engajamento em detrimento da veracidade passou a ser vista como violação aos princípios constitucionais de transparência e informação.
Regulação do TSE para as eleições de 2026
O Tribunal Superior Eleitoral, por meio da Resolução nº 23.732/2024, consolidou normas que devem redefinir as campanhas eleitorais no ambiente digital. Entre as principais diretrizes estão:
- Proibição explícita de deepfakes
É vedado o uso de conteúdos gerados por IA para simular falas ou situações falsas envolvendo candidatos, com o objetivo de enganar o eleitor. - Rotulagem obrigatória de conteúdos com IA
Toda peça de campanha que utilize inteligência artificial deve informar claramente essa condição ao público. - Responsabilização solidária das plataformas
Redes sociais que não removerem rapidamente conteúdos antidemocráticos ou discursos de ódio podem ser responsabilizadas juntamente com os autores. - Combate a sistemas automatizados ilegais
Está proibido o uso de robôs para simular interações humanas, manipular debates ou inflar artificialmente métricas de engajamento.

Principais desafios e riscos para 2026
Apesar dos avanços regulatórios, especialistas apontam vulnerabilidades críticas no cenário eleitoral:
- Incerteza jurídica
As Big Techs recorreram da decisão do STF, solicitando prazos de adaptação que variam entre seis meses e dois anos, o que pode gerar lacunas durante o período eleitoral. - Dependência das redes sociais para informação
Estudos indicam que 72% dos eleitores se informam principalmente pelas redes sociais, enquanto apenas 18% utilizam rádio ou televisão. - Interferência externa e cibercrime
A Agência Brasileira de Inteligência (Abin) alerta para riscos de ataques cibernéticos potencializados por IA e possíveis interferências estrangeiras no processo eleitoral. - Debates técnicos sobre automação
Ainda existe controvérsia na diferenciação entre chatbots legítimos e redes artificiais ilícitas, o que pode gerar conflitos de interpretação.
Conclusão
A integridade das eleições de 2026 dependerá de uma atuação coordenada entre o Poder Judiciário, a sociedade civil e as empresas de tecnologia. Enquanto o STF redefine os limites da responsabilidade civil das plataformas digitais, o TSE reforça seu papel normativo para impedir que a soberania popular seja distorcida por tecnologias maliciosas.
Nesse contexto, a educação digital, a transparência algorítmica e o cumprimento rigoroso das novas normas eleitorais surgem como as principais defesas contra o caos informacional impulsionado pela inteligência artificial.
Perguntas Frequentes sobre Deepfakes e Eleições 2026 (FAQ)
O que acontece se um candidato usar deepfake em sua campanha?
O uso de deepfakes para enganar o eleitor é expressamente proibido pelo TSE e pode resultar em punições severas, incluindo a cassação do registro ou do mandato.
As redes sociais são obrigadas a remover fake news por conta própria?
Segundo a nova tese do STF, as plataformas têm o dever proativo de remover conteúdos que configurem crimes graves e são responsáveis por conteúdos impulsionados ou distribuídos por redes artificiais de bots.
Como identificar se um vídeo de campanha foi criado por IA?
De acordo com as regras do TSE, toda propaganda eleitoral que utilize inteligência artificial deve conter um aviso claro informando o uso dessa tecnologia.
Por que as Big Techs questionam as novas regras?
As empresas alegam que a implementação imediata das novas obrigações técnicas e operacionais é complexa, solicitando prazos maiores para adaptação de seus sistemas de moderação.


