Em
março de 2026, o Tribunal Superior Eleitoral (TSE) aprovou a Resolução 23.755,
atualizando as regras da propaganda eleitoral. O registro é extenso,
tecnicamente cuidadoso em vários pontos e representa avanços reais em relação
ao que existia antes: proíbe os ‘campeonatos de cortes’;
regulamenta chatbots como fonte de informação eleitoral; veda
a criação de ‘deep nudes’ (imagens/vídeos falsos com IA) contra
candidatos, entre outros fatores.
Até
aqui, tudo bem.
O
problema é o que o TSE deixou de lado.
O
regulador eleitoral parece ter se enraizado no estágio das GenIA’s
(inteligência artificial generativa) de 2022, em um momento que a sociedade
foi sacudida pelo ChatGPT, com seus primeiros deepfakes convincentes
e a possibilidade de produzir imagens e vozes com alguma fidelidade; ou seja,
vídeos manipulados, áudios falsos e imagens sintéticas em escala.
No
entanto, entre 2022 e 2026, a tecnologia deu um salto.
Ondas sucessivas transformaram o fluxo de trabalho da propaganda, inclusive
em âmbito eleitoral. Vivemos o paradigma da ‘Agentic AI’, com
ferramentas de automação capazes de raciocinar, planejar e executar tarefas
de forma encadeada. Só que a Resolução do TSE não acompanhou essas ondas.
Vale
percorrer o que fica de fora. Uma campanha pode hoje criar ‘personas
virtuais’, ou seja, perfis com histórico, personalidade e padrão de
linguagem definidos por IA e operá-las em grupos abertos de WhatsApp,
participando de conversas, disseminando enquadramentos e criando a percepção de
consenso onde não existe. Não há impulsionamento pago, não há conteúdo
sintético audiovisual, não há nada que a resolução consiga nomear como ilícito,
já que a persona não simula ser o candidato ou falar em seu nome.
Uma
campanha pode produzir, com ferramentas generativas, centenas de variações de
um mesmo conteúdo (textos, imagens, memes) e distribuí-los gratuitamente para
grupos de apoiadores, que os replicam de forma orgânica. Além disso, as
operações podem usar as IA’s para automatizar integralmente a gestão de
seus impulsionamentos, ajustando segmentações, redistribuindo verba entre
estratégias em função de performance em tempo real, tudo sem o envolvimento
humano.
Da
mesma forma, a gestão de listas de transmissão, grupos e comunidades de
WhatsApp com ferramentas de automação que personalizam mensagens, segmentam
públicos e disparam alertas em momentos calculados não foram considerados
pela Resolução 23.755.
E,
numa ironia que vale registrar: uma campanha pode usar
IA para elaborar os próprios materiais de prestação de contas exigidos pela
Justiça Eleitoral, incluindo a declaração de que não usou IA de forma
irregular. Interessante, não é? A norma que exige transparência
sobre o uso da tecnologia não diz nada sobre o uso da tecnologia para cumprir
essa exigência.
O
que une todos esses casos é um equívoco de enquadramento que atravessa toda a
resolução. O TSE tratou o conteúdo gerado por IA como o problema
em si, como se a tecnologia fosse intrinsecamente suspeita e o risco residisse
no conteúdo produzido. Essa visão tem duas consequências práticas que se
reforçam mutuamente.
A
primeira é que a fiscalização se torna inviável.
Funcionalidades de IA estão hoje embutidas em qualquer ferramenta de criação
digital, como o Canva, Photoshop ou o autocomplete do celular. Definir
onde começa e termina o "conteúdo gerado por IA" é uma minúcia
técnica que gera insegurança jurídica. Exigir rotulagem universal é, na
prática, não exigir nada. Isso abre espaço para que qualquer produção seja
contestada judicialmente, numa litigância estratégica
A
segunda consequência é que a resolução deixa de lado o papel de buscar
equalizar a disputa, reduzindo o poder de quem tem mais
recursos. Quem tem maior capacidade de contratar serviços, profissionais e
plataformas que façam a automação de relacionamento em escala,
‘microssegmentação’ comportamental, operação coordenada em ambientes fechados
ou gestão algorítmica de campanhas, tem um diferencial relevante em relação a
quem não o tem.
Regulou-se
o que é visível e fotogênico. Deixou de regular o que é invisível e eficaz.
Uma
regulação mais ‘madura’ deslocaria o foco do artefato para o processo. Em vez
de perguntar "esse conteúdo foi gerado por IA?", questionaria
"esse uso de IA interfere no equilíbrio do pleito?". Isso abre
um conjunto diferente de questões, para além do "esse conteúdo
sintético pode enganar as pessoas?"
As
eleições de outubro vão acontecer sob um marco normativo muito similar ao que
regulou a IA nas eleições de 2024, e que foi muito influenciado sobre os casos
mais visíveis de 2022. Enquanto isso, os profissionais de campanhas usarão a IA
em seu “padrão 2026”. Essa distância gera inequidades e favorecimentos, e o TSE
não conseguiu endereçá-los nesse pleito.

Comentários
Postar um comentário