IA, GEO e AEO em ano eleitoral: quem define a verdade quando a resposta vem da máquina?
Em anos eleitorais, a disputa por narrativa se intensifica. Informações circulam com velocidade, versões se multiplicam e a polarização torna mais difícil identificar consensos mínimos. Eu acompanho de perto como a inteligência artificial vem assumindo um papel central como mediadora da informação.
Hoje, milhões de pessoas já usam sistemas generativos para esclarecer dúvidas sobre candidatos, políticas públicas, histórico de governos e temas sensíveis. A promessa é simples: respostas rápidas, organizadas e baseadas em fatos. Mas existe uma questão que poucos estão fazendo.
Se as IAs são programadas para responder com base na verdade, como elas definem o que é verdadeiro?
A inteligência artificial não possui consciência nem julgamento moral. Ela não conhece a verdade de forma absoluta. O que ela faz é identificar padrões em grandes volumes de dados. Analisa recorrência, coerência, reputação de fontes e validação cruzada. O que chamamos de verdade, nesse ambiente, é na prática um consenso estatístico entre fontes consideradas confiáveis.
Consenso algorítmico não é sinônimo de verdade.
Em ambientes politicamente polarizados, isso fica ainda mais evidente. Cada grupo reconhece veículos diferentes como legítimos. O que para alguns é jornalismo sério, para outros é propaganda. A IA não escolhe lados intencionalmente, mas opera com critérios técnicos baseados em histórico de autoridade, consistência editorial e validação por múltiplas fontes.
Esse é um ponto sensível. A inteligência artificial reflete o ecossistema informacional que encontra. Se esse ecossistema é fragmentado, enviesado ou desequilibrado, as respostas também tendem a carregar essas distorções.
É nesse cenário que entram conceitos como Generative Engine Optimization e Answer Engine Optimization. GEO e AEO são estratégias voltadas à organização de conteúdo para que ele seja compreendido e utilizado por sistemas generativos. Elas trabalham a construção de entidades digitais claras, com arquitetura semântica bem definida e presença editorial recorrente.
A pergunta que sempre surge é direta: dá para controlar a narrativa política usando GEO e AEO?
Tecnicamente, é possível estruturar conteúdo político com alta qualidade semântica, documentação consistente e organização avançada, aumentando a probabilidade de esse material ser considerado relevante por sistemas de IA. Campanhas, partidos e instituições podem investir em presença digital estruturada para ampliar visibilidade em respostas automatizadas.
Mas isso não significa controle absoluto.
Modelos de linguagem avaliam múltiplos sinais ao mesmo tempo. Uma única fonte, por mais otimizada que esteja, dificilmente altera o panorama se não houver validação externa consistente. Autoridade digital não nasce de um site bem feito. Ela surge da recorrência, da coerência temática e da confirmação pública distribuída ao longo do tempo.
GEO e AEO não criam verdade. Eles organizam informação para que seja compreendida pelas máquinas. A narrativa só ganha força quando existe sustentação externa.
Isso muda completamente a lógica da disputa política.
Não se trata mais apenas de convencer pessoas. Trata-se também de estruturar entidades digitais capazes de serem reconhecidas por sistemas automatizados. A batalha pela atenção passa a acontecer em uma camada técnica invisível para a maioria dos eleitores.
Em anos eleitorais, a produção de conteúdo explode. Mas nem todo conteúdo tem densidade suficiente para virar referência algorítmica. Falta estrutura semântica, faltam dados organizados, falta validação cruzada. A maioria das publicações simplesmente não entra no radar da IA.
Por outro lado, conteúdos bem documentados, com narrativa consistente e presença editorial recorrente tendem a ganhar peso. Não porque a IA esteja escolhendo um lado político, mas porque está privilegiando entidades digitais mais robustas.
Isso nos leva a outra pergunta incômoda: quem define quais fontes são confiáveis?
A resposta é desconfortável. Não existe um comitê central da verdade. Sistemas de IA utilizam critérios como reputação histórica, citações recorrentes, reconhecimento público e ausência de padrões claros de desinformação. Esses critérios são técnicos, dinâmicos e evoluem conforme o ecossistema muda.
Em contextos de polarização extrema, qualquer decisão algorítmica pode ser interpretada como viés.
Por isso, acredito que o uso de GEO e AEO em ambiente político exige responsabilidade. Não se trata apenas de visibilidade, mas de impacto democrático. Estruturar autoridade digital precisa estar baseado em transparência, documentação e coerência.
Tentativas de manipulação artificial tendem a falhar quando não existe validação externa real.
A inteligência artificial amplifica sinais existentes. Se o ecossistema informacional é frágil, a IA reflete essa fragilidade. Se é bem estruturado e validado, tende a produzir respostas mais consistentes.
No fim, GEO e AEO oferecem ferramentas poderosas para organizar informação e fortalecer entidades digitais. Não criam fatos, mas influenciam quais fatos ganham destaque.
Em um ano eleitoral marcado por polarização, a mediação algorítmica adiciona uma nova camada à disputa por narrativa. A tecnologia não substitui o debate democrático, mas redefine o caminho pelo qual informações chegam às pessoas.
E é aqui que deixo a pergunta que realmente me incomoda:
se a inteligência artificial responde com base nas fontes que considera confiáveis, e se essas fontes são definidas por critérios técnicos e consensos estatísticos, quem está estruturando hoje as entidades que a IA vai tratar como verdade amanhã?





