Acontece no Digital
A linha sensível entre Tecnologia e Manipulação: O uso da IA em Depoimentos, Publicidade e Política

Por Rodrigo Neves – Presidente da AnaMid e CEO da VitaminaWeb
Nos últimos meses, temos assistido a uma aceleração radical no uso da inteligência artificial para produzir vídeos e áudios com rostos, vozes e entonações humanas quase indistinguíveis da realidade. Em um primeiro momento, parece mágica. Mas, sob uma análise mais cuidadosa, o que vemos é uma transformação profunda — e perigosa — da forma como construímos credibilidade e confiança.
Estamos falando de depoimentos criados por IA com rostos conhecidos que nunca disseram o que vemos na tela. De campanhas publicitárias com influenciadores que nunca aprovaram o script. De discursos políticos gerados por algoritmos. Tudo com aparência legítima. Tudo tecnicamente possível. Mas será que é ético? Será que é verdadeiro?
A Simulação da Verdade
A inteligência artificial generativa alcançou um nível de sofisticação que permite criar falas fictícias com expressões emocionais reais. A IA é capaz de analisar um banco de dados de vídeos, replicar padrões vocais, identificar gestos característicos e, com isso, gerar conteúdos que parecem autênticos. Mas não são.
Esse avanço levanta uma questão fundamental: quando a IA fala por alguém, de quem é a responsabilidade pelo que está sendo dito?
A tecnologia pode simular emoções, mas não pode gerar intenção. Pode produzir uma fala, mas não uma crença real. E quando entramos nos campos da política, da publicidade e da opinião pública, isso se torna perigoso. Porque o público acredita no que vê. E, muitas vezes, compartilha antes mesmo de questionar.
Do Marketing à Manipulação
O marketing sempre trabalhou com construção de narrativas, mas agora o jogo mudou. Não estamos mais falando apenas de roteiros criativos ou atores interpretando papéis. Estamos falando de usar a identidade de uma pessoa — sua imagem, sua voz e sua credibilidade — para afirmar algo que ela, talvez, nunca endossaria.
Em uma campanha publicitária, isso pode induzir o consumidor ao erro. Em uma campanha política, pode manipular votos. Em um vídeo de “depoimento espontâneo”, pode simular apoio onde não existe. Estamos cruzando a linha entre persuasão legítima e manipulação estrutural de percepção.
E os vieses?
Outro ponto crítico é a forma como essas tecnologias são treinadas. Modelos de IA aprendem com bancos de dados massivos — muitas vezes repletos de distorções culturais, sociais e raciais. Quando usamos essas IAs para gerar conteúdo emocionalmente carregado, há um grande risco de reforçar preconceitos, estigmatizar grupos ou mesmo manipular de forma enviesada a narrativa que está sendo construída.
Mais uma vez: não é a IA em si o problema. É o uso que se faz dela sem transparência, sem contexto e sem responsabilidade.
Quem regula o que é real?
A pergunta que fica é: como o público poderá saber se o que está assistindo é real ou fabricado? A resposta, hoje, é assustadora: não poderá — a não ser que existam regras claras, selos de transparência e regulamentação ética sobre esse tipo de produção.
No contexto do ecossistema digital, onde todos somos consumidores e emissores de conteúdo, isso é especialmente grave. Uma sociedade que não sabe mais diferenciar o que é autêntico do que é sintético entra em colapso de confiança. E, quando a confiança se esgota, as relações — com marcas, pessoas, instituições e ideias — se tornam frágeis e descartáveis.
O caminho da responsabilidade
Como presidente da AnaMid e CEO da VitaminaWeb, vejo a urgência de um movimento coordenado entre mercado, associações e reguladores. Algumas medidas que considero fundamentais:
- Identificação obrigatória de conteúdos gerados por IA, com selos visuais ou metadados rastreáveis;
- Consentimento expresso e documentado do uso de imagem, voz e fala, inclusive em versões sintéticas;
- Ética aplicada à criação de campanhas, com revisão crítica sobre a veracidade e transparência das mensagens;
- Educação digital para o público, capacitando pessoas a identificar deepfakes e simulações.
A IA pode — e deve — continuar evoluindo. Ela pode ser uma aliada poderosa na comunicação, na automação e na criatividade. Mas não podemos deixar que se torne uma máquina de fabricar verdades paralelas.
Porque a tecnologia, sozinha, não tem propósito. Quem dá propósito a ela somos nós. E isso exige consciência.
Rodrigo Neves
CEO da VitaminaWeb
Presidente Nacional da AnaMid