Como a Inteligência Artificial turbina a desinformação?

Publicado em:

Compartilhe este conteúdo!

A palavra do momento é Inteligência Artificial. Enquanto muitos evocam os pontos positivos trazidos por essa tecnologia, principalmente depois do lançamento do ChatGPT e do boom das IAs generativas, alguns pesquisadores e especialistas já se preocupam com o uso dessas ferramentas para impulsionar e reforçar narrativas de desinformação no ambiente online.

Nesta décima e última parte da Trilha sobre desinformação, vamos explicar e trazer exemplos de como as IAs generativas podem turbinar a desinformação, principalmente por meio das deepfakes. 

A Trilha sobre Desinformação é uma parceria da Politize! com o *desinformante. Ao longo da série, investigamos os impactos da desinformação e os caminhos possíveis para combatê-la

O Chatgpt e o boom das IAs generativas

No final de novembro de 2022, uma então pouco conhecida empresa de tecnologia lançou um chatbot (robô de conversa) capaz de conversar com o usuário e gerar textos personalizados e complexos conforme os comandos repassados. 

A empresa em questão era a OpenAI e a funcionalidade o ChatGPT, ambos popularmente conhecidos por iniciar um crescimento exponencial de interesse e de aplicação das Inteligências Artificiais generativas.

Ainda tem dúvidas sobre o que é ChatGPT e IA generativa? Descubra mais informações no vídeo abaixo

A capacidade de criar frases e respostas complexas, como uma receita de bolo ou um poema, está na IA generativa. Ela funciona a partir de um conjunto de tecnologias, como redes neurais, algoritmos e sistemas de aprendizado de máquina, que juntas conseguem processar e produzir uma infinidade de dados.

Para que o sistema entenda como funciona a linguagem humana, os desenvolvedores treinaram a IA com uma base de informações em texto retirada da própria Internet. Feedbacks humanos também são utilizados para melhorar as respostas dadas pelo ChatGPT.

De novembro de 2022 para cá, diversas gigantes da tecnologia também lançaram seus próprios produtos de IA generativa, capazes de gerar não só textos, mas imagens, vídeos e áudio em alta qualidade estética. 

A Meta, por exemplo, lançou o Llama 3 e vem incorporando a tecnologia nas plataformas de redes sociais, como WhatsApp e Instagram. Já o Google também entrou no mercado de IA por meio do Gemini e o mais recente Veo3.

Como as Inteligências Artificiais impactam a desinformação?

O receio que essas tecnologias sejam utilizadas para criar e/ou reforçar narrativas falsas vem aumentando à medida que vêm ganhando adesão do público e sendo disponibilizadas de maneira mais acessível e gratuita. 

Em dezembro de 2023, a Subsecretária-geral de Comunicação Global das Nações Unidas, Melissa Fleming, alertou aos membros do Conselho de Segurança sobre os potenciais riscos trazidos pela tecnologia à integridade da informação. 

De acordo com Fleming, os avanços da IA pioram a propagação de desinformação no ambiente online, pois permitem que “grandes volumes de desinformação convincente, em texto, áudio e vídeo, sejam produzidos em escala, por custos baixos e pouca intervenção humana”.

Abaixo, separamos alguns exemplos de como a IA pode reforçar a desinformação já existente no ambiente online ou criar novos riscos para o ambiente online:

1) Alucinações e o compartilhamento de informações inverídicas

Um dos primeiros pontos levantados por especialistas e interessados no tema de IA foi sobre a veracidade das informações disponibilizadas pelos chatbots inteligentes. 

Isso porque é comum que tais funcionalidades acabem compartilhando com usuários dados inverídicos ou totalmente fictícios, fenômeno também conhecido como “alucinação de IA”. 

Essas respostas vêm sempre em tom de autoridade, o que pode enganar pessoas desavisadas ou que possuem pouca informação sobre o assunto tratado.

H3: 2) Deepfakes e conteúdos sintéticos hiperrealistas

As IAs generativas que criam imagens e vídeos geram conteúdos cuja estética são cada vez mais realistas. As deepfakes do casaco do Papa Francisco ou da prisão falsa de Donald Trump, ambas no primeiro semestre de 2023, são  exemplos do potencial que essas imagens têm de confundir as pessoas, borrando os limites entre ficção e realidade.

Quer saber mais sobre deepfakes? Assista ao vídeo abaixo

Imagens e vídeos sintéticos também são utilizados para impulsionar narrativas falsas, principalmente em situações de crise política, ambiental ou de segurança pública. 

Nas enchentes do Rio Grande do Sul, por exemplo, imagens de IA foram criadas para representar imageticamente boatos e mentiras que circularam nas plataformas. Tais conteúdos buscam polarizar o debate público e semear medo e confusão nos cidadãos.

h3: 3) Uso de IAs generativas para ataques em massa

Como aponta Gary Marcus, cientista e escritor, em um artigo na Scientific American, há um risco que esses chatbots possam ser usados para produção de desinformação em massa devido à capacidade que eles possuem de imitar estilos humanos. 

De acordo com Marcus, testes já indicam que, se solicitado, a ferramenta pode produzir textos no “estilo da desinformação”, criando, por exemplo, sentenças que citam estudos científicos fictícios sobre a ineficiência da vacina de Covid-19.

4) Uso para impulsionar violência política de gênero

A criação de imagens sintéticas profundamente falsas também está sendo usada para reforçar violências com foco em populações historicamente marginalizadas, como mulheres, população negra e LGBTQIAPN+. 

As deepnudes, conteúdos de IA com teor pornográfico, vem ganhando caráter de urgência após mulheres e meninas serem vítimas tanto em contexto escolares como também em eleições.

Nas eleições brasileiras de 2024, candidatas tiveram seus rostos adicionados a conteúdos do tipo em diferentes cidades do país, como a candidata à prefeitura de São Paulo, Tábata Amaral (PSB). A atual deputada federal chegou a ir à Justiça após ter sido vítima de deepnudes durante o pleito eleitoral. 

H2: Como as Inteligências Artificiais foram utilizadas nas eleições?

Em 2024, o mundo viveu o chamado “megaciclo eleitoral”, como chamou o Global Coalition for Tech Justice, com mais de 60 países realizando eleições, inclusive o Brasil. 

Pela primeira vez, os pleitos eleitorais foram realizados com as IAs generativas acessíveis tanto às campanhas dos candidatos, como também aos eleitores, fazendo com que novos usos e conteúdos políticos sintéticos fossem criados e compartilhados nas redes sociais.

Índia como laboratório de deepfakes

No primeiro semestre de 2024, a Índia realizou as suas eleições gerais, sendo considerada a maior eleição do mundo tanto em relação à duração como ao número de votantes: foram 44 dias de votação dividida em sete fases, totalizando 642 milhões de eleitores.

O cenário foi terreno fértil não só para a produção e circulação de técnicas desinformativas já conhecidas, mas também como o uso desenfreado das tecnologias de IA para impulsionar campanhas políticas e criar narrativas falsas.

Uma reportagem do Rest of World, por exemplo, noticiou como políticos falecidos foram “ressuscitados” em vídeos feitos com IA para angariar votos e espalhar mensagens de influência política entre eleitores, principalmente os mais velhos. A estratégia também foi utilizada nas eleições da Indonésia, em fevereiro passado.

O candidato Vijay Vasanth, por exemplo, criou um vídeo do seu próprio pai, o político Vasanth Kumar, figura conhecida na cidade litorânea de Cabo Camorim, morto em 2020 por complicações da Covid-19. No vídeo, Kumar afirmava que, apesar de morto, sua alma permanecia entre os cidadãos. “Eu posso assegurar que meu filho, Vijay, trabalhará pela melhoria de Cabo Camorim e para o progresso das suas crianças”, dizia o político no vídeo sintético.

Às vésperas do início das eleições, em meados de abril, o The New York Times também mostrou como funciona uma agência especializada na criação de deepfakes de políticos, localizada no estado de Rajastão. Com apenas 5 minutos de conteúdo gravado, segundo a reportagem, foi possível criar 20 novos vídeos de saudações personalizadas com o rosto de um candidato.

A personalização da mensagem foi um objetivo  comum nessas eleições. Partidos e políticos utilizaram o ChatGPT e tecnologias de clonagem de voz para criar áudios específicos para eleitores que chegam a eles por meio de ligações telefônicas. Antes mesmo da finalização do processo eleitoral, os indianos já tinham recebido mais de 50 milhões de chamadas de voz criadas com IA, segundo uma matéria da Wired.

E no Brasil?

Em outubro de 2024, eleitores brasileiros foram às urnas escolher vereadores, prefeitos e vice-prefeitos de mais de 5 mil municípios. Reconhecendo o potencial das IAs de impactarem negativamente na integridade eleitoral, no início daquele ano, o Tribunal Superior Eleitoral (TSE) publicou diretrizes para o uso da tecnologia pelos candidatos.

As regras que regeram as eleições de 2024 incluíram:

  • Obrigação do uso de rótulos para indicar conteúdos sintéticos, gerados por inteligência artificial;
  • Restrição do uso de chatbots e avatares criados por IA para a comunicação de campanha;
  • Vedação absoluta das deepfakes.

Com o objetivo de monitorar se as regras foram seguidas ou não pelos candidatos, o Observatório IA nas Eleições mapeou usos de casos de IA generativa para manipulação e criação de conteúdos políticos entre agosto e outubro de 2024. O projeto também considerou peças sintéticas publicadas pelos eleitores com potencial desinformativo.

Outro uso difundido durante essa primeira parte das eleições foram os jingles criados com Inteligência Artificial. Como mostrou o Aos Fatos, esse foi o principal emprego da tecnologia nos anúncios impulsionados por candidatos nas plataformas da Meta. Os pretendentes aos cargos de vereador foram alguns dos que mais se beneficiaram da tecnologia para criar as músicas de campanha.

Segundo o observatório, em relação à desinformação, as peças sintéticas não tiveram grande repercussão, fora em situações pontuais. Mesmo assim, naquele momento, foi possível identificar o potencial desinformativo que deepfakes em vídeo e, principalmente, em áudio, podem ter na corrida eleitoral brasileira.

Apesar do alerta de pesquisadores e organizações da sociedade civil sobre os impactos negativos das IAs no contexto desinformativo, essas tecnologias também estão sendo utilizadas para combater a desinformação ou auxiliar no processo democrático. 

Ainda de acordo com o levantamento realizado pelo Observatório IA nas Eleições, usos de IA para identificar informações falsas nas redes sociais e auxiliar na avaliação de candidaturas e planos políticos também foram aplicados durante as eleições brasileiras de 2024, como projeto GuaIA do Tribunal Regional Eleitoral de Goiás (TRE-GO).

O que podemos esperar para o futuro?

De 2024 para cá, novas tecnologias cada vez mais aperfeiçoadas foram lançadas por gigantes da tecnologia, produzindo conteúdos sintéticos hiper-realistas e esteticamente verossímeis. 

Em paralelo, os próprios usuários, políticos e partidos já estão criando conteúdos e postando nas redes sociais para diversos fins políticos, mostrando que, daqui para frente, assistir um vídeo criado com IA ou receber um áudio sintético falso no WhatsApp será cada vez mais realidade para milhares de brasileiros.

Esse cenário mostra não só como as estratégias desinformativas são adaptáveis e mudam com o tempo, mas também como ações para combatê-las, em suas diversas frentes, serão cada vez mais importantes para termos um ambiente digital e uma democracia mais íntegras, saudáveis e com informações confiáveis. 

O *desinformante é um projeto midiático realizado pelo Aláfia Lab e tem o objetivo de ser um espaço com informações confiáveis sobre desinformação, analisando o impacto do fenômeno desinformativo na sociedade e discutindo formas de combatê-lo. 

Referências 

WhatsApp Icon

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Compartilhe este conteúdo!

ASSINE NOSSO BOLETIM SEMANAL

Seus dados estão protegidos de acordo com a Lei Geral de Proteção de Dados Pessoais (LGPD)

FORTALEÇA A DEMOCRACIA E FIQUE POR DENTRO DE TODOS OS ASSUNTOS SOBRE POLÍTICA!

Conteúdo escrito por:

Nenhum autor relacionado ao post
. Como a Inteligência Artificial turbina a desinformação?. Politize!, 7 de novembro, 2025
Disponível em: https://www.politize.com.br/inteligencia-artificial-desinformacao/.
Acesso em: 7 de nov, 2025.

A Politize! precisa de você. Sua doação será convertida em ações de impacto social positivo para fortalecer a nossa democracia. Seja parte da solução!

Secret Link