Sobre Tiktokum repórter fica na frente de uma caixa de pilares reais tradicionais vermelhos, com bandeiras britânicas vibrando ao fundo e um microfone na mão. Ele pergunta a uma transendendo a quem ela planeja votar nas próximas eleições. “Reforma”, a mulher responde. “Eu só quero me sentir britânico de novo, não.”
Um usuário comenta abaixo: “Gostaria de saber o quanto eles pagaram para dizer isso”.
Mas essa cena nunca aconteceu. A entrevista é totalmente falsa. O repórter não existe – ele foi gerado por inteligência artificial. E se você olhar de perto, há uma pista sutil: uma fraca marca d’água no canto com a palavra “veo”, a assinatura da poderosa ferramenta de geração de vídeo do Google DeepMind.
Este vídeo de 8 segundos não é um caso isolado. De Tiktok a Telegram, o noticiário sintético-vídeos gerados pela IA que imitam a aparência dos segmentos de notícias reais-estão inundando feeds sociais. Eles emprestam a linguagem visual do jornalismo: relatórios de campo, gráficos na tela, entrega autorizada. No entanto, eles geralmente são completamente fabricados, projetados para provocar indignação, manipular a opinião ou simplesmente se tornarem virais.
Hany Farid, professor da Universidade da Califórnia, Berkeley, especializado em forense digital, explica os perigos desses clipes de notícias gerados pela IA em uma entrevista à DW. “Se você está rolando rapidamente nas mídias sociais, parece notícia. Parece notícias”, disse Hany Farid, especialista em forense digital e professor da UC Berkeley, em entrevista à DW. “E esse é o perigo.”
Riscos do mundo real
Muitos vídeos sintéticos embaçam a linha entre sátira e realidade, ou são simplesmente enganosos.
Em outro exemplo(Também é um clipe de 8 segundos), um repórter parece descrever um “comboio militar sem precedentes” se movendo pelo centro de Londres. Ela fica na frente de um tanque enquanto uma multidão olha. No entanto, o vídeo não se refere a nenhum evento, tempo ou contexto específico.
Verificação de fatos DW observou repetidamente como esses clipes ressurgiram durante tempos de crise – como tumultos ou grandes eventos de notícias – reaproveitados para semear confusão ou sugerir falsamente escalações dramáticas.
Durante o último Escalada de conflitos entre Israel e IrãTiktok e outras plataformas foram invadidas com Conteúdo gerado pela IA sobre o incidenteincluindo noticiários falsos que fazem falsas reivindicações-como a Rússia se juntando à guerra, o Irã atacando os EUA ou o Irã abatendo os bombardeiros B-2 usados em greves nas instalações nucleares do Irã.
A DW também observou um aumento nos clipes de notícias sintéticas seguindo o surto de protestos em Los Angelesem junho.
As consequências se estendem muito além da mídia social.
Em 2024, Pesquisadores de Taiwan sinalizaram noticiários gerados pela IA em plataformas locais que acusaram falsamente os políticos pró-soberania de corrupção. Os clipes não apenas espalharam desinformação – eles semearam desconfiança, minando a credibilidade de todos os meios de comunicação antes das eleições do país.
Mas alguns usuários recorrem ao noticiário da IA para paródia ou efeito cômico. Um Tiktok viralmostra uma âncora sintética relatando em frente a um buraco tão profundo que as motocicletas desaparecem nele. Outro tem um avatar declarando“Atualmente, estou na fronteira, mas não há guerra. Mãe, pai, isso parece real – mas é tudo a IA”.
Como identificar um falso noticiário
Então, como você pode dizer o que é real?
Comece com marcas d’água. Ferramentas como Veo, Synthesia e outras frequentemente costumam marcar seus vídeos, embora os rótulos sejam às vezes fracos, cortas ou ignorados. Mesmo clipes claramente marcados são frequentemente inundados com comentários perguntando: “Isso é real?”
Notícias falsos estão entre os conteúdos mais polidos da AI. Porque eles geralmente descrevem ambientes de estúdio de notícias estáticas, brindes típicos da IA - como movimentos desajeitados das mãos ou origens inconsistentes – são mais difíceis de identificar. Mas pistas sutis permanecem.
Observe os olhos e a boca. Avatares sintéticos frequentemente piscam de maneira não natural ou lutam com a sincronização realista dos lábios. Os dentes podem parecer muito suaves ou não naturalmente brilhantes. A forma deles pode até mudar no meio da frase. Gestos e movimentos faciais tendem a ser excessivamente uniformes, sem a variação natural de humanos reais.
O texto também pode ser uma oferta. As legendas ou banners na tela geralmente contêm frases sem sentido ou erros tipográficos. Em um exemplo, uma suposta “notícia de última hora” leia Chyron: “Iriay, Tord para o coteat aiphaiteie, o kit moerily para Molivaty InstUtive in Isey. “ O microfone do repórter foi rotulado como “a informação errada”.
Como Farid explicou, o desafio de detectar o conteúdo sintético é “um problema difícil” – e um alvo em movimento.
“Tudo o que eu lhe digo hoje sobre como detectar a IA Fakes pode não ser relevante em seis meses”, disse ele.
Então, o que você pode fazer?
Fique com fontes confiáveis. “Se você não quer mentir”, disse Farid, “vá a organizações de notícias confiáveis”.
Quão barata a IA está ganhando dinheiro
O conceito de apresentadores de IA não é novo. Em 2018, a agência de notícias Xinhua, estatal da China, apresentou uma âncora de IA robótica e empolgada. Na época, era mais curiosidade do que ameaça.
Mas a tecnologia evoluiu drasticamente. Ferramentas como o VEO agora deixam praticamente qualquer pessoa-sem treinamento de mídia-criar vídeos polidos e de estilo de transmissão por apenas algumas centenas de euros por mês. Os Avatares falam fluidamente, se movem realisticamente e podem ser jogados em quase qualquer cena com alguns avisos digitados.
“A barreira à entrada está praticamente desaparecida”, disse Farid. “Você não precisa de um estúdio. Você nem precisa de fatos.”
A maioria desses clipes é projetada para o máximo engajamento. Eles exploram tópicos altamente polarizadores: imigração, guerra em Gaza, Ucrânia e Donald Trump, para provocar fortes reações emocionais e incentivar o compartilhamento.
As plataformas de mídia social geralmente recompensam esse conteúdo. Meta, por exemplo, recentemente ajustou seu algoritmo Para aparecer mais postagens de contas, os usuários não seguem, facilitando a alcance dos vídeos sintéticos para o público amplo e desavisado. Os programas de monetização incentivam ainda mais os criadores: quanto mais visualizações um vídeo acumula, mais dinheiro ele pode gerar.
Esse ambiente deu origem a uma nova geração de criadores “AI Slop”: usuários que produzem conteúdo sintético de baixa qualidade ligado a tópicos de tendência apenas para obter vistas.
Contas como Este– Com cerca de 44.000 seguidores – geralmente saltam nas últimas notícias antes que os jornalistas possam confirmar os fatos. Durante um acidente de companhia aérea recentedezenas de vídeos Tiktok apresentavam avatares AI vestidos como repórteres da CNN ou da BBC, transmitindo números falsos de vítimas e contas de testemunhas oculares fabricadas. Muitos permaneceram online por horas antes de serem retirados.
Em momentos de notícias de última hora-quando os usuários estão buscando ativamente informações-o conteúdo de IA de aparência realista se torna uma maneira especialmente eficaz de atrair cliques e ganhar atenção do público.
“As plataformas se afastaram da moderação do conteúdo”, disse Farid à DW. “É uma tempestade perfeita: posso gerar o conteúdo, posso distribuí -lo e há público disposto a acreditar”.
Joscha Weber contribuiu para este artigo
Editado por: Tetyana Klug, Rachel Baig



