Um clipe de áudioque afirma ser de Vice -presidente JD Vance criticando Elon Musk tornou -se viral nas mídias sociais, levando o diretor de comunicações da Vance a afirmar que a gravação não é real. O clipe não menciona Musk pelo nome, mas inclui frases como “Ele é da África do Sul” e “Ele quer cair a economia e seus carros”, o que sugere que se refere a Musk, que nasceu na África do Sul e possui Tesla.
Vice -presidente Vance imediatamente se distanciou do áudio em xdizer a voz no clipe não era dele, mas Ai-Gerado. Ele escreveu: “Não estou surpreso que esse cara não tenha inteligência para reconhecer esse fato, mas me pergunto se ele tem a integridade de excluí -lo agora que ele sabe que é falso”. Ele alertou para tomar medidas legais contra o usuário que a publicou, se não foi removido, acrescentando: “Caso contrário, será um caso de difamação”. O clipe ainda estava online quando este artigo foi escrito em 26 de março.
Verificação de fatos DW e Ard-Faktenfinder investigou a autenticidade do clipe. Aqui está o que encontramos.
Alegar: No áudio viral, supostamente de Vance criticando Musk, uma voz pode ser ouvida dizendo: “Tudo o que ele está fazendo é ser criticado na mídia, e ele diz que está ajudando, mas não é. Ele está nos fazendo parecer mal. Ele está me fazendo parecer ruim (…), mas ele nem é americano. Ele é da África do Sul”.
Veredicto: Provavelmente falso.
A maioria das investigação indica que o áudio é gerado pela IA
A gravação de áudio é de baixa qualidade, com ruído significativo e pausas perceptíveis, que são sinais potenciais de manipulação. “A qualidade de áudio incomumente baixa, um truque comum para ocultar evidências de manipulação ou síntese, é altamente suspeita”, disse Hany Farid, especialista em forenses digitais da UC Berkeley School of Information.
Elon Musk, o proprietário do X (anteriormente Twitter), não ocupa uma posição oficial no governo Trump. No entanto, ele chefita o recém-formado Departamento de Eficiência do Governo da Agência (DOGE)nomeado após sua moeda de meme de criptomoeda favorita, que supervisiona potenciais cortes no orçamento do governo dos EUA.
Musk enfrentou críticas e protestos da mídia, principalmente por seus laços políticos. O movimento “Tesla Takadown” levou a manifestações nas concessionárias da Tesla e a vários atos de vandalismo. O estoque de Tesla tem caiu significativamente nos últimos meses.
O áudio não é claro em muitos pontos, e o termo “África do Sul” não é claramente audível. A equipe de verificação de fatos da DW ouviu isso várias vezes e acredita que soa em algum lugar entre “África do Sul” e “América do Sul”. No entanto, as legendas dizem “África do Sul”, que podem influenciar as percepções dos espectadores.
Especialistas enfatizam que a verificação de uma gravação de áudio requer mais do que apenas análises técnicas. Também envolve avaliação lingüística e contextual, especialmente quando os números de alto perfil estão implicados. Isso inclui analisar padrões de fala e pausas.
“A cadência e a entonação não são consistentes com os padrões típicos de fala do vice -presidente Vance”, diz Farid. Ele conduziu uma análise forense detalhada a pedido da DW, acompanhou a gravação de maior qualidade disponível, verificou-a com Getal bome concluiu que, “com base em nossa revisão, acreditamos que o áudio provavelmente é inautêntico”.
A DW Fact Check e o Ard-Faktenfinder descobriram que a versão mais antiga do clipe foi publicada em Tiktok em 23 de março. Em um dos clipes iniciais, o nome de Vance foi incorreto como “Vence”. Esses tipos de erros são comuns em desinformação errônea postagens e pode ser uma indicação de um áudio propositadamente falso.
Resultados inconsistentes de detecção de IA
Nossa investigação testou várias ferramentas de detecção de áudio de código aberto, produzindo resultados mistos. Embora a maioria das ferramentas sinalizasse o clipe como provável, algumas eram inconclusivas.
UM Plataforma desenvolvida pela Universidade em Buffalo Analisou o clipe usando várias ferramentas de detecção, com resultados indicando uma probabilidade de 90-100% de ser falso. No entanto, outra ferramenta, Oinão tinha certeza e estimou apenas uma chance de 47% de ser gerada pela IA. A DW FACT RECH usou a extensão do navegador desta ferramenta.
Instituto Fraunhofer da Alemanha para Segurança Aplicada e Integrada (Aisec) Analisou o áudio a nosso pedido, concluindo que há uma probabilidade de 81% de ser falsa, com base em sua ferramenta de detecção de doe Deepfake, Deepfake-Total.com.
“Não é incomum para diferentes ferramentas para produzir resultados variados. Novos ou anteriormente desconhecidos, geralmente são difíceis de identificar com segurança, especialmente se os sistemas de detecção não foram projetados especificamente para eles”, disse Nicolas Müller da AISEC em uma entrevista com o Ard-Faktenfinder.
Essas inconsistências destacam o desafio de detectar conteúdo sofisticado gerado pela IA com certeza absoluta, a equipe de verificação de fatos de um desafio também enfrenta.
A tecnologia Deepfake está evoluindo
Novas técnicas estão tornando o áudio DeepFakes cada vez mais sofisticado e mais difícil de detectar. Um método mais recente, a síntese de fala a fala, imita a voz real de uma pessoa, em vez de usar a tecnologia tradicional de texto para fala. Segundo especialistas, essa técnica já poderia estar em uso.
Análises iniciais sugerem que o clipe de áudio examinado de Vance é artificial. “Embora não tenhamos realizado uma análise biométrica completa, a voz na gravação não corresponde a Vance”, disse Farid. Ele também alertou para uma tendência crescente de vazamentos fabricados visando jornalistas e políticos.
Se você estiver interessado em aprender mais sobre como identificar o Audio DeepFakes, dê uma olhada em nossa pesquisa aqui.
Carla Reveland e Pascal Siggelkow, do Ard-Faktenfinder, contribuíram para este relatório. Este artigo faz parte de uma colaboração entre as equipes de verificação de fatos de transmissão pública da Alemanha Ard Fact FinderAssim, BR24 #FAKTENFUCHS e verificação de fatos DW.
Editado por: Rachel Baig