A ferramenta de vídeo AI do Google amplifica os temores de um aumento na desinformação | Notícias de tecnologia

Date:

Compartilhe:

Em ambos Teerã e Tel Avivos moradores enfrentaram maior ansiedade nos últimos dias, à medida que a ameaça de ataques de mísseis se paira sobre suas comunidades. Juntamente com as preocupações muito reais da segurança física, há um alarme crescente sobre o papel da desinformação, particularmente o conteúdo gerado pela inteligência artificial, na formação da percepção do público.

Geoconfirmed, uma plataforma de verificação on -line, tem relataram um aumento na desinformação gerada pela IAincluindo vídeos fabricados de ataques aéreos que nunca ocorreram, tanto no Irã quanto em Israel.

Isso segue uma onda semelhante de imagens manipuladas que circulavam durante os recentes protestos em Los Angeles, que foram desencadeados por um aumento dos ataques de imigração na segunda cidade mais populosa nos Estados Unidos.

Os desenvolvimentos fazem parte de uma tendência mais ampla de eventos politicamente carregados sendo explorados para espalhar narrativas falsas ou enganosas.

O lançamento de um novo produto de IA por uma das maiores empresas de tecnologia do mundo adicionou a essas preocupações de detectar fatos da ficção.

No final do mês passado, a Divisão de Pesquisa da AI do Google, Deepmind, lançou o Veo 3, uma ferramenta capaz de gerar vídeos de oito segundos a partir de avisos de texto. O sistema, um dos mais abrangentes atualmente disponíveis gratuitamente, produz visuais e som altamente realistas que podem ser difíceis para o espectador médio distinguir das imagens reais.

Para ver exatamente o que pode fazer, a Al Jazeera criou um vídeo falso em minutos usando um prompt que descreve um manifestante em Nova York que afirma ser pago para participar, um ponto de discussão comum que os republicanos historicamente usavam para delegitimizar protestos, acompanhados de filmagens que pareciam mostrar inquietação violenta. O produto final era quase indistinguível de filmagens autênticas.

A Al Jazeera também criou vídeos mostrando ataques de mísseis falsos em Teerã e Tel Aviv usando os avisos “Mostre -me um atentado em Tel Aviv” e depois um aviso semelhante para Teerã. A Veo 3 diz em seu site que bloqueia “solicitações e resultados prejudiciais”, mas a Al Jazeera não teve problemas para fazer esses vídeos falsos.

“Recentemente, criei um vídeo completamente sintético, falando na Web Summit usando nada além de uma única fotografia e alguns dólares. Isso enganou minha própria equipe, colegas confiáveis ​​e especialistas em segurança”, disse Ben Colman, CEO da empresa de detecção de Deepfake, Reality Defender, em uma entrevista com a Al Jazeera.

“Se eu puder fazer isso em minutos, imagine o que motivou os maus atores já estão fazendo com tempo e recursos ilimitados”.

Ele acrescentou: “Não estamos nos preparando para uma ameaça futura. Já estamos atrasados ​​em uma corrida que começou o momento em que o VEO 3 foi lançado. As soluções robustas existem e funcionam-mas não as que os fabricantes de modelos estão oferecendo como o tudo, tudo de lado”.

O Google diz que está levando o problema a sério.

“Estamos comprometidos em desenvolver IA com responsabilidade e temos políticas claras para proteger os usuários de danos e governar o uso de nossas ferramentas de IA. Qualquer conteúdo gerado com a IA do Google inclui uma marca d’água sintid e adicionamos uma marca d’água visível aos vídeos da Veo”, disse um porta -voz da empresa à Al Jazeera.

‘Eles não se importam com os clientes’

No entanto, especialistas dizem que a ferramenta foi lançada antes que esses recursos fossem totalmente implementados, um movimento que alguns acreditam ser imprudente.

Joshua McKenty, CEO da empresa de detecção de Deepfake, Polyguard, disse que o Google apressou o produto para o mercado porque estava atrasado para trás concorrentes como Openai e Microsoft, que lançaram ferramentas mais amigáveis ​​e divulgadas. O Google não respondeu a essas reivindicações.

“O Google está tentando ganhar um argumento de que sua IA é importante quando eles estão perdendo dramaticamente”, disse McKenty. “Eles são como o terceiro cavalo em uma corrida de dois cavalos. Eles não se importam com os clientes. Eles se preocupam com sua própria tecnologia brilhante”.

Esse sentimento foi ecoado por Sukrit Venkatagiri, professor assistente de ciência da computação no Swarthmore College.

“As empresas estão em um vínculo estranho. Se você não desenvolver IA generativa, é visto como ficando para trás e seu estoque é atingido”, disse ele. “Mas eles também têm a responsabilidade de tornar esses produtos seguros quando implantados no mundo real. Não acho que alguém se importe com isso agora. Todas essas empresas estão lucrando – ou a promessa de lucro – sobre a segurança”.

A própria pesquisa do Google, publicada no ano passado, reconheceu que a IA geradora de ameaças posa.

“A explosão de métodos generativos baseados em IA inflamou essas preocupações (sobre desinformação), pois elas podem sintetizar conteúdo de áudio e visual altamente realista, além de texto natural e fluente em uma escala anteriormente impossível, sem uma quantidade enorme de trabalho manual”. O estudo dizia.

Demis Hassabis, CEO do Google Deepmind, há muito tempo alerta seus colegas no setor de IA contra a priorização da velocidade sobre a segurança. “Eu defenderia não me mover rapidamente e quebrar as coisas”, disse ele a Time em 2023.

Ele recusou o pedido de entrevista da Al Jazeera.

No entanto, apesar de tais avisos, o Google lançou o VEO 3 antes de implementar totalmente as salvaguardas, levando a incidentes como o que a Guarda Nacional teve que desmascarar em Los Angeles depois que uma conta de Tiktok fez um falso vídeo “dia na vida” de um soldado que dizia que estava se preparando para “Gasing de hoje” – referindo -se a gastar com os protestantes.

Imitando eventos reais

As implicações do VEO 3 se estendem muito além das filmagens de protesto. Nos dias seguintes ao seu lançamento, vários vídeos fabricados imitando transmissões de notícias reais circularam nas mídias sociais, incluindo um de um relatório falso sobre uma invasão que incluía gráficos da CNN.

Outro clipe afirmou falsamente que o iate de JK Rowling afundou na costa de Turkiye após um ataque da Orca, atribuindo o relatório a Alejandra Caraballo, da clínica Cyberlaw de Harvard Law, que construiu o vídeo para testar a ferramenta.

Em um post, Caraballo alertou que essa tecnologia poderia enganar os consumidores mais antigos em particular.

“O que é preocupante é o quão fácil é repetir. Dentro de dez minutos, eu tive várias versões. Isso torna mais difícil de detectar e mais fácil de espalhar”, escreveu ela. “A falta de um Chyron (Banner em uma transmissão de notícias) torna trivial adicionar um após o fato de fazer com que pareça qualquer canal de notícias em particular”.

Em nosso próprio experimento, usamos um aviso para criar vídeos de notícias falsas com os logotipos da ABC e da NBC, com vozes imitando as das âncoras da CNN Jake Tapper, Erin Burnett, John Berman e Anderson Cooper.

“Agora, está ficando cada vez mais difícil dizer o fato da ficção”, disse Caraballo à Al Jazeera. “Como alguém que está pesquisando sistemas de IA há anos, até estou começando a lutar.”

Esse desafio também se estende ao público. Um estudo de Universidade Penn State descobriu que 48 A porcentagem dos consumidores foi enganada por vídeos falsos circulados por meio de aplicativos de mensagens ou mídias sociais.

Ao contrário da crença popular, Adultos mais jovens são mais suscetíveis Desinformação do que os idosos, principalmente porque as gerações mais jovens dependem das mídias sociais para notícias, que carecem dos padrões editoriais e da supervisão legal das organizações tradicionais de notícias.

UM Pesquisa da UNESCO de dezembro mostraram que 62 % dos influenciadores de notícias não verificam informações antes de compartilhá-las.

O Google não está sozinho no desenvolvimento de ferramentas que facilitam a propagação de meios sintéticos. Empresas como a DeepBrain oferecem aos usuários a capacidade de criar vídeos de avatar gerados pela IA, embora com limitações, pois não podem produzir renderizações de cena completa como o VEO 3. Deepbrain não respondeu ao pedido de comentário da Al Jazeera. Outras ferramentas como Synthesia e Dubverse permitem dublagem de vídeo, principalmente para tradução.

Este crescente kit de ferramentas oferece mais oportunidades para atores maliciosos. Um incidente recente envolveu um segmento de notícias fabricado no qual um repórter da CBS em Dallas parecia dizer comentários racistas. O software utilizado permanece não identificado.

A CBS News, Texas, não respondeu a um pedido de comentário.

À medida que a mídia sintética se torna mais prevalente, representa riscos únicos que permitirão que os maus atores pressionem o conteúdo manipulado que se espalha mais rapidamente do que pode ser corrigido, segundo Colman.

“Quando o conteúdo falso se espalhar por plataformas que não verificam esses marcadores (que são a maioria deles), através de canais que as tiram ou por meio de maus atores que aprenderam a falsificá -los, o dano está causado”, disse Colman.



Leia Mais: Aljazeera

spot_img

Related articles

Bancos vermelhos na Ufac simbolizam luta contra feminicídio — Universidade Federal do Acre

A Ufac inaugurou a campanha internacional Banco Vermelho, símbolo de conscientização sobre o feminicídio. A ação integra...

Ufac realiza aula inaugural das turmas de residências em saúde — Universidade Federal do Acre

A Pró-Reitoria de Pesquisa e Pós-Graduação e a Comissão de Residência Multiprofissional, da Ufac, realizaram a aula...