N/A

Vídeos feitos por IA inundam as redes e ninguém sabe mais o que é real. E agora?

19 views

Um vídeo no TikTok, em outubro, parecia mostrar uma mulher sendo entrevistada por uma repórter de televisão sobre o uso de benefícios de alimentação. As mulheres não eram reais. A conversa nunca aconteceu. O vídeo foi gerado por inteligência artificial. Ainda assim, as pessoas pareceram acreditar que se tratava de uma conversa real sobre a venda de auxílio-alimentação por dinheiro, o que configuraria um crime.

Publicidade

Nos comentários, muitos reagiram ao vídeo como se fosse verdadeiro. Apesar de sinais sutis de alerta, centenas passaram a rotular a mulher como criminosa — alguns com racismo explícito — enquanto outros atacavam programas de assistência do governo, justamente quando um debate nacional se intensificava em torno dos cortes planejados pelo presidente Donald Trump no programa.

Publicidade

Vídeos como essa falsa entrevista, criados com o novo aplicativo da OpenAI, o Sora, mostram como a percepção pública pode ser facilmente manipulada por ferramentas capazes de produzir uma realidade alternativa a partir de uma série de comandos simples.

Nos dois meses desde a chegada do Sora, vídeos enganosos dispararam no TikTok, X, YouTubeFacebook e Instagram, segundo especialistas que acompanham esse tipo de conteúdo. A enxurrada acendeu o alerta sobre uma nova geração de desinformação e falsificações.

A maioria das grandes empresas de redes sociais tem políticas que exigem a divulgação do uso de inteligência artificial e, de forma ampla, proíbem conteúdos com a intenção de enganar. Mas essas salvaguardas se mostraram extremamente insuficientes diante do salto tecnológico representado pelas ferramentas da OpenAI.

Embora muitos vídeos sejam memes bobos ou imagens fofas — porém falsas — de bebês e animais de estimação, outros têm como objetivo estimular o tipo de hostilidade que frequentemente marca o debate político online. Eles já apareceram em operações de influência estrangeira, como a campanha em curso da Rússia para desmoralizar a Ucrânia.


Vídeo de uma mãe pegando na mão de um bebê recém nascido — Foto: Reprodução/Sora 

Pesquisadores que acompanham usos enganosos dizem que agora cabe às empresas fazer mais para garantir que as pessoas saibam o que é real e o que não é.

“Eles poderiam fazer um trabalho melhor na moderação de conteúdo de desinformação? Sim, claramente não estão fazendo isso”, disse Sam Gregory, diretor executivo da Witness, uma organização de direitos humanos focada nas ameaças da tecnologia. “Poderiam ser mais proativos na busca por informações geradas por IA e rotulá-las eles mesmos? A resposta também é sim.”

O vídeo sobre revenda de benefícios de alimentação foi um de vários que circularam enquanto o impasse sobre o fechamento do governo dos Estados Unidos se arrastava, deixando beneficiários reais do programa, o Supplemental Nutrition Assistance Program (SNAP), nos Estados Unidos, tentando alimentar suas famílias.

A Fox News caiu em um vídeo falso semelhante, tratando-o como exemplo de indignação pública com supostos abusos do programa de cupons de alimentação em um artigo que depois foi retirado do site. Um porta-voz da Fox confirmou a remoção, mas não deu mais detalhes.

As falsificações têm sido usadas para ridicularizar não apenas pessoas pobres, mas também Trump. Um vídeo no TikTok mostrava a Casa Branca com algo que parecia ser uma narração com a voz de Trump repreendendo seu gabinete pela divulgação de documentos envolvendo Jeffrey Epstein, o financista desacreditado e condenado por crimes sexuais.

Segundo a NewsGuard, empresa que monitora desinformação, o vídeo — que não estava rotulado como IA — foi visto por mais de 3 milhões de pessoas em poucos dias.


Vídeo feito com a ferramenta de IA do Google, Veo 3 — Foto: Reprodução/Google

Até  agora, as plataformas têm confiado sobretudo nos criadores para informar que o conteúdo publicado não é real — mas eles nem sempre o fazem. E, embora existam formas de plataformas como YouTube e TikTok detectarem que um vídeo foi feito com inteligência artificial, nem sempre isso é sinalizado aos espectadores de imediato.

“Eles deveriam ter estado preparados”, disse Nabiha Syed, diretora executiva da Mozilla Foundation, organização de segurança tecnológica por trás do navegador Firefox, referindo-se às empresas de redes sociais.

As empresas responsáveis pelas ferramentas de IA afirmam estar tentando deixar claro para os usuários quais conteúdos são gerados por computador. O Sora e a ferramenta concorrente do Google, chamada Veo, incorporam uma marca-d’água visível nos vídeos que produzem.

O Sora, por exemplo, adiciona o rótulo “Sora” a cada vídeo. Ambas também incluem metadados invisíveis, legíveis por computador, que indicam a origem de cada falsificação.

A ideia é informar as pessoas de que o que estão vendo não é real e fornecer às plataformas sinais digitais para detectá-los automaticamente.

Algumas plataformas estão usando essa tecnologia. O TikTok, aparentemente em resposta às preocupações com o realismo dos vídeos falsos, anunciou na semana passada que vai endurecer suas regras sobre a divulgação do uso de IA. Também prometeu novas ferramentas para permitir que os usuários escolham quanto conteúdo sintético, em vez de genuíno, desejam ver.

O YouTube usa a marca-d’água invisível do Sora para acrescentar um pequeno rótulo indicando que os vídeos de IA foram “alterados ou sintéticos”.

“Os espectadores querem cada vez mais transparência sobre se o conteúdo que estão vendo foi alterado ou é sintético”, disse Jack Malon, porta-voz do YouTube.

Os rótulos, no entanto, às vezes aparecem apenas depois que milhares ou até milhões de pessoas já assistiram aos vídeos. Em alguns casos, não aparecem de forma alguma.

Pessoas com intenções maliciosas descobriram que é fácil driblar as regras de divulgação. Alguns simplesmente as ignoram. Outros manipulam os vídeos para remover as marcas-d’água de identificação. O The New York Times encontrou dezenas de exemplos de vídeos do Sora aparecendo no YouTube sem o rótulo automático.

Diversas empresas surgiram oferecendo a remoção de logotipos e marcas-d’água. Além disso, editar ou compartilhar vídeos pode acabar apagando os metadados incorporados ao arquivo original que indicavam o uso de IA.

Mesmo quando os logotipos permanecem visíveis, os usuários podem não percebê-los ao rolar rapidamente o feed no celular.

Quase dois terços dos mais de 3 mil usuários que comentaram no vídeo do TikTok sobre cupons de alimentação reagiram como se ele fosse real, segundo uma análise dos comentários feita pelo The New York Times, que usou ferramentas de IA para ajudar a classificar o conteúdo.

O surgimento de vídeos realistas tem sido um impulso para a desinformação, fraudes e operações de influência estrangeira. Vídeos do Sora já apareceram em campanhas recentes de desinformação russas no TikTok e no X.

Um deles, com as marcas-d’água grosseiramente ocultadas, buscava explorar um escândalo crescente de corrupção entre a liderança política da Ucrânia. Outros criaram vídeos falsos de soldados da linha de frente chorando.

Dois ex-integrantes de um escritório do Departamento de Estado — hoje extinto — que combatia operações de influência estrangeira, James P. Rubin e Darjan Vujica, argumentaram em um novo artigo na Foreign Affairs que os avanços em IA estão intensificando esforços para minar países democráticos e dividir sociedades.

Eles citaram vídeos de IA na Índia que atacavam muçulmanos para inflamar tensões religiosas. Um recente, no TikTok, parecia mostrar um homem preparando arroz biryani na rua com água de um bueiro. Embora o vídeo tivesse a marca-d’água do Sora e o criador afirmasse que ele foi gerado por IA, foi amplamente compartilhado no X e no Facebook, disseminado por contas que comentavam como se fosse real.

“Eles estão criando coisas, e continuarão criando, que pioram muito a situação”, disse Vujica em entrevista, referindo-se à nova geração de vídeos feitos por IA. “A barreira para usar deepfakes como parte da desinformação desmoronou, e, uma vez que a desinformação se espalha, é difícil corrigir o registro.”

Fonte: o globo

Publicidade

Descubra mais sobre Euclides Diário

Assine para receber nossas notícias mais recentes por e-mail.

Rolar para cima