Textos falsos ainda são mais perigosos que deepfake, afirma estudo

Desde que o deepfake surgiu, muita gente é levada a pensar que vídeos adulterados graças ao uso de inteligência artificial estão entre as mais perigosas ferramentas digitais. De fato, o Colégio Universitário de Londres (UCL) chegou a classificar a ferramenta como o mais grave crime de IA.

No entanto, um estudo conduzido por pesquisadores do MIT Media Labs, que analisou o uso de material manipulado por IA em diversos formatos, aponta que textos falsos são bem mais difíceis de serem identificados, quando comparados com criações em vídeo e imagem.

O artigo foi publicado na ferramenta arXiv da Universidade de Cornell, e está disponível para consulta pública em regime aberto (cuidado, PDF). O estudo entrevistou 6.000 voluntários, apresentando-lhes 32 conteúdos com figuras políticas, em que a metade deles (16) era autêntica, e a outra metade criada por ferramentas de IA, como o deepfake e softwares de geração de texto.

As fontes eram declarações em vídeo de Donald Trump e Joe Biden, convertidas em 7 tipos de mídia: apenas texto, apenas áudio, vídeo sem áudio e sem legendas, áudio sem vídeo, mas com legendas, vídeos sem áudio, mas com legendas, vídeos com áudio, mas sem legendas, e vídeos com áudio e legendas. Metade do total trazia o conteúdo legítimo dos discursos, e os demais tiveram as falas alteradas; no caso dos textos puros, eles foram reescritos.

Os cientistas observaram que os voluntários conseguiam identificar melhor as obras manipuladas com conteúdo visual, por se concentrarem mais em como a informação era apresentada, ao invés do conteúdo da mensagem em si. Neste contexto, os deepfakes de vídeo foram identificados em 82% das vezes, quando o vídeo era combinado com áudio, e em 62% das exibições, quando o vídeo era acompanhado apenas de legendas.

A precisão ao identificar áudios falsos, sem eles estarem acompanhados de legendas, marcou um índice pouco menor, de 78% de acertos, e os que foram submetidos aos conteúdos apenas de vídeo sem áudio, com ou sem legendas, atingiram marcas pouco acima de 60%, um número considerado baixo.

Porém, os voluntários apresentaram um índice de precisão bem pior ao analisarem textos puros: a taxa de acerto se fixou em 57% das vezes, mostrando que dependendo das circunstâncias, mentir de forma escrita continua sendo muito mais eficaz do que criar vídeos falsos de personalidades. E nem é preciso contar com uma IA para redigir informações falsas.

Deepfake ainda é perigoso

Por outro lado, os pesquisadores do MIT Media Labs alertam para que profissionais de segurança e autoridades não relaxem em relação ao deepfake, bem como outras formas de manipulação de conteúdo visual, por estes terem sido identificados com maior frequência pelos voluntários do estudo.

Os materiais visuais usados na pesquisa eram bem menos precisos e realistas do que composições mais recentes veiculadas na internet, como o “DeepTomCruise” abaixo, uma conta do TikTok famosa por veicular vídeos criados por IA, com alta fidelidade, exibindo um falso Tom Cruise em situações variadas.

É bem provável que os vídeos exibidos aos voluntários da pesquisa tenham sido alterados com qualidade baixa intencionalmente, ficando bem mais próximos dos primeiros criados pela ferramenta deepfake. Na época, ela era essencialmente um software para recriar cenas de filmes pr0n com atrizes de Hollywood e outras personalidades, além de algumas outras produções envolvendo políticos.

No entanto, a ferramenta evoluiu a passos largos e em diversas direções, sendo ela usada tanto para criar paródias e correções de obras legítimas (o que rendeu a um artista um emprego na Lucasfilm), quanto para criar declarações de pessoas públicas, inclusive políticos, de modo a criar confusão, sendo mais uma ferramenta na guerra de narrativas e Fake News.

Há temores justificados de que o deepfake e outras ferramentas de manipulação digital, que usam IAs e sistemas especialistas, sejam usadas durante o conflito entre a Rússia e a Ucrânia, como uma arma de desinformação e manipulação.

Por outro lado, como bem apontado pelo reporter do USA Today Daniel Funke, “é muito mais fácil postar um vídeo ou foto nas redes sociais fora de seu contexto, do que criar um deepfake”. Da mesma forma, é bem mais simples alguém mal-intencionado escrever um texto mentiroso de próprio punho, e publicá-lo como a declaração de outrem, do que programar uma IA para fazer o trabalho.

No fim das contas, não dá para considerar o deepfake e softwares de manipulação de imagem como inócuos, mas muito mais nocivos e eficazes são os métodos mais tradicionais para mentir e manipular.

Referências bibliográficas

GROH, M., SANKARANARAYANAN, A., PICARD, R. Human Detection of Political Deepfakes across Transcripts, Audio, and Video. arXiv (Cornell University), 17 páginas, 25 de fevereiro de 2022. Disponível em https://doi.org/10.48550/arXiv.2202.12883.

Fonte: The Next Web

Fonte feed: tecnoblog.net

Veja também