Buscar no site

Não acredite em tudo o que você vê

Fernando Nascimento

  • 23/03/23
  • 10:00
  • Atualizado há 87 semanas

O ano é 2023.

É impraticável a hipótese de, em centros mais populosos, as pessoas não terem experimentado acesso a um conteúdo em vídeo. Evitei citar 100% das pessoas, afinal, ainda existem populações, ainda que pequenas, sem contato com coisas cotidianas do mundo moderno.

Mas, de volta ao assunto do acesso, até mesmo seus avós já tiveram contato com telejornais, por exemplo (minha avó, na flor de seus mais de 90 anos, não costuma perder seu Jornal Nacional).

Mas, o que outrora era certeza, já não é algo que se pode ser afirmado com tanta exatidão.

Vou explicar melhor nos próximos parágrafos…

Já ouviu falar em deepfake? Algo como "falso profundo", em português. Falo sobre uma técnica de manipulação de vídeos e áudios na qual, em seu tipo mais comum, é colocado num vídeo o rosto de alguém que não estava na cena original.

Tenho certeza que você se lembrou de memes, às vezes montagens grotescas e hilárias, recebidos naquele seu aplicativo de mensagens instantâneas. Muitas vezes apenas brincadeiras, que obviamente não enganam ninguém.

Problemas surgem quando tais manipulações extrapolam a diversão e, com o avanço cada vez maior da Inteligência Artificial (olha ela aí mais uma vez), são capazes de produzir informação ou, se preferir, desinformação.

Ficou em um passado não muito distante a manipulação de fotos, que corrigiam imperfeições ou acrescentavam elementos nas imagens. A tecnologia atual permite, entre outras coisas, fazer uma pessoa falar o que ela não disse.

Quero evitar ser enfadonho, além de ser leigo no assunto tecnologia. Então, simplificando, tenha em mente programas de computador que captam inúmeras expressões faciais e corporais de uma pessoa (até mesmo as mais sutis), e as compilam, ao gosto do freguês.

Sem dúvida, isso pode ser perigosíssimo. A ponto das deepfakes serem tratadas, por alguns autores, como o Infocalipse, uma perda de confiança de instituições e pessoas, simplesmente por não poder se acreditar no que (vimos ou ouvimos) ela dizer.

Cada vez mais se faz necessária a checagem do que consumimos. E, apesar de não ser óbvio para todos, evitar espalhar informações, sem sabermos se é verdadeira ou não.

Nem tudo está perdido, entretanto. Inúmeros pesquisadores, entre eles o professor Doutor e cientista da computação Anderson de Rezende Rocha, estudioso das deepfakes e diretor do Instituto de Computação da Universidade Estadual de Campinas (Unicamp), têm colocado esforços para a identificação e combate desses males.

Tive a grata oportunidade de assistir a uma pequena palestra sua recentemente, onde falou sobre o assunto e descreveu seu trabalho, em colaboração com colegas da City University of Hong Kong, no qual ajudou a elaborar uma ferramenta que tem mostrado resultados promissores nos testes a que foi submetida. Graças ao que ouvi, resolvi ler mais sobre o assunto e escrever por aqui.

Deixo dois links para ilustrar um pouco mais o assunto: o primeiro, mostra uma deepfake feita com o ator Morgan Freeman. Apesar do áudio ser em inglês, será possível visualizar como a técnica é aplicada.

O segundo, é uma reportagem da Revista Piauí, de onde retirei as informações que resumi neste texto. Uma leitura longa, mas reveladora, sobre o universo das deepfakes.

Não dá para acreditar em tudo o que vemos, ouvimos ou lemos.

Abraço

Links:

https://youtube.com/shorts/kjC8wTgyjIc?feature=share

https://piaui.folha.uol.com.br/materia/nem-vendo-para-crer/

Receba nossas notícias em primeira mão!

Veja também
Mais lidas
Ver todas as notícias locais
Colunistas Blog Podcast
Ver todos os artigos