Montagens que alteram rostos e corpos em fotografias não são nenhuma novidade na internet. Esse tipo de recurso é utilizado há anos em diferentes setores e para diferentes fins, dos benéficos àqueles que podem ser bastante perigosos.
Entretanto, o aperfeiçoamento dessas ferramentas gerou um fenômeno recente, bastante discutido por especialistas pelo seu alto grau de compatibilidade com características físicas reais: o deepfake.
O termo apareceu em dezembro de 2017, quando um usuário da rede social Reddit que utilizava o codinome “deep fake” começou a postar vídeos pornográficos envolvendo celebridades como as atrizes Gal Gadot e Emma Watson. O material, porém, era falso.
Como o próprio nome diz, o deepfake é o uso de inteligência artificial para criar vídeos mentirosos, mas profundamente realistas. Com softwares de deep learning, o usuário aplica os rostos que quiser a clipes existentes, manipulando imagens e sons.
Isso é possível porque os algoritmos das plataformas digitais são capazes de analisar traços humanos, detalhando movimentos. O exemplo mais famoso disseminado nas redes sociais é o discurso fictício do ex-presidente dos Estados Unidos Barack Obama – mas Donald Trump também já foi vítima do mesmo tipo de manipulação.
Apesar de não serem perfeitos, esses vídeos são realistas o suficiente para confundir muita gente. Pesquisadores da Universidade de Stanford, nos Estados Unidos, fizeram experimentos usando esse tipo de imagem e os resultados mostram que o deepfake já engana 3 em 5 pessoas (60% dos examinados).
E esse número tende a aumentar, já que cada vez mais os meios para produção das montagens estão acessíveis ao público geral. O grupo Deeptrace estima que entre o fim de 2018 e junho de 2019 o número de vídeos deepfake na web quase dobrou, chegando a mais de 14 mil. Com isso, fica mais fácil espalhar desinformação de acordo com interesses próprios, que ganham sustentação por meio de supostas evidências visuais.
É preciso levar em conta as questões éticas e legais desse tipo de recurso, posto que gera desinformação e manipulação, podendo culminar inclusive em crises institucionais e políticas. A proliferação desses vídeos pode representar uma ameaça à democracia, à medida que coloca em risco a credibilidade de fontes genuínas, o que é particularmente preocupante em época de eleições.
Essas criações enganosas também podem prejudicar a vida de indivíduos famosos ou anônimos. Ainda de acordo com a empresa de segurança cibernética Deeptrace, cerca de 96% de todos os vídeos produzidos com deepfake são de natureza pornográfica, sendo que a maioria foi criada sem autorização da vítima.
Por enquanto, o Brasil não tem uma legislação específica para tratar desse tema, mas a prática pode ser enquadrada em violação de direitos autorais, proteção de dados e difamação (se expor a vítima ao ridículo).
Por outro lado, as empresas de tecnologia começaram a agir. O Facebook anunciou recentemente que terá uma política própria para conteúdos manipulados, como os vídeos com deepfakes, a menos que o material seja uma paródia ou sátira.
Segundo a plataforma, se uma foto ou um vídeo for classificado como falso ou parcialmente falso por um verificador, a postagem será significativamente reduzida do feed de notícias e não será permitido impulsioná-la. Quando alguém compartilhar o conteúdo, a pessoa receberá um aviso de que se trata de uma publicação falsa.
Já a China e o estado norte-americano da Califórnia proíbem a publicação de imagens alteradas com tecnologia deepfake. Não seguir a norma pode ser considerado um delito criminal.
É necessário dizer, porém, que o deepfake pode ter benefícios se usado para fins de entretenimento, como os efeitos especiais de filmes, séries e propagandas, ao criar personagens, “reviver” artistas mortos, gerar diferentes mudanças faciais e tornar as dublagens mais realistas.
De forma um pouco mais educativa, a técnica pode chegar às escolas e museus com experiências imersivas, por meio de depoimentos em vídeo de figuras históricas como Albert Einstein, Santos Dumont, Leonardo da Vinci, por exemplo. Ademais, no campo da saúde, é possível utilizar esse recurso para restaurar vozes de pessoas que as perderam para enfermidades.
Mesmo assim, é importante estar alerta ao se deparar com um vídeo na sua timeline. Alguns detalhes atualmente ajudam na identificação, tais quais: os movimentos da boca, pouco sincronizados ao que está sendo dito; os olhos que não piscam ou piscam pouco; os movimentos faciais e corporais pouco naturais e rígidos; os dentes pouco definidos; a transição da face com os cabelos e o pescoço borrada. A duração também é um diferencial significativo, uma vez que dificilmente as peças falsas passam de um minuto. Isso acontece porque o processamento desses materiais leva horas e exige bastante da máquina que opera o software.
Uma geração de cidadãos digitais midiaticamente educados pode ser nossa melhor aposta para uma sociedade mais diversa e tolerante. É por isso que temas como deepfake devem ser tratados na escola, já que desenvolve nos jovens a capacidade de questionar os conteúdos que consomem diariamente nas redes sociais, fazendo com que se informem por meio de fontes confiáveis e, assim, fortalecendo a democracia.
*Texto escrito por Isabella Galante, colaboradora do Instituto Palavra Aberta. O Instituto Palavra Aberta colabora voluntariamente com o Instituto GRPCOM, no Blog Educação e Mídia.
**Quer saber mais sobre educação, cidadania, responsabilidade social, sustentabilidade e terceiro setor? Acesse nosso site! Acompanhe o Instituto GRPCOM também no Facebook: InstitutoGrpcom, Twitter: @InstitutoGRPCOM e Instagram: instagram.com/institutogrpcom
Inteligência americana pode ter colaborado com governo brasileiro em casos de censura no Brasil
Lula encontra brecha na catástrofe gaúcha e mira nas eleições de 2026
Barroso adota “política do pensamento” e reclama de liberdade de expressão na internet
Paulo Pimenta: O Salvador Apolítico das Enchentes no RS