Encontre matérias e conteúdos da Gazeta do Povo
Educação e Mídia

Educação e Mídia

DEEPFAKE

Deepfake e os perigos da manipulação

Developer following scheme when programming at his workplace (Foto: )

Ouça este conteúdo

Montagens que alteram rostos e corpos em fotografias não são nenhuma novidade na internet. Esse tipo de recurso é utilizado há anos em diferentes setores e para diferentes fins, dos benéficos àqueles que podem ser bastante perigosos.

Entretanto, o aperfeiçoamento dessas ferramentas gerou um fenômeno recente, bastante discutido por especialistas pelo seu alto grau de compatibilidade com características físicas reais: o deepfake.

O termo apareceu em dezembro de 2017, quando um usuário da rede social Reddit que utilizava o codinome “deep fake” começou a postar vídeos pornográficos envolvendo celebridades como as atrizes Gal Gadot e Emma Watson. O material, porém, era falso.

Como o próprio nome diz, o deepfake é o uso de inteligência artificial para criar vídeos mentirosos, mas profundamente realistas. Com softwares de deep learning, o usuário aplica os rostos que quiser a clipes existentes, manipulando imagens e sons.

Isso é possível porque os algoritmos das plataformas digitais são capazes de analisar traços humanos, detalhando movimentos. O exemplo mais famoso disseminado nas redes sociais é o discurso fictício do ex-presidente dos Estados Unidos Barack Obama – mas Donald Trump também já foi vítima do mesmo tipo de manipulação.

Apesar de não serem perfeitos, esses vídeos são realistas o suficiente para confundir muita gente. Pesquisadores da Universidade de Stanford, nos Estados Unidos, fizeram experimentos usando esse tipo de imagem e os resultados mostram que o deepfake já engana 3 em 5 pessoas (60% dos examinados).

E esse número tende a aumentar, já que cada vez mais os meios para produção das montagens estão acessíveis ao público geral. O grupo Deeptrace estima que entre o fim de 2018 e junho de 2019 o número de vídeos deepfake na web quase dobrou, chegando a mais de 14 mil. Com isso, fica mais fácil espalhar desinformação de acordo com interesses próprios, que ganham sustentação por meio de supostas evidências visuais.

É preciso levar em conta as questões éticas e legais desse tipo de recurso, posto que gera desinformação e manipulação, podendo culminar inclusive em crises institucionais e políticas. A proliferação desses vídeos pode representar uma ameaça à democracia, à medida que coloca em risco a credibilidade de fontes genuínas, o que é particularmente preocupante em época de eleições.

Essas criações enganosas também podem prejudicar a vida de indivíduos famosos ou anônimos. Ainda de acordo com a empresa de segurança cibernética Deeptrace, cerca de 96% de todos os vídeos produzidos com deepfake são de natureza pornográfica, sendo que a maioria foi criada sem autorização da vítima.

Por enquanto, o Brasil não tem uma legislação específica para tratar desse tema, mas a prática pode ser enquadrada em violação de direitos autorais, proteção de dados e difamação (se expor a vítima ao ridículo).

Por outro lado, as empresas de tecnologia começaram a agir. O Facebook anunciou recentemente que terá uma política própria para conteúdos manipulados, como os vídeos com deepfakes, a menos que o material seja uma paródia ou sátira.

Segundo a plataforma, se uma foto ou um vídeo for classificado como falso ou parcialmente falso por um verificador, a postagem será significativamente reduzida do feed de notícias e não será permitido impulsioná-la. Quando alguém compartilhar o conteúdo, a pessoa receberá um aviso de que se trata de uma publicação falsa.

Já a China e o estado norte-americano da Califórnia proíbem a publicação de imagens alteradas com tecnologia deepfake. Não seguir a norma pode ser considerado um delito criminal.

É necessário dizer, porém, que o deepfake pode ter benefícios se usado para fins de entretenimento, como os efeitos especiais de filmes, séries e propagandas, ao criar personagens, “reviver” artistas mortos, gerar diferentes mudanças faciais e tornar as dublagens mais realistas.

De forma um pouco mais educativa, a técnica pode chegar às escolas e museus com experiências imersivas, por meio de depoimentos em vídeo de figuras históricas como Albert Einstein, Santos Dumont, Leonardo da Vinci, por exemplo. Ademais, no campo da saúde, é possível utilizar esse recurso para restaurar vozes de pessoas que as perderam para enfermidades.

Mesmo assim, é importante estar alerta ao se deparar com um vídeo na sua timeline. Alguns detalhes atualmente ajudam na identificação, tais quais: os movimentos da boca, pouco sincronizados ao que está sendo dito; os olhos que não piscam ou piscam pouco; os movimentos faciais e corporais pouco naturais e rígidos; os dentes pouco definidos; a transição da face com os cabelos e o pescoço borrada. A duração também é um diferencial significativo, uma vez que dificilmente as peças falsas passam de um minuto. Isso acontece porque o processamento desses materiais leva horas e exige bastante da máquina que opera o software.

Uma geração de cidadãos digitais midiaticamente educados pode ser nossa melhor aposta para uma sociedade mais diversa e tolerante. É por isso que temas como deepfake devem ser tratados na escola, já que desenvolve nos jovens a capacidade de questionar os conteúdos que consomem diariamente nas redes sociais, fazendo com que se informem por meio de fontes confiáveis e, assim, fortalecendo a democracia.

*Texto escrito por Isabella Galante, colaboradora do Instituto Palavra Aberta. O Instituto Palavra Aberta colabora voluntariamente com o Instituto GRPCOM, no Blog Educação e Mídia.

**Quer saber mais sobre educação, cidadania, responsabilidade social, sustentabilidade e terceiro setor? Acesse nosso site! Acompanhe o Instituto GRPCOM também no Facebook: InstitutoGrpcom, Twitter: @InstitutoGRPCOM e Instagram: instagram.com/institutogrpcom

Use este espaço apenas para a comunicação de erros

Principais Manchetes

Receba nossas notícias NO CELULAR

WhatsappTelegram

WHATSAPP: As regras de privacidade dos grupos são definidas pelo WhatsApp. Ao entrar, seu número pode ser visto por outros integrantes do grupo.