“Deepfakes” mostram a importância das humanidades na Inteligência Artificial

Giselle Beiguelman explica que diante dessa urgência existe o trabalho dos pesquisadores no Grupo de Arte e Inteligência Artificial no Inova-USP

“Os deepfakes são imagens criadas por meio de tecnologias de Inteligência Artificial, utilizando processos de aprendizado de máquina e sistemas de visão computacional”, esclarece Giselle Beiguelman em sua coluna Ouvir Imagens, da Rádio USP (clique e ouça o player acima). “O termo combina duas práticas correntes na nossa época: o deep learning ou aprendizado profundo, e os fakes, que são as notícias e informações falsas, mediadas por algoritmos.”

Gisele explica que apesar da terminologia remeter a um imaginário de laboratórios científicos, as técnicas estão em nosso cotidiano. “Alguns exemplos são os efeitos especiais, como as técnicas de rejuvenescimento, e também estão presentes nos memes e em aplicativos como o FaceApp, em que as pessoas podem visualizar como supostamente serão daqui a 30 anos em redes sociais como TikTok, muito popular entre os jovens.”

A colunista destaca que as inteligências artificiais se utilizam de grandes bancos de imagens e são capazes de processar as informações até torná-las visual e sonoramente críveis. “O avanço das tecnologias que combinam recursos de reconhecimento facial com programas que são quase que verdadeiros photoshops de áudio mostra que é possível milagres na sincronização labial e indicam, desde já, que as eleições futuras podem se tornar um pesadelo visual.”

Apesar do futurismo, segundo a colunista, os deepfakes podem manipular eventos que já aconteceram. “Na instalação No Caso de um Desastre Lunar (2019), Francesca Panetta, diretora de criação do Centro de Virtualidade Avançada do Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, criou, em parceria com Halsey Burgund, do Open Documentary Lab, também do MIT, um vídeo em que o presidente Richard Nixon reporta, diretamente do Salão Oval da Casa Branca, um desastre ocorrido com a missão lunar Apolo 11, em 1969. Seu discurso foi escrito por um dos assessores do Nixon e seria lido no caso de um acidente que, como se sabe, não aconteceu.”

Segundo os autores, essa obra pretende alertar sobre os riscos de os deepfakes falsificarem não apenas o presente, mas também o passado. “Numa época de negacionismo histórico como estamos vivendo esse alerta é de suma importância. E nesse sentido, fica claro que é cada vez mais urgente o envolvimento de pesquisadores das humanidades no campo da Inteligência Artificial e é algo que estamos fazendo com o Gaia (Grupo de Arte e Inteligência Artificial no Inova-USP).”


Ouvir Imagens 
A coluna Ouvir Imagens, com a professora Gisele Beiguelman, vai ao ar toda segunda-feira às 8h00, na Rádio  USP (São Paulo 93,7 FM; Ribeirão Preto 107,9 FM) e também no Youtube, com produção do Jornal da USP e  TV USP.

.

.

.


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.