Inteligência Artificial

O ano em que os deepfakes se tornaram populares

Em 2020, os conteúdos de media gerados através de Inteligência Artificial (IA) começaram a emergir dos cantos mais sombrios da Internet.

Em 2018, Sam Cole, um repórter do site Motherboard, descobriu um lugar novo e perturbador da internet. Um utilizador do Reddit com o nome de “deepfakes” estava a publicar vídeos pornográficos falsos e não consensuais, utilizando um algoritmo de IA para colocar rostos de celebridades em pornografia real. Cole alertou sobre o fenómeno, precisamente quando a tecnologia estava prestes a explodir. Um ano depois, a pornografia deepfake espalhou-se para muito além do Reddit, com aplicações facilmente acessíveis capazes de “tirar” a roupa de qualquer mulher fotografada.

Desde então, os deepfakes ganharam uma má reputação, e com razão. A grande maioria deles ainda é usada para pornografia falsa. Uma jornalista de investigação foi fortemente assediada e temporariamente silenciada por uma deepfake e, mais recentemente, uma poeta e romancista foi aterrorizada e humilhada. Há também o risco da utilização de deepfakes políticos para gerar notícias falsas convincentes, que podem causar estragos em ambientes políticos instáveis.

Mas, à medida que os algoritmos para manipular e sintetizar media se tornaram mais poderosos, também deram origem a usos positivos, bem como humorísticos ou mundanos. Aqui elencamos um resumo de alguns dos nossos favoritos, aproximadamente em ordem cronológica, e por que pensamos que são um sinal do que está por vir.

Proteção de denunciantes

TEUS MEDIA

Em junho, Bem-vindo à Chechênia, um filme de investigação sobre a perseguição de indivíduos LGBTQ na república russa, tornou-se o primeiro documentário a usar deepfakes para proteger a identidade dos seus participantes. Os ativistas que lutavam contra a perseguição, os protagonistas da história, viviam escondidos para evitarem ser torturados ou mortos. Depois de explorar muitos métodos para esconder as suas identidades, o diretor David France decidiu dar-lhes “disfarces” deepfakes. Pediu a outros ativistas LGBTQ de todo o mundo para emprestar os seus rostos, que foram então sobrepostos aos rostos das pessoas no seu filme. A técnica permitiu que France preservasse a integridade das expressões faciais dos seus entrevistados e, portanto, a sua dor, medo e humanidade. No total, o filme protegeu 23 indivíduos, criando uma nova forma de proteção aos denunciantes.

História Revisionista

PANETTA E BURGUND

Em julho, dois investigadores do MIT, Francesca Panetta e Halsey Burgund, lançaram um projeto para criar uma história alternativa da aterragem da nave Apollo na Lua, em 1969. Chamado In Event of Moon Disaster, ou em tradução livre Em Caso de Desastre Lunar, usa o discurso que o presidente Richard Nixon teria proferido se essa importante ocasião não tivesse ocorrido de acordo com o planeado. Os investigadores fizeram uma parceria com duas empresas distintas para áudio e vídeo deepfake e contrataram um ator para fornecer a performance “base”. Então, usaram o seu rosto e voz em dois tipos de software e juntaram-nos para criar um Nixon deepfake.

Embora este projeto demonstre como os deepfakes podem criar histórias alternativas poderosas, outro sugere como podem dar vida à história real. Em fevereiro, a revista Time fez uma recriação da marcha de Martin Luther King Jr, em Washington, em realidade virtual, para inserir os espectadores na cena. O projeto não usava tecnologia deepfake, mas a gigante chinesa de tecnologia Tencent posteriormente citou-o num livro branco sobre os seus planos para IA, dizendo que deepfakes poderiam ser usados ​​para fins semelhantes no futuro.

Memes

No final do verão, o mundo dos memes teve acesso a deepfakes fáceis de fazer e lançou os resultados no universo digital. Um meme viral em particular, chamado “Baka Mitai”, cresceu rapidamente conforme as pessoas aprenderam a usar a tecnologia para criar as suas próprias versões. O algoritmo específico que alimentou essa febre veio de um artigo de pesquisa de 2019, que permite ao utilizador animar uma foto do rosto de uma pessoa com um vídeo de outra. O efeito não poderia ser considerado de alta qualidade de forma nenhuma, mas com certeza produz diversão de qualidade. O fenómeno não é totalmente surpreendente; brincadeiras e paródias têm sido uma força motriz na popularização de deepfakes e outras ferramentas de manipulação de media. É por isso que alguns especialistas enfatizam a necessidade de limites para evitar que a sátira se transforme em abuso.

Anúncios desportivos

Agendas lotadas tornam difícil juntar estrelas do desporto na mesma sala, mesmo nos melhores dias. No meio de uma quarentena, é impossível. Então, para filmar um anúncio em Los Angeles com pessoas em quarentena espalhadas pelo país, a única opção é usar alguns truques. Em agosto, o site de streaming Hulu exibiu um anúncio para promover o regresso da transmissão de desportos ao seu serviço, protagonizado pelo jogador da NBA Damian Lillard, pela jogadora da WNBA Skylar Diggins-Smith e pelo jogador de hóquei canadiano Sidney Crosby. Vemos essas estrelas a deixar de assar pães e a voltar ao desporto, com as suas bolas de basquete e tacos de hóquei na mão. Só que não: os rostos dessas estrelas foram sobrepostos em duplos, utilizando tecnologia deepfake. O algoritmo foi treinado com filmagens dos jogadores capturadas no Zoom. Truques de computador têm sido usados ​​para criar esse tipo de falsificação há anos, mas as deepfakes tornam o processo mais fácil e barato do que nunca, e este ano de atividades remotas deu um impulso à tecnologia. O Hulu não foi o único. Outros anunciantes, incluindo a ESPN, também realizaram experiências com o uso de deepfakes.

Campanhas políticas

Em setembro, durante os preparativos para as eleições presidenciais nos EUA, o grupo ativista apartidário RepresentUs lançou dois anúncios deepfake. Apresentavam versões falsas do presidente russo Vladimir Putin e do líder norte-coreano Kim Jong-un com a mesma mensagem: nenhum dos dois precisava de interferir nas eleições dos EUA, porque arruinariam a sua democracia por si sós. Este não foi o primeiro uso de deepfakes durante uma campanha política. Em fevereiro, o político indiano Manoj Tiwari usou deepfakes num vídeo de campanha para criar a ilusão de que estava falando Haryanvi, o dialeto hindi falado pelos seus eleitores-alvo. Mas o RepresentUs inverteu a narrativa típica sobre deepfakes políticos de maneira notável. Embora os especialistas se preocupem muitas vezes com a capacidade que essa tecnologia possui para causar confusão e atrapalhar eleições, o grupo procurou fazer exatamente o oposto: aumentar a conscientização sobre a repressão de eleitores para proteger o direito ao voto e aumentar a participação política.

Programas de televisão

Se anúncios deepfake e golpes de publicidade estão a começar a parecer familiares, pode acreditar que os criadores de South Park os levam a extremos. Em outubro, Trey Parker e Matt Stone estrearam a sua nova criação, Sassy Justice, o primeiro programa de TV deepfake. O programa satírico semanal gira em torno do personagem Sassy Justice, um repórter de notícias locais com o rosto deepfake de Donald Trump. Sassy entrevista figuras deepfake como Jared Kushner (com o rosto de Kushner sobreposto ao de uma criança) e Al Gore. Com Sassy Justice, os deepfakes foram além de um truque de marketing ou de uma intenção maliciosa para atingir a cultura popular. Não só a tecnologia de deepfakes é usada para criar as personagens, mas é o próprio assunto da sátira. No primeiro episódio, Sassy “Trump” Justice, interpretando um advogado de defesa do consumidor, investiga a verdade por trás de “notícias deepfake”.

Nossos tópicos