Como tornou-se possível hackear a realidade, manipulando-a de forma tão crível. As implicações dramáticas na política: pode haver debate público em meio a múltiplos mundos paralelos? Como a ultradireita planeja criar um caos cognitivo.
Por Tomás Ansorena, traduzido por Simone Paz ao site Outras Palavras
Em menos de seis anos, o desenvolvimento da inteligência artificial tornou possível que quase qualquer um pudesse criar imagens falsas indistinguíveis da realidade. Do negócio pornográfico ao golpe no Gabão, a Internet dissemina essa nova ameaça fantasma: a de nunca mais sabermos o que é verdade.
Nas últimas eleições legislativas em Nova Déli, o candidato Manoj Tiwari surpreendeu seus eleitores com um vídeo falando em hindi, outro em inglês e outro em haryanvi. Antes de se tornar a figura principal do Partido Popular Indiano (BJP, na sigla em hindi) na capital do país, Tiwari foi ator, cantor popular e estrela de um reality show, mas ninguém desconfiava que ele falasse inglês (capital muito valorizado nas classes urbanas), e muito menos o dialeto da região de Haryana.
Alguns dias depois, a verdade foi descoberta: uma agência publicitária propôs ao BJP — mesmo partido do primeiro-ministro Narendra Modi — expandir a oferta eleitoral utilizando inteligência artificial para criar deep-fakes de Tiwari. Com gravações anteriores e software de última geração, puseram em sua boca palavras que ele desconhecia e levaram sua mensagem por WhatsApp para eleitores fora de seus núcleos de apoio. Não é a primeira vez que um candidato altera ou atua com sua voz para abordar novos cidadãos. Nem é o primeiro a usar inteligência artificial na política. Mas, até onde sabemos, é a primeira vez que um candidato transforma seu próprio corpo e voz usando deep learning para melhorar seu desempenho.
A deep-fake surgiu, pela primeira vez, em 2017: ano crucial no boom das fake news. O usuário do Reddit de nome /r/deepfakes postou suas primeiras criações pornográficas usando algoritmos e bancos de imagens gratuitas, com resultados surpreendentes. Em sintonia com o surgimento do TikTok e dos aplicativos de envelhecimento ou rejuvenescimento facial, a técnica desse usuário anônimo se tornou popular e logo o primeiro aplicativo aberto apareceu para incorporar qualquer rosto a algum vídeo já existente.
Desde Bolsonaro como o Chapolin Colorado, até Cristina Kirchner como a drag queen Ru Paul, a Internet ficou cheia de vídeos com fins principalmente humorísticos, embora a grande maioria ainda seja pornográfica. O mais notável, três anos após o seu aparecimento, é a melhoria da sua qualidade. Em agosto, um fã postou sua própria versão das cenas do jovem Robert De Niro no The Irishman. A comparação entre o trabalho de CGI (imagens geradas por computação gráfica) da Netflix e a deep-fake deste usuário do YouTube — e os milhões de dólares de diferença — dão a diretriz da acessibilidade e eficácia em potencial desta ferramenta.
Para essas criações, é usado um autocoder, que cria uma imagem latente com apenas algumas variáveis (padrões de sorriso, de testa franzida, etc.) e acrescenta mais algumas variáveis à imagem final (os mesmos gestos com outro rosto, ou o mesmo rosto com outro discurso, por exemplo). Mas não se trata só de imagens estáticas ou em movimento, também estamos falando de som.
O falso furo de reportagem, baseado em um áudio viral, sobre a suposta mudança de Lionel Messi para o Manchester City poderia ter acontecido mesmo sem um imitador talentoso. O áudio poderia muito bem ter sido criado com um software como o usado pelo Boston Children’s Hospital para recriar as vozes daqueles que perderam a fala. Em setembro, ficamos sabendo do primeiro grande golpe da deep-fake: de acordo com o Wall Street Journal, o CEO de uma empresa inglesa transferiu 220 mil euros, atendendo as ordens de um software que imitava a voz de seu chefe alemão.
A mera existência dessa tecnologia não só possibilita a criação de fakes — com consequências políticas e sociais inusitadas — como também destitui a realidade de seu status: se o que realmente existe pode ser adulterado ou inventado diretamente, todos têm o direito à desconfiança. Como contou Rob Toews na Revista Forbes, o exemplo mais paradigmático desse problema ocorreu no Gabão. Por muitos meses, em 2018, seu presidente, Ali Bongo, não apareceu publicamente. Rumores sobre sua saúde, e até mesmo a suspeita de que ele havia morrido, forçaram o governo a revelar que Bongo sofreu um AVC, mas que estava se recuperando e que faria um discurso no Ano Novo. Os movimentos rígidos e aparentemente artificiais do líder na mensagem gravada despertaram rapidamente a psicose da oposição: o vídeo é falso, exclamaram. Uma semana depois, baseados na suposta acefalia do governo, uma fração do Exército quis dar um golpe no Gabão, mas foi reprimido… pelo próprio Bongo, que continua a liderar o governo. O vídeo não tinha sido falsificado.
Nenhum comentário:
Postar um comentário