Quem está na internet já deveria saber: nem tudo que está na rede é real – e é bom ter sempre um pé atrás com o que surge na tela. Mas uma nova onda tecnológica promete nublar ainda mais a noção de verdadeiro e falso no mundo digital: algoritmos de inteligência artificial (IA) estão sendo usados para criar fotos e vídeos bastante realistas de rostos humanos. Há um detalhe: são rostos de pessoas que não existem. Assim, depois das fake news (notícias falsas), a internet caminha para a era das fake faces (rostos falsos). 

A princípio a tecnologia foi criada para gerar bancos de imagens para variados fins como publicidade, games, cinema, arte e humor. É um serviço oferecido por diversos sites e startups. O que preocupa, porém, é sua utilização política – algo que, inclusive, já está em prática. 

Em dezembro de 2019, o Facebook removeu cerca de 900 páginas, grupos e contas falsas que postavam conteúdo ligado ao EpochMediaGroup, grupo que defende causas conservadoras nos EUA. Muitas mensagens, com conteúdo duvidoso, demonstravam apoio ao presidente Donald Trump durante o processo de impeachment. Após a remoção, a rede social enviou o material para análise de pesquisadores independentes e descobriu que uma parte dos perfis usava fotos de rostos gerados por IA. 

“O perigo dessa tecnologia é que as pessoas tendem a processar mais facilmente informações que surgem de um perfil que tem um rosto ligado a ele”, afirma Esteban Ponce de Leon, um dos pesquisadores envolvidos na análise. “É uma tecnologia que pode ser muito popular para replicar e amplificar a desinformação.” Em outras palavras, é como se os rostos artificiais ajudassem a legitimar perfis falsos, virando mais uma peça na intrincada construção de redes virtuais de apoio político. 

Passo a passo
Os primeiros algoritmos de IA capazes de criar rostos surgiram em 2014 como resultado do trabalho da equipe liderada pelo pesquisador Ian Goodfellow, do Google. Na época o time estudava a replicação de imagens, sem se dedicar especificamente a retratos de pessoas. Chamados de Generative Adversarial Network (GAN, na sigla em inglês), esses sistemas são compostos por duas redes de algoritmos que disputam para conseguir enganar ou desmascarar o outro lado.

Antes de tudo, as duas redes são alimentadas com milhares de fotos, de algo que se planeja reproduzir – como paisagens ou flores, por exemplo. Daí, começa o desafio: a rede A busca copiar o que vê no banco de imagens, enquanto a rede B compara as criações com o pacote de informações. As imagens que forem consideradas falsas são devolvidas para a rede A, que busca aprimorar seu processo até criar simulações que passem por verdadeiras. É um trabalho semelhante ao de falsificadores de dinheiro e da polícia: o combate força o aprimoramento dos criminosos. 

"Usar as GANs é relativamente fácil. Os códigos estão na internet e é possível instalar pacotes nas máquinas. O maior desafio é coletar imagens e processá-las”, diz Fabio Cozman, professor da Escola Politécnica da Universidade de São Paulo. Dependendo do que se planeja criar e da capacidade do computador dedicado à tarefa, o processo pode demorar semanas. 

É o que ocorre em outra utilização conhecida das GANs: a criação de deepfakes, vídeos nos quais o rosto de uma pessoa é substituído pelo de outra.

Nesses casos, é preciso coletar milhares de imagens do rosto de um único indivíduo, que passa a ser tão bem conhecido pela IA que pode aplicá-lo, sem falhas, ao corpo de outra pessoa. É por isso que pessoas públicas, ou que têm muitas imagens na web, correm mais riscos de aparecer em situações que não viveram, pois há abundância de dados para alimentar as máquinas. Nos Estados Unidos, por exemplo, ficaram famosos vídeos em que o rosto da ex-primeira-dama Michelle Obama aparece no corpo de uma atriz pornô.

Lá fora ou aqui, há o temor de que os deepfakes e fake faces podem ter forte impacto nas eleições deste ano. Desde 2019 congressistas debatem o tema nos EUA. Por aqui, o Estado apurou que o Ministério Público do Distrito Federal e Territórios deve instaurar inquérito civil público sobre deepfakes, buscando entendê-los tecnicamente e propor medidas de contenção para as eleições. As redes sociais estão se preparando para combater essas ameaças: Twitter e Facebook já anunciaram medidas que poderão rotular e remover deepfakes de suas plataformas. Nada ainda foi dito sobre os rostos falsos. 

De qualquer forma, esse será um trabalho difícil, apontam especialistas. “Não estamos prontos para rostos gerados por IA, no sentido de que não há um método para detectá-los. O mais importante, agora, é educar as pessoas”, diz Ohad Fried, pesquisador da Universidade Stanford.

Regulação
Em meio à preocupação, fica a dúvida: é possível coibir o uso dessas tecnologias com regulação? “Precisamos nos adiantar, mas é preciso lembrar que nenhuma tecnologia deve ser criminalizada ou banida”, avalia Mariana Valente, diretora do centro de pesquisa em direito e tecnologia Internet Lab.

“O uso de um rosto artificial pode ser útil para manter o anonimato em locais de situação política complicadas ou ambientes de repressão sexual. E isso por si só não é crime. Ao criminalizar um rosto artificial, podemos remover o direito de expressão”, avalia Mariana.

Hoje, diz a especialista, só existe um caso no qual a lei brasileira tipifica os deepfakes: em situações de “pornografia de vingança”, na qual é feita uma montagem não autorizada de uma pessoa em cena de nudez, há pena de seis meses a um ano de detenção, além de multa. Para Mariana, o uso de rostos artificiais pode ser tipificado em crimes como injúria e difamação, estelionato, crimes de ódio ou eleitorais e falsidade ideológica – neste último caso, o desafio é provar que alguém usou uma foto criada com GAN para obter vantagem. 

Enquanto a tecnologia de detecção não alcança as GANs – e alguns especialistas acreditam que isso nunca acontecerá – e possíveis leis são discutidas, especialistas acreditam que as pessoas precisam primordialmente ser educadas. Entender o contexto e o conteúdo promovido são duas pistas importantes. E vale lembrar: na internet, é sempre bom desconfiar.