Enquanto a expressão 'Quatro Cavaleiros do Infocalipse' tem sido usada há muito tempo na internet para se referir a criminosos como traficantes de drogas, lavadores de dinheiro, pedófilos e terroristas, o termo 'Infocalipse' foi trazido para o mainstream recentemente pelo MIT grad Aviv Ovadya, que atualmente trabalha como Tecnólogo-chefe no Centro de Responsabilidade em Mídias Sociais (UMSI). Em 2016, no auge da crise das notícias falsas, Ovadya expressou preocupação aos tecnólogos no Vale do Silício sobre a disseminação de desinformação e propaganda disfarçada de notícias reais em uma apresentação intitulada 'Infocalypse'.
De acordo com sua apresentação, plataformas de internet como Google, Facebook e Twitter geram suas receitas, todas voltadas para recompensar cliques, compartilhamentos e visualizações, ao invés de priorizar a qualidade da informação. Isso, ele argumentou, seria um problema real mais cedo ou mais tarde, dada a facilidade com que se tornou postar o que quer que alguém queira sem nenhum filtro. Com as principais empresas de internet ignorando suas preocupações, Ovadya descreveu a situação como “Carro cambaleando fora de controle” que todos simplesmente ignoraram.
Embora suas previsões tenham agora provado ser assustadoramente precisas, há mais más notícias para aqueles preocupados com a indefinição dos limites entre a verdade e a propaganda com motivação política. Segundo ele, a IA será amplamente utilizada nas próximas décadas para campanhas de desinformação e propaganda. Para impedir esse futuro distópico, Ovadya está trabalhando em conjunto com um grupo de pesquisadores e acadêmicos para ver o que pode ser feito para prevenir um apocalipse de informação.
Um desses aspectos são os deepfakes ou vídeos gerados por IA de celebridades transformados em outros vídeos, principalmente pornôs. O Reddit baniu recentemente pelo menos dois subreddits chamados 'r / deepfakes' e 'r / deepfakesNSFW', que já tinham milhares de membros, e estavam distribuindo vídeos pornográficos falsos de várias celebridades, como Taylor Swift, Meghan Markle e similares. Outras plataformas, como Discord, Gyfcat, Pornhub e Twitter, entretanto, também baniram pornografia de troca facial não consensual em suas plataformas.
Além da violação da privacidade individual, Ovadya diz que esses vídeos podem ter um efeito desestabilizador no mundo, se usados para ganhos políticos. Eles podem “criar a crença de que um evento ocorreu” para influenciar a geopolítica e a economia. Tudo que você precisa é alimentar a IA com o máximo possível de imagens de um político alvo e transformá-las em outro vídeo dizendo coisas potencialmente prejudiciais.
A única esperança, no entanto, é que as pessoas estão finalmente admitindo que erraram em bloquear a ameaça de notícias falsas há dois anos. De acordo com Ovadya, “No começo era muito sombrio - poucos ouviam. Mas os últimos meses foram realmente promissores. Alguns dos freios e contrapesos estão começando a se encaixar ”. Embora seja certamente positivo que os tecnólogos estejam procurando resolver um problema que deve piorar nos próximos anos, será interessante ver o quão bem eles estarão preparados para a guerra de informação que se aproxima quando finalmente formos apresentados ao pior cenário , dado que, “Muitos dos sinais de alerta já aconteceram”, de acordo com Ovadya.