Agora tudo é mentira

Com o acesso facilitado a ferrramentas de Inteligência Artificial, temos que desconfiar até do que temos certeza que é real

Há muito tempo se fala de inteligência artificial mas costumava ser algo mais trabalhoso e acessível a poucos. O Bruno Sartori ficou famoso com sátiras em vídeo fazendo deepfake, mas é muito complicado.

Precisava de softwares específicos, a curva de aprendizado é alta, precisa alimentar com conteúdo para depois recriar, tem que ter uma máquina potente, muitos passos para um curioso qualquer.

Um ano atrás, já tinha um ator que fazia deepfakes dele como se fosse o Tom Cruise. E ele mesmo dizia que essa tecnologia ainda estava engatinhando.

Mas a tecnologia não engatinhou, ela voou!

Só que, hoje, qualquer um consegue criar uma imagem que pode enganar todo mundo. Em questão de segundos, sem nenhum conhecimento prévio, só escrevendo o que quer numa ferramenta que você pode testar de graça. E pode até fazer isso pelo telefone.

Essa é uma foto que seria o ponto de vista do Chris Rock, quando levou o tapa do Will Smith, no meio do Oscar.

Para criar essa imagem bastou uma conta no Midjourney, que tem teste gratuito, e escrever no campo de criação de imagem:

GoPro view of Will Smith wearing a tuxedo slapping the camera forcefully, Oscars award ceremony in the background, fine art cinematic portrait photography, ultra hyper-realism, dramatic lighting, action photograph

A foto do Will Smith é da quinta versão do Midjourney. Que, em um ano, passou por essas quatro versões até chegar na atual, que criou a imagem acima.

A V4 já dava uma sensação de espanto, por ter um resultado tão perto da realidade. Mas ainda tinha uma “cara de Midjourney”. Já a atual V5, acabou com o vale da estranheza e chegou a um ponto de enganar facilmente a maioria das pessoas. Em algo que você fez com uma descrição em uma ferramenta acessível a qualquer um.

Sabe um deepfake como aqueles que o especialista disse estarem engatinhando um ano atrás? Já tem tutorial pra criar um em 8 minutos com poucos dólares. Isso partindo de apenas uma foto e 60 segundos de áudio.

É divertido para brincar mas, nos últimos dias, tivemos algumas imagens muito compartilhadas com pessoas achando que eram reais.

Alguém fez uma imagem do Papa usando um casaco de marca e MUITA gente levou a sério. Algo até lúdico, que não faria muita diferença, se fosse real.

Enganou tão bem que saiu matéria na Vogue, já apagada, com o estilista do Papa.

Já em outro caso, um cara resolveu criar algumas imagens do Trump sendo preso, seguindo um boato e muita gente levou a sério.

Aí já mostra um dos problemas dessa facilidade toda. É MUITO fácil criar esse tipo de imagem. Inclusive em volume, como você pode ver na thread que o Eliot criou com várias fotos. Isso é muito grave porque cria fake news muito mais críveis que aquelas mensagens de WhatsApp. Que enganam até quem não costuma cair em boatos. Afinal, tá ali e os olhos estão vendo.

Eu já tinha levantado essa bola (3 meses atrás) quando saíram as fotos da Grande Praga Azul, que assolou a Rússia, nos anos 70.

Você certamente não lembra dela, até porque nunca aconteceu de verdade. Mas com o Midjourney V4 vosê já conseguia fazer imagens bem realistas de fotos antigas, já que tinha uma qualidade pior. Era um problema de tentar reescrever a história, que é perigoso, mas não é imediato.

Agora a gente consegue fotos realistas de um ex presidente sendo preso que qualquer um pode fazer. E que geram reações imediatas. Pode gerar grandes confusões muito antes de alguém poder investigar se é real.

A minha intençao era parar por aqui com um pensamento otimista, dizendo que é tão fácil fazer fotos, áudios e vídeos falsos que eu acho que vai chegar num momento onde as pessoas já vão partir da desconfiança e só vão levar a sério quando tiverem uma confirmação de alguma fonte relevante, como uma agência checadora de fatos ou a imprensa.

Mas aí o Léo Faria me mandou o tweet de uma matéria sobre um acidente que foi ilustrada com o Midjourney.

E dentro da matéria não tem nem essa mesma imagem. Foi só pra chamar atenção no Twitter mesmo.

Apesar de ter “cara” de Midjourney, pra quem tá acostumado com a ferramenta, ela é bem realista pra qualquer desavisado achar que é uma foto real do acidente. Aí o problema é ainda mais grave, se até jornalistas estão criando imagens fictícias, sem deixar claro, para ilustrar matérias, não dá pra confiar nem em quem é responsável por trazer as informações confiáveis.

Ainda sou otimista achando que vai acontecer uma desssensibilização que vai fazer todos desconfiarem mais de tudo. Mas, pelo visto, vai demorar mais tempo para as fontes confiáveis serem confiáveis de verdade.