Demoramos 13 milissegundos a processar uma imagem. Se a observarmos durante mais tempo, poderemos descobrir coisas surpreendentes. Saiba como usar os seus instintos naturais para descobrir se uma fotografia foi gerada através de inteligência artificial ou não.

As fotografias falsas estão a ficar mais realistas dia após dia. Actualmente, qualquer pessoa consegue aceder a um programa online como o Midjourney ou o DALL·E e criar e imagens artificiais ou manipuladas sem grande esforço.

A boa notícia é que os seres humanos têm um instinto natural para as distinguir, segundo Siwei Lyu, professor de ciência informática e engenharia da Universidade de Buffalo. Lyu pertence a um grupo de investigadores que está a enfrentar a Inteligência Artificial (IA) utilizando a própria IA – descobriram que a melhor maneira de ensinar uma inteligência artificial a descobrir imagens sintéticas é mostrando-lhe como os seres humanos o fazem.

Há muito que lidamos com imagens falsificadas. A manipulação da imagem existe há quase tanto tempo como a própria fotografia. Vejamos, por exemplo, esta fotografia de 1860, com a cabeça de Abraham Lincoln inserida no corpo de outro homem – foi necessário muito trabalho e perícia para a tornar convincente.

Aquilo que mudou foi a facilidade com que alguém sem conhecimentos consegue criar algo que parece genuíno – resultando num volume intimidante de imagens sintéticas. Lyu diz-nos para não entrarmos em pânico.

Identificar uma falsificação

O primeiro passo é abrandar. Somos inundados com informação todos os dias e só demoramos 13 milissegundos a processar cada imagem. Isso pode ser suficiente para registar aquilo que é, mas não é tempo suficiente para perceber se é real. Uma imagem surpreende-nos quando contradiz aquilo que sabemos ser verdade, por isso não ignore esse instinto.

Identificar uma fotografia falsa

Esta é uma fotografia real de uma chita captada pelo fotógrafo Frans Lanting na Namíbia — tal como a que se encontra no topo deste artigo. Acertou?

Identificar uma fotografia falsa

Esta imagem gerada por IA foi produzida com o DALL·E 2, através do comando “uma fotografia de uma chita em África ao estilo da National Geographic”. A IA tende a ter dificuldades em criar olhos que pareçam reais e também se debate com a física da luz, incluindo os reflexos.

“Na próxima vez que virmos algo interessante ou divertido, espero que façamos uma pequena pausa para pensar nisso”, diz Lyu. “Se suspeitarmos que algo está errado, não devemos fazer retweet imediatamente — para travarmos o problema em vez de fazermos parte dele.

Os programas de IA são treinados para criar imagens realistas observando um grande volume de imagens reais. Aquilo a que Lyu chama o seu “calcanhar de Aquiles” é que estes programas só sabem aquilo que lhes foi dado – e não sabem quais os pormenores a que devem prestar atenção. Isto gera “artefactos”, ou problemas na imagem, que se tornam óbvios quando a observamos mais de perto. Por exemplo, as pessoas em vídeos deepfake raramente pestanejam porque a IA é frequentemente treinada com imagens de pessoas com os olhos abertos.

De manga enrugada a carne

“Os indícios reveladores costumam espreitar pelas costuras”, diz Paulo Ordoveza, web developer e especialista em verificação de imagem responsável pela conta de Twitter Twitter @picpedant, onde expõe posts virais falsos. Isso pode incluir algo como “uma manga enrugada que se vai transformando gradualmente em carne” sem uma diferenciação evidente. Ordoveza também diz que devemos estar atentos a “comportamentos estranhos em fios de cabelo, óculos, acessórios para a cabeça, jóias e planos de fundo” pela mesma razão.

Se houver uma pessoa numa imagem, Lyu recomenda que observemos as suas mãos e olhos.

Os programas actuais de IA não são bons a produzir mãos realistas – podem ter seis dedos, os dedos todos do mesmo tamanho ou mostrá-los numa posição estranha. Em Março, uma imagem gerada através de IA do Papa Francisco vestido com um casaco acolchoado (puffer) Balenciaga tornou-se viral. Se examinar bem a sua mão, verá que ele está a segurar o café pela tampa – uma forma estranha de o fazer, mesmo que o copo estivesse vazio.

E os olhos? Os seres humanos são muito sensíveis a características minúsculas do rosto. Utilizando monitorizadores de olhos, é possível ver que, quando olhamos para alguém, vamos alternando entre um dos seus olhos e o outro para obtermos informação. É uma capacidade evolutiva, segundo David Matsumoto, professor de Psicologia da Universidade Estadual de São Francisco e especialista em microexpressões. Ele diz que é assim que distinguimos amigos de inimigos e avaliamos o estado emocional das pessoas que encontramos. Temos de fazer essas avaliações depressa para decidir como reagir ou, se necessário, fugir.

Os seres humanos têm quase sempre pupilas circulares, mas a IA gera frequentemente sombras com formatos estranhos no centro do olho. A luz reflectida pelos olhos também deve encontrar-se no mesmo sítio em cada olho, algo que a IA tem dificuldades em fazer.

A IA tem dificuldades em reproduzir a luz e a sombra em geral. Se houver uma janela ou superfície reflectora na imagem, poderá haver luz ou sombra onde não deveria haver. Isto faz parte de um problema maior que a IA tem com as leis da física como a gravidade.

Muitas imagens sintéticas também têm uma suavidade não natural onde deveria haver textura e mostrar curvas em coisas que deveriam ser direitas. Na imagem gerada por IA do Papa, o seu fio parece ter contornos curvos e está a pairar ligeiramente sobre o seu peito (ignorando a gravidade).

Ferramentas para nos ajudar

Todos estes “indícios reveladores” da informação gerada através de IA têm uma desvantagem: Hany Farid, professor da Universidade da Califórnia, em Berkeley, que se dedica à análise forense de media explica: “Aquilo que lhe digo hoje não vai funcionar daqui a um mês. A realidade é que o espaço se mexe muito, muito depressa. Não podemos depender apenas do nosso sistema visual”.

Em vez disso, um método muito mais pragmático e com mais longevidade é duvidar em geral, questionar as fontes e verificar a veracidade da informação, diz.

Uma ferramenta fácil de usar é a pesquisa reversa de imagem do Google, para a qual pode carregar uma imagem e ver se existem conversas sobre a sua criação. Isto funciona para uma imagem de grande circulação, como a do Papa, mas pode não ser útil com criações singulares ou menos desconhecidas.

Nesses casos, empresas como a Reality Defender disponibilizam serviços de detecção baseados em IA às empresas mediante uma subscrição. Estas empresas estão a fazer uma “investigação robusta” de métodos como marcas de água avançadas, afirma Daniela Rus, directora do Computer Science and Artificial Intelligence Laboratory (CSAIL) do MIT. “Estas técnicas sofisticadas têm vindo a revelar-se eficazes”, acrescenta.

Farid diz que os criadores de IA deveriam ser obrigados a colocar algum tipo de marca de água ou impressão digital que identificasse os seus conteúdos como gerados por computador – principalmente depois de serem partilhados online. Por exemplo, a fotografia do papa foi originalmente partilhada numa comunidade de criadores de IA, sem a intenção de enganar ninguém – mas rapidamente se espalhou até todos os cantos da Internet, sem se conhecer o seu (importante) contexto original.

“É evidente o que vai acontecer quando permitirmos que as pessoas criem áudios, vídeos e imagens muito sofisticados. As pessoas vão fazer coisas erradas com elas”, afirma. “Essas empresas dizerem ‘bem, não nos podem culpar, nós só fazemos a tecnologia’, é um argumento que não me convence”, conclui Hany Farid.

De momento, existem poucos recursos para identificar conteúdos gerados através de IA – e não são muito fiáveis. Siwei Lyu e a sua equipa desenvolveram um programa online gratuito chamado DeepFake-o-meter, mas não está actualmente disponível para o público.

Parte do problema, diz Lyu, é que os investidores estão a financiar as criações de IA, mas não as contramedidas de IA. “O nosso lado do trabalho recebe muito menos atenção. E estamos, basicamente, a ficar sem recursos”, diz Lyu. Ao contrário dos programas para criar deep-fakes, “nós não geramos rendimentos directamente. Estamos a tentar impedir que as pessoas sofram prejuízos financeiros ou sejam induzidas em erro a nível psicológico”.

À medida que a IA continua a avançar, Lyu diz que vamos precisar de mais programas de detecção de IA online gratuitos e outras ferramentas capazes de revelarem assinaturas de IA que não sejam visíveis a olho nu, da mesma forma que um equipamento de raios X revela o interior do corpo. Os programas deste género já existentes requerem conhecimentos e nem sempre são gratuitos ou baratos.

Apesar disso, mesmo sem estes recursos, pode começar a procurar imagens geradas por IA já hoje, usando apenas a sua atenção – verifique antes de acreditar naquilo que vê.

Artigo publicado originalmente em inglês em nationalgeographic.com

Mais Sobre...
Actualidade