Seja um robô que parece inquietantemente humano ou um chatbot a declarar o seu amor a um jornalista, a inteligência artificial (IA) está a assustar as pessoas. Quando uma IA começa a comportar-se ou a parecer-se demasiado com um ser humano e nos provoca arrepios na espinha, poderemos estar a experienciar o fenómeno do uncanny valley (vale da estranheza, em português).
Embora este conceito exista há meio século, os cientistas ainda discutem a razão pela qual as pessoas fabricadas nos causam tanto desconforto. As teorias variam desde o nosso instinto para evitar a doença à percepção de uma ameaça à nossa ideia de humanidade.
Entretanto, especialistas em robótica e investigadores de IA estão a trabalhar arduamente para atravessar este “vale de estranheza” na esperança de trazer os robôs sociais para a vida do quotidiano. No futuro, robôs e IA poderão servir à mesa, cuidar de idosos ensinar crianças a ler ou simular pacientes nas faculdades de medicina. A forma como os robôs atravessarem o vale – e se conseguirão fazê-lo – poderá ter um grande impacto na forma como interagiremos com eles no futuro.
O que é o vale da estranheza?
O conceito de uncanny valley, que pode ser traduzido como vale da estranheza, foi cunhado pelo especialista em robótica Masahiro Mori em 1970. Mori propôs num ensaio que os robôs se tornam mais agradáveis à medida que adquirem qualidades humanas (como o WALL-E, por exemplo). No entanto, quando se tornam demasiado semelhantes aos seres humanos (ou seja, quando se aproximam do vale), começam a tornar-se assustadores. Mais tarde, quando se tornam praticamente indistinguíveis dos seres humanos, voltam a ser agradáveis.
As teorias de Mori foram baseadas na sua experiência pessoal, mas têm sido altamente influentes, afirma o especialista em robótica Karl MacDorman, vice-director da Indiana University School of Informatics and Computing e tradutor do ensaio de Mori publicado em 1970. No entanto, a opinião dos cientistas sobre o vale da estranheza de Mori não tem sido unânime, que crêem que este deveria ser considerado heurístico e não uma regra rígida, diz MacDorman.
Ao longo dos anos, os investigadores têm descoberto vales de estranheza por todo o lado. Existe um vale para vozes humanas e sintéticas, um para animais robóticos e até um para casas.
MAX AGUILERA-HELLWEG / NAT GEO IMAGE COLLECTION
Os robôs humanóides como este, fotografado em Dallas em 2010, não são as únicas coisas que podem despertar uma sensação de estranheza. Conseguimos detectar algo de errado mesmo que o estímulo seja mais conceptual, como uma conversa com IA.
Observando o vale da estranheza
Num estudo recente, MacDorman e o psicólogo cognitivo Alex Diel obtiveram um grande apoio para uma teoria denominada processamento configuracional, a qual defende que as reacções de estranheza são causadas pela nossa sensibilidade ao posicionamento e tamanho das feições humanas. Segundo outra teoria relacionada, conhecida como discrepância cognitiva, sentimos desconforto quando detectamos características incompatíveis como olhos realistas, mas pele irrealista. Esta incongruência específica é um problema comum nas imagens de IA geradas por difusão estável.
Do ponto de vista evolutivo, estas sensibilidades podem despertar o nosso instinto para evitar potenciais ameaças. Diel explica que poderemos considerar as imperfeições de uma réplica humana como um sinal de ela estar fisicamente doente ou ser uma potencial fonte de doença contagiosa – e isso activa a nossa reacção de expulsa. A teoria da selecção de parceiros é semelhante: propõe que sentimos aversão por robôs humanóides porque o nosso instinto nos diz que as suas imperfeições demonstram que não seriam bons parceiros. Outra teoria defende que os agentes artificiais nos inquietam porque parecem ter ganho vida de uma forma não natural, como se fossem zombies, fazendo-nos pensar na nossa própria morte.

Algumas explicações cognitivas para o fenómeno do vale da estranheza incluem a ideia de atribuirmos qualidades ou uma mente humanas a pessoas artificiais e de isso poder causar dissonância cognitiva e confusão, uma vez que não sabemos se devemos tratá-las como seres humanos ou confiar que se comportem como tal.
Mais recentemente, evidências sugeriram que os seres artificiais são inquietantes porque põem à prova as nossas crenças sobre a singularidade da capacidade humana, como o raciocínio, a lógica e as emoções. Num estudo recente, os participantes relataram que as interacções com andróides humanóides os fizeram questionar-se sobre o que significa ser humano. Dawid Ratajzyc, professor da Adam Mickiewicz University e responsável pelo estudo, diz que “talvez os robôs nos possam dizer mais sobre nós próprios do que sobre os robôs”.
MAX AGUILERA-HELLWEG / NAT GEO IMAGE COLLECTION
Um robô de 2010 foi concebido para se comportar como uma criança, aprendendo através de observação e interacção com seres humanos em Osaka, no Japão.
Arrepio conceptual
Um famoso vídeo de 1988 mostra um bebé criado através de CGI (Interface Comum de Ligação) a brincar com brinquedos. MacDorman diz que é um excelente exemplo do vale da estranheza, explicando que a sensação que um espectador tem “é muito visceral, automática e não-controlada”. Ele distingue esta reacção da que poderemos ter quando conversamos com um chatbot, pois isso implica raciocínio e deliberação. “Não acho que a teoria do vale da estranheza, tal como definida por Mitsuhiro Mori, se aplique neste caso.”
No entanto, Ratajzyc acha que é a mesma coisa. Com efeito, ele pensa que qualquer agente artificial, seja um robô ou um chatbot pode despertar reacções de estranheza, referindo-se a um estudo recente que mostrou que os chatbots de texto simples parecem menos assustadores do que aqueles com um avatar virtual humanóide que “conversam” com o utilizador – e, quanto mais humano o avatar parecer, mais repulsivo o chatbot se torna.
Existem algumas evidências fornecidas por estudos de imagiologia cerebral que demonstram que estes dois tipos de interacção – respostas automáticas sensoriais versus interacções que implicam raciocínio e deliberação – usam partes diferentes do cérebro e que poderemos utilizar partes mais analíticas do cérebro em interacções sociais com robôs do que com seres humanos.
Será que gerações diferentes têm sentimentos diferentes pela IA?
Nadine, o robô social, pode cumprimentar uma pessoa e recordar-se das conversas que teve com ela. Foi apresentada ao mundo há quase sete anos e tem estado a trabalhar numa companhia de seguros em Singapura. Desde Fevereiro deste ano, 100 milhões de pessoas utilizaram o ChatGPT. Será que tudo isto se vai tornar menos estranho à medida que formos interagindo mais com andróides e IA e o seu realismo melhorar?
É difícil dizer, afirma Bilge Mutlu, professor de ciência da computação da Universidade de Wisconsin Madison. Embora os investigadores esperem que as reacções de estranheza possam diminuir com o aumento da exposição, Mutlu diz que o seu próprio sentimento só se agravou.
MacDorman também acha que poderá existir um factor geracional. Ele recorda que, em 2020, aquando da apresentação do Geminoid H1, o andróide que o engenheiro robótico Hiroshi Ishiguro criou inspirado em si próprio, um homem idoso entrou na sala e perguntou-lhe onde estava o andróide – que estava mesmo ao seu lado.
MAX AGUILERA-HELLWEG / NAT GEO IMAGE COLLECTION
Um robô de 2010 foi concebido para se comportar como uma criança, aprendendo através de observação e interacção com seres humanos em Osaka, no Japão.
O que significa isto para o futuro das interacções entre seres humanos e robôs?
Mori tinha uma solução simples para evitar a estranheza: não construir robôs semelhantes a seres humanos. Contudo, muitos especialistas em robótica da actualidade, como MacDorman, não estão satisfeitos com essa solução e pretendem tornar os robôs mais parecidos com os seres humanos, em termos de aparência e acções, de modo a levantar questões fundamentais sobre o ser humano e integrar os robôs o mais imperceptivelmente possível na vida humana.
No entanto, isso acarreta questões éticas: quão humano deverá ser um robô não humano? Deverão as pessoas saber que estão a interagir com um agente artificial e quanta informação deverá a inteligência artificial ter sobre nós?
Mutlu acha que os robôs não têm todos de se parecerem e comportarem exactamente como seres humanos. Deveríamos pensar cuidadosamente sobre os fins para os quais usamos agentes artificiais e desenhá-los em conformidade, afirma.
Também não precisamos que tomem decisões importantes que podemos tomar sozinhos, acrescenta. Neste momento, já estamos a recorrer à inteligência artificial para tomar decisões sobre queixas apresentadas a seguradoras e se pessoas devem ou não ser condenadas a penas de prisão. Ele espera que os especialistas em robótica e os investigadores de inteligência artificial se concentrem mais em criar ajudantes que restaurem ou excedam a capacidade humana.