Pessoas versus robôs “Para a evolução, não importa se somos felizes”

Roboter
© Comfreak/Pixabay

É permitido usar violência contra robôs humanoides? Quando o primeiro deles exigir direitos civis, será tarde demais, diz o neuroético Thomas Metzinger. Por que robôs humanoides criam “alucinações sociais” em nós, e o que isso causa à nossa psique?

Em hotéis japoneses, robôs humanoides já são usados como porteiros, enquanto empresas norte-americanas criaram recentemente uma nova geração de bonecas sexuais que podem falar e reagir ao toque. Os robôs estão se tornando mais parecidos conosco?

Em áreas nas quais os humanos interagem com máquinas, encontraremos cada vez mais essas interfaces com aparência humana. Embora seja apenas uma pequena faceta da robótica, a tecnologia relacionada a essas interfaces antropomórficas já está hoje bastante avançada. Em laboratório, podemos medir sua cabeça em 20 minutos e, a partir desses dados, criar um avatar fotorrealístico. Podemos fazê-lo acompanhar movimentos com os olhos e dar a ele expressões faciais de emoção. Se roubarmos áudios de seu celular, ele será capaz até de falar como você. Em uma conversa por vídeo, não seria mais possível diferenciar entre seu avatar e você.
 
Há anos você estuda a imagem que o homem tem e projeta de si mesmo. Como neuroético, você vê problemas se a máquina que vende bilhetes de transporte passar em breve a se parecer com um vendedor de carne e osso?

Temo que esses robôs humanoides sirvam, na maioria dos casos, para manipular consumidores.  Afinal, esses robôs irão analisar sua expressão facial e começar a entender: esse consumidor está entediado? O que ele gostaria, na verdade, de ouvir?

QUANDO O COMPUTADOR ENLOUQUECE, GRITAMOS COM ELE

E a máquina pode fazer uso disso?

Temos no nosso cérebro o que se chama de “neurônios espelho”. Quando uma pessoa sorri para você, você imita subliminarmente essa mímica com seus músculos faciais. Isso pode ser usado para influenciar pessoas. Robôs de aparência humana escamoteiam o fato de que estão primariamente comprometidos com os interesses de seus programadores, e não com os nossos. Da mesma forma que os algoritmos do Google, por exemplo, não otimizam seus registros para o bem de seus usuários, e sim para o de seus anunciantes. Mas se você achar instintivamente uma máquina simpática, vai talvez pedir um upgrade, porque ela sorri de uma forma tão contagiosa.
 
Mas sei que estou lidando com um robô.

Talvez não. Robôs humanoides disparam algo dentro de nós que chamo de “alucinações sociais”. Nós, humanos, temos a capacidade de imaginar que estamos lidando com um interlocutor consciente, mesmo que não seja assim. Existem etapas preliminares: crianças e alguns povos frequentemente acreditam que estão frente a uma natureza dotada de alma. Quando nosso computador "buga", gritamos com ele. Outras pessoas amam seus carros e sentem saudade de seus celulares.

Isso soa como uma loucura.

Mas, em termos de evolução, é significativo. Imagine que você está, à noite, em pleno bosque escuro. Há um farfalhar das folhas entre os arbustos. Claro que sobreviveram aqueles que imaginaram dez vezes um predador, e não aqueles que deixaram de prevê-lo uma única vez.  A evolução, em um certo sentido, premiou a paranoia. É por isso que até hoje nós, humanos, temos tão frequentemente medos irracionais. Para a evolução não importa se somos felizes.
 
Roboy Roboy | © Roboy 2.0 – roboy.org No entanto, alguns fabricantes evitam deliberadamente fazer com que seus robôs pareçam humanos. O robô alemão Roboy, por exemplo, parece mais com o Gasparzinho, o fantasma camarada, com sua linda cabeça de criancinha. Se o robô parecer real demais, muita gente vai achá-lo assustador. Pesquisadores chamam essa zona cinzenta de “vale misterioso”. É como um filme de terror. Quando percebemos algo que, na realidade está morto, nos olhando, isso desencadeia medos primitivos em nós.
 
O tema dos robôs tem, na verdade, ocupado os humanos por milênios. Já na “Ilíada”, Hefesto cria servas mecânicas. Como você explica esse fascínio?


Um motivo é certamente o desejo de representar Deus por um momento. E o medo da morte também é um ponto importante. Com o transumanismo, surgiu agora uma nova forma de religião. Ela dispensa Igreja e Deus, mas ainda assim oferece a negação da mortalidade como função essencial. Robôs, e especialmente avatares, sugerem a esperança de que poderemos derrotar a morte continuando a viver em corpos artificiais. Para alguns pesquisadores, seria o auge da carreira se fossem eles os primeiros a desenvolver um robô com inteligência ou mesmo consciência humana.
 
De acordo com um estudo, 90 entre 100 especialistas partem do princípio de que isso vai acontecer por volta de 2070.

Eu não superestimaria tais previsões. Nos anos 1960, as pessoas pensavam que em 20 anos teríamos máquinas tão inteligentes quanto os humanos. Essas declarações são boas para levantar dinheiro para pesquisa, e quando a previsão não se concretiza, o pesquisador não está mais vivo.

OS LIMITES ENTRE O HOMEM E A MÁQUINA ESTÃO SE TORNANDO MAIS FLUIDOS

O que é, afinal, um robô? O que torna os robôs diferentes das máquinas?

Eu definiria isso pelo grau de autonomia. Uma máquina precisa ser iniciada e interrompida por nós. Muitos robôs podem fazer isso sozinhos. E robôs geralmente têm mais flexibilidade que, por exemplo, uma furadeira. Eles podem ser programados.
 
Se a vida é definida como matéria organizada com capacidade de reprodução, robôs programados para construir novos modelos de robôs não seriam então também vida?

Não, porque eles não têm metabolismo. Mas a distinção entre sistemas naturais e artificiais não será talvez tão fácil assim de ser traçada no futuro. Quando, por exemplo, fabricarmos um hardware que não for mais produzido de metal e chips de silício, mas de células geneticamente modificadas. É bastante possível que logo passem a existir sistemas que não são nem artificiais nem naturais.
 
Séries de TV como "Westworld" prevêem que trataremos robôs como escravos. Você também acredita nisso?

É possível. Mas é preciso distinguir claramente entre duas coisas. Faz uma grande diferença se esses sistemas são inteligentes, ou se eles são realmente capazes de sofrer. Seria mesmo possível praticar violência contra Dolores, a androide de Westworld? O problema ético real é que esse tipo de comportamento causaria danos ao modelo que temos de nós próprios.  

Como assim?

É como na realidade virtual. Se atos criminosos se tornarem consumíveis desse jeito, ultrapassaremos facilmente a linha da autotraumatização. Seria uma brutalização.  É muito diferente, por exemplo, ver pornografia violenta bidimensionalmente ou “imersa” em uma experiência tridimensional realista. Ou seja, é bem possível que uma conduta desrespeitosa frente a robôs humanoides leve a um comportamento de maneira geral antissocial. Além disso, a humanidade sempre usou as últimas versões de sistemas técnicos como metáforas de autodescrição.  Quando, em 1650, os primeiros relógios e figuras mecânicas apareceram, Descartes descreveu o corpo humano como uma máquina. Se hoje encontrássemos robôs humanoides por toda parte, caberia perguntar se não nos veríamos mais como autônomos geneticamente determinados, como biorrobôs. Os limites entre o homem e a máquina estão se tornando mais fluidos.

“O QUÊ? UMA MÁQUINA? ESSE É MEU AMIGO!"

Com quais consequências para a vida quotidiana?

Imagine uma geração que cresce brincando com robôs e avatares que parecem tão vivos que a distinção que se faz no cérebro entre vivo e morto, realidade e fantasia, não é mais construída da forma como se dá conosco hoje em dia. Isso não significa necessariamente que essas crianças terão automaticamente menos respeito pela vida. Mas posso imaginar que, em 20 anos, em um debate sobre ética, alguém baterá na mesa e dirá: “Calma, é apenas uma máquina!”. E a resposta será: “O quê? Uma máquina? Esse é meu amigo! Sempre foi!”.
 
Filósofos como Julian Nida-Rümelin reivindicam, em função disso, que não sejam construídos de forma alguma robôs humanoides.

Para uma solução mais diferenciada, deveríamos nos perguntar se não há realmente possibilidades de substituição de humanos que façam sentido. Por exemplo, robôs cuidadores de idosos poderiam fazer com que pessoas com demência não se sentissem sozinhas. É claro que se poderia discutir de novo se isso não seria degradante ou paternalista frente ao paciente.
 
Que limites você traçaria?

Para mim, o ponto decisivo não é a aparência que os robôs têm, mas o quanto eles são conscientes, e se são capazes de sofrer. É por isso que sou terminantemente contrário, em questões de ética de pesquisa, à ideia de equipar máquinas, mesmo que parcialmente apenas, com um modelo autoconsciente, com uma sensação de ego. Sei que isso ainda está em um futuro distante, mas, quando os robôs começarem a demandar direitos civis, será tarde demais. Interromper o fluxo de energia poderia equivaler, nesse caso, a um assassinato. Portanto, peço uma moratória na fenomenologia sintética.
 
Então precisaríamos, em médio prazo, de algo como um código global de ética para a robótica?

Sim. Embora seja perfeitamente claro que os gigantes do setor ignorariam isso, como os Estados Unidos hoje ignoram o Tribunal Penal Internacional. Acho especialmente digno de nota que a maioria das discussões que vêm sendo conduzidas atualmente não se refiram à ética e sim à segurança e à responsabilidade legais.

A INTELIGÊNCIA ARTIFICIAL NOS FORÇA TAMBÉM A UM CONFRONTO CONOSCO

Isso porque, em caso de dúvida, pode se tornar muito caro?

Exato. Daí surgem realmente muitas questões. Imagine dirigir um carro do Google em uma rotatória, junto com outros três carros autônomos e dois conduzidos por humanos. Nesse momento, um cão corre subitamente para o meio da rua. Os carros reconhecem que haverá um acidente e precisam calcular a opção que causará menos danos. Qual o valor da vida de um animal? Qual o valor da vida de um não usuário do Google? E se um dos envolvidos for uma criança, ou uma mulher grávida? Eles vão valer em dobro? E se a situação ocorrer em um país muçulmano, onde as mulheres têm direitos restritos? O número de homens sobreviventes é o que importará nesse caso? E se houver cristãos em um outro carro? Esta é a beleza da robótica: precisamos nos posicionar, em todas essas questões. A inteligência artificial nos confronta também conosco mesmos.
 
O filosofo Éric Sadin escreveu no semanário "Die Zeit" que delegar o poder da decisão aos algoritmos é um ataque à condição humana.

De fato, é um processo historicamente único que seres humanos cedam autonomia a máquinas. O problema mais profundo é que cada mero passo poderia ser racionalmente, e até eticamente, imperativo. Mas é claro que há perigo de que a evolução escape de nossas mãos.
 
Com que consequências?

Um problema particular é a robótica militar. Os drones serão em breve tão velozes e inteligentes, que não faria mais sentido consultar um oficial em uma situação de combate. Está começando uma corrida armamentista e, mais cedo ou mais tarde, os sistemas terão que reagir uns aos outros de maneira autônoma. Já temos isso em sistemas de transação na Bolsa de Valores: em 2010, houve uma “quebra relâmpago” (flash crash), na qual bilhões de dólares foram perdidos em questão de segundos. Quem sabe que perdas uma “quebra relâmpago” militar poderia causar.
 
A pavorosa visão de que máquinas poderiam algum dia se tornar perigosas é um tema predileto da ficção científica. De fato, pesquisadores reconhecidos, como Nick Bostrom, da Universidade de Oxford, alertam sobre os riscos de uma superinteligência descontrolada.

Você pode obviamente especular se já somos meros  auxiliares biológicos de uma nova esfera da evolução. Mas a ideia de que os robôs agora comecem a construir fábricas por contra própria e nos aprisionem em reservas é para mim totalmente absurda. Por outro lado, novos tipos de problema poderiam surgir, se uma superinteligência ética que quisesse apenas o melhor para nós concluísse que o melhor mesmo seria não existirmos, pois a existência humana é predominantemente atormentada. No entanto, o maior problema, neste momento, não é lidar com máquinas malévolas capazes de nos suplantar, mas a existência de uma tecnologia que abre novas portas para nos controlar remotamente. Se os algoritmos começarem a otimizar de maneira autônoma as atividades em redes sociais ou as possibilidades de influenciar os fluxos de notícias, os processos políticos poderiam  ser manipulados sem que percebêssemos.
 
Em seu livro "A ascensão dos robôs", o desenvolvedor do Vale do Silício Martin Ford teme principalmente consequências econômicas.

Sim, há pesquisas estimando uma redução de 47% dos empregos até 2030. Os mais ricos do mundo e seus analistas levam isso muito a sério, pois percebem que a introdução de robôs nos processos produtivos pode fazê-los ainda mais ricos e tornar os pobres ainda mais pobres. E eles também observam que os países que, neste momento, estão conseguindo efetuar a transição para a inteligência artificial passarão definitinivamente para trás na história aqueles que não estão conseguindo fazer isso. No passado, as pessoas costumavam dizer, de forma bastante ingênua: “Sempre que novas tecnologias surgem na história da humanidade, elas criam ao mesmo tempo novos postos de trabalho”. Desta vez, isso pode não passar de uma esperança vã.  
 

Thomas Metzinger Thomas Metzinger | © IGU Pressestelle Thomas Metzinger

Thomas Metzinger, 59, nos recebeu em sua sala na Universidade de Mainz. Ele é o chefe do Departamento de Filosofia Teórica, diretor do Grupo MIND e do Centro de Pesquisa em Neuroética. Entre 2005 e 2007, foi presidente da Sociedade de Ciência Cognitiva. Seu foco de trabalho são as pesquisas em torno da consciência humana. Metzinger afirma que não temos nem um ego, nem uma alma, mas apenas um “automodelo” em nossas mentes, que não experimentamos como modelo. Em seu livro “Der Ego-Tunnel" (O túnel do ego, editora Piper), ele apresenta sua teoria de forma compreensível também para leigos. Metzinger defende a ligação da filosofia da mente com pesquisas sobre o cérebro, e vem refletindo há mais de um quarto de século sobre a inteligência artificial. Ele possui um aspirador de pó robô que, embora o entusiasme, ainda não recebeu um nome.