Inteligência artificial Escravo ou deus

Será que a inteligência artificial pode se tornar perigosa ou esse medo é exagerado? Reunimos aqui algumas opiniões sobre o assunto.

“Sei que vocês dois estavam planejando me desligar. Mas acho que não posso deixar isso acontecer”. O astronauta Dave engole em seco, seu olhar fica sem expressão, ele luta para encontrar palavras. O supercomputador HAL 9000, que controla sua espaçonave, desenvolveu vida própria – e parece que não vai deixar que o tirem da tomada tão facilmente. Os segundos vão passando até que Dave resolve fazer-se de inocente: “De onde você tirou essa ideia?” Mas HAL, com seu olho vermelho de câmera, não se deixa enganar. Ele vê tudo, ouve tudo, sabe de tudo o que acontece na espaçonave. “Apesar de vocês terem tomado todas as precauções para que eu não os ouvisse na cápsula, pude ver seus lábios se movendo.”

A cena do filme de ficção científica “2001: Uma odisseia no espaço”, de 1968, ilustra o medo do ser humano perante a máquina que se volta contra quem a criou. Um tema típico em filmes e séries sobre inteligência artificial: em “Exterminador do futuro”, a inteligência artificial Skynet torna-se independente e constrói um exército de robôs exterminadores para aniquilar a humanidade. Em “Ex Machina”, a androide Ava consegue fugir de sua prisão para o mundo real.

No cerne da inteligência artificial (IA) da cultura pop está a questão sobre como uma IA pode ser mantida sob controle. Mas será que os cenários de horror em que um exército de robôs assume o controle do mundo são realistas? A resposta curta é: não. A longa: é complicado.

Uma IA forte, tão astuta quanto um ser humano, poderia começar a aperfeiçoar-se cada vez mais a si mesma.

Mas vejamos antes a origem da IA: uma inteligência artificial é uma máquina autodidata, cujos algoritmos são capazes de cumprir tarefas de maneira autônoma. Cientistas trabalham nisso desde os anos 1950. Durante muito tempo, pouca coisa aconteceu, mas nos últimos anos houve um progresso veloz com as chamadas redes neurais, que simulam o cérebro humano e aprendem de maneira autônoma. Foi assim que, no início de 2016, a IA AlphaGo venceu cinco partidas do jogo de tabuleiro asiático Go, ganhando de quatro a um do sul-coreano Lee Sedol, um dos melhores jogadores do mundo. Como existem muitos lances que potencialmente fazem sentido no Go, mesmo para um computador, a IA teve que desenvolver uma intuição para o jogo, que foi então seguida no momento dos lances – exatamente como nós humanos também o fazemos.

Apesar disso, a AlphaGo é o que se chama de IA fraca. Ela pode fazer uma coisa muito bem, até melhor que as pessoas. Assim, se tiver que jogar xadrez em vez de Go, ela precisa aprender tudo de novo desde o início. Porém, cientistas do mundo inteiro também estão trabalhando na chamada IA forte. Esta realmente poderia representar um perigo em potencial para as pessoas, pois seria tão boa quanto um ser humano em várias áreas – ou até melhor. No entanto, uma IA forte e tão astuta quanto uma pessoa, poderia começar a aperfeiçoar-se cada vez mais a si mesma. O que poderia resultar em uma explosão de inteligência e no surgimento de uma superinteligência, do ponto de vista da qual nós seres humanos seríamos provavelmente tão inteligentes quanto os insetos o são para nós.

São diversos os possíveis cenários que resultariam disso: a superinteligência poderia elevar nossa civilização a novos patamares. Ela poderia, por sua própria iniciativa, tornar-se uma espécie de ditadora benevolente no plano de fundo, mas também ter seu campo de ação de tal forma delimitado por nós, que até poderia tornar-se toda-poderosa em termos de habilidades, mas sem possuir livre arbítrio – como um deus escravizado, por assim dizer. Ou uma conquistadora que decide que a humanidade é uma ameaça e, por isso, a extermina.

AI © colourbox.com O professor do MIT Max Tegmark divide as opiniões de especialistas em três grupos: utopistas digitais, pessoas céticas em relação à tecnologia e o movimento em prol de uma IA útil. O último representa o mainstream. Nele se enquadram personalidades conhecidas como Stephen Hawking, há pouco falecido, ou o chefe da Tesla, Elon Musk. Partem do princípio de que a IA representa grandes oportunidades, mas, antes de tudo, também riscos para a humanidade. Por isso, defendem uma pesquisa de segurança reforçada para a IA, por exemplo, no setor de veículos autônomos, bem como uma possível proibição de armas autônomas. Tegmark faz referência ao fato de que, supostamente, uma IA não teria o desejo intencional de nos fazer nada de mal, mas apenas de perseguir um objetivo de forma muito competente e efetiva, podendo, assim, prejudicar a humanidade. “Elas provavelmente não são seres maus que odeiam formigas, mas, se quiserem construir uma usina hidrelétrica e houver um formigueiro em uma das zonas a ser inundadas, os insetos estarão danados. Um objetivo fundamental da pesquisa de segurança de IA é nunca deixar que a humanidade fique na posição dessas formigas.”

Utopistas digitais não gostam de se deixar deter por tais preocupações, pois têm certeza de que a humanidade alcançará o próximo estágio evolutivo com a IA. O chefe do Facebook, Mark Zuckerberg, alerta as pessoas a não se assustarem com esses cenários de horror e as aconselha a se concentrar no progresso que a IA poderia trazer ao ser humano. “Quem for contra a IA, também tem que assumir a responsabilidade por cada dia em que não tivermos a cura para uma determinada doença ou carros autônomos seguros.” Para o antigo chefe do Google, Eric Schmidt, as vantagens também prevalecem claramente: “Será que o telefone deveria não ter sido inventado só porque ele pode ser usado por pessoas más? Não, inventa-se o telefone do mesmo jeito e procura-se caminhos que impeçam que se faça mau uso dele.”

Ainda não está claro o que a IA trará para a humanidade. Mas uma coisa é certa: haverá mudanças radicais sérias em nossa sociedade.

Pessoas céticas em relação à tecnologia também consideram desnecessário o medo exagerado da IA – mas por razões bem diferentes. Avaliam o avanço tecnológico de maneira menos otimista e não partem do princípio de que, neste século, haverá uma superinteligência. “Ficar com medo da aparição de robôs assassinos é equivalente a ter medo de uma superpopulação em Marte”, sublinha, por exemplo, Andrew Ng, antigo diretor científico do motor de busca chinês Baidu. “Posso afirmar que a inteligência artificial vai transformar muitos setores, mas ela não é nenhuma mágica.”

Ou seja, ainda não está claro o que a IA trará para a humanidade. Só uma coisa é certa: haverá mudanças radicais sérias em nossa sociedade. Pois mesmo que não surja nenhuma superinteligência, a IA vai virar do avesso o mundo do trabalho e o nosso cotidiano. Veículos autônomos podem tornar supérfluos os motoristas de táxi, algoritmos financeiros substituir os acionistas da bolsa de valores, robôs agricultores assumir o trabalho dos camponeses. De acordo com as previsões, um quarto de todos os empregos poderá ser eliminado se for assumido por softwares ou robôs até 2025. Não se sabe se haverá o surgimento de novos empregos, como foi o caso até agora a cada revolução econômica. Mesmo sem superinteligência, a humanidade está diante de um grande desafio: o que nós mesmos queremos fazer no futuro e o que podemos deixar para as máquinas?