Disciplina - Filosofia

Filosofia & Ciências

09/12/2014

O lado assustador da inteligência artificial

Nick Bilton | The New York Times

O ebola me dá pesadelos. A gripe aviária e a Sars (síndrome respiratória aguda grave) também. Mas o que mais me assusta é a inteligência artificial.

Com recursos suficientes, os humanos podem barrar as três primeiras coisas. Mas a última pode ser irrefreável.

Pare um instante para pensar sobre o que é a inteligência artificial. Pegue um iPhone e pergunte a Siri sobre o tempo ou as ações. As respostas dela são inteligentes.

Hoje essas máquinas artificialmente inteligentes são simpáticas, mas, quando os humanos lhes derem mais poder, elas poderão sair de nosso controle.

Num primeiro momento, os erros serão pequenos. Talvez um computador desregulado provoque uma confusão passageira na Bolsa. Ou um carro sem motorista fique parado no meio de uma rodovia porque uma atualização de software emperrou.

Mas os problemas podem se multiplicar. Imagine um robô programado para combater o câncer. Ele poderia concluir que a melhor maneira de eliminá-lo é exterminar os humanos com tendência genética a apresentar a doença.

Nick Bostrom, autor do livro “Superintelligence”, sugere cenários catastróficos. Um deles envolve robôs microscópicos programados para criar cópias deles mesmos. Numa situação positiva, esses nanorrobôs poderiam combater doenças no corpo humano ou devorar material radiativo. Mas, diz Bostrom, “uma pessoa mal-intencionada de posse dessa tecnologia poderia provocar nossa extinção”.

Os proponentes da inteligência artificial argumentam que os programadores vão construir salvaguardas. Mas os programadores não levaram quase meio século para descobrir como evitar que os computadores sofressem panes?

Um perigo é que estamos começando a criar máquinas capazes de tomar decisões, mas essas máquinas não têm moralidade e provavelmente nunca terão. Um medo mais distante é que, a partir do momento em que construirmos sistemas tão inteligentes quanto os humanos, os sistemas poderão construir máquinas mais inteligentes, muitas vezes descritas como superinteligência. É com elas, dizem os especialistas, que as coisas poderão realmente sair de controle. Não poderemos embutir salvaguardas em algo que nós mesmos não construímos.

“Nós, humanos, dirigimos o futuro não porque sejamos os seres mais fortes ou mais velozes do planeta, mas porque somos os mais inteligentes”, disse James Barrat, autor de “Our Final Invention: Artificial Intelligence and the End of the Human Era”. “Quando houve algo mais inteligente que nós no planeta, esse algo vai nos comandar.”

Talvez o cenário mais assustador de todos seja o modo como essas tecnologias serão usadas militarmente. Bonnie Docherty, professora da Universidade Harvard e pesquisadora sênior da organização Human Rights Watch, disse que a corrida já em curso para construir armas autônomas com inteligência artificial recorda os primórdios da corrida para a construção de armas nucleares. Para ela, antes de haver máquinas matando pessoas no campo de batalha, é preciso haver tratados que as rejam. Máquinas que não possuem moralidade ou mortalidade “não devem ser dotadas do poder de matar”, ponderou.

Então como podemos assegurar que um desses cenários de fim de mundo não vire realidade? Em alguns casos, é provável que não possamos impedi-los. Mas podemos impedir parte do caos potencial. Neste ano, o Google adquiriu a empresa de inteligência artificial DeepMind, de Londres, e criou um conselho de segurança e ética de inteligência artificial que visa assegurar o desenvolvimento seguro dessas tecnologias.

Demis Hassabis, fundador da DeepMind, disse que qualquer grupo ou pessoa que construa inteligência artificial deveria fazer o mesmo.

“Eles devem pensar nas consequências éticas do que fazem”, disse Hassabis. “Precisam pensar nisso com muita antecedência.”
Esta notícia foi publicada no site Gazeta do Povo em 09 de Dezembro de 2014. Todas as informações nela contidas são de responsabilidade do autor.
Recomendar esta notícia via e-mail:

Campos com (*) são obrigatórios.