Inteligência que supera os criadores

Suponha que alguém programe um sistema de inteligência artificial (IA) com uma inteligência superior à dos humanos, para que ele possa aprender de forma independente.

Conectada à internet, a IA poderia ter acesso a todos os dados da humanidade e então tentaria otimizar tudo; ela poderia substituir todos os programas existentes e assumir o controle de todas as máquinas online em todo o mundo, para que tudo funcionasse da forma mais eficiente possível.

Isso produziria uma utopia ou uma distopia? A IA encontraria a cura para o câncer, promoveria a paz mundial e evitaria um desastre climático? Ou ela iria concluir que a forma mais eficiente de resolver todos os problemas seria destruir a humanidade?

Nosso mundo é fascinado por máquinas e computadores que podem controlar carros, compor sinfonias ou derrotar pessoas no xadrez, Go e outros desafios, mas os cientistas da computação e os filósofos têm-se perguntado se sequer seríamos capazes de controlar uma IA superinteligente, para garantir que ela não representaria uma ameaça à humanidade.

“Uma máquina [computador] superinteligente que controla o mundo parece ficção científica. Mas já existem máquinas que realizam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como elas aprenderam a fazer o que fazem. Portanto, surge a questão de saber se isso poderia em algum momento se tornar incontrolável e perigoso para humanidade,” justifica o professor Manuel Cebrian, do Instituto Max Planck para o Desenvolvimento Humano, na Alemanha.

E as conclusões dos estudiosos nem sempre são animadoras: A equipe internacional liderada por Cebrian fez os melhores cálculos teóricos que o saber científico atual permite para demonstrar que seria fundamentalmente impossível para a humanidade controlar uma IA superinteligente.

Superinteligência artificial

Os cientistas exploraram duas ideias diferentes de como uma superinteligência artificial poderia ser controlada.

Por um lado, as capacidades da IA superinteligente poderiam ser especificamente limitadas, por exemplo, isolando-a da internet e de todos os outros dispositivos técnicos, para que ela não pudesse ter contato com o mundo exterior. Mas isso tornaria a “IA superinteligente” significativamente menos poderosa, menos capaz de responder às missões e às questões para as quais a humanidade a projetou.

Sem essa opção, a IA poderia ser motivada desde o início a perseguir somente objetivos que atendam aos melhores interesses da humanidade, por exemplo, programando princípios éticos nela. No entanto, os pesquisadores também demonstraram que essas e outras ideias contemporâneas e históricas para controlar a IA superinteligente têm seus limites.

Humanidade não conseguirá controlar computadores superinteligentes

Máquinas que controlam máquinas estão entre os riscos existenciais para a humanidade.
[Imagem: Iyad Rahwan]

Problema incomputável

A equipe então concebeu um algoritmo teórico de contenção, que garante que uma IA superinteligente não possa prejudicar as pessoas em nenhuma circunstância, simulando o comportamento da IA primeiro e então interrompendo-a se ela for considerada prejudicial.

Mas uma análise cuidadosa mostra que, em nosso paradigma atual de computação, esse algoritmo não pode ser construído.

“Se você dividir o problema em regras básicas da ciência da computação teórica, verá que um algoritmo que comandaria uma IA para não destruir o mundo poderia inadvertidamente interromper suas próprias operações. Se isso acontecesse, você não saberia se o algoritmo de contenção ainda está analisando a ameaça, ou se ele parou para conter a IA prejudicial. Na verdade, isso torna o algoritmo de contenção inutilizável,” disse Iyad Rahwan, membro da equipe.

Com base nesses cálculos, o problema de contenção é incomputável, ou seja, nenhum algoritmo único pode encontrar uma solução para determinar se uma IA produziria danos ao mundo.

Além disso, os pesquisadores demonstraram que podemos nem saber quando as máquinas superinteligentes foram criadas, porque decidir se uma máquina apresenta inteligência superior aos humanos está no mesmo reino do problema de contenção: insolúvel.

Bibliografia:
Artigo: Superintelligence Cannot be Contained: Lessons from Computability Theory
Autores: Manuel Alfonseca, Manuel Cebrian, Antonio Fernandez Anta, Lorenzo Coviello, Andrés Abeliuk, Iyad Rahwan
Revista: JAIR – Journal of Artificial Intelligence Research
DOI: 10.1613/jair.1.12202
[Imagem em Destaque: Manuel Alfonseca et al. – 10.1613/jair.1.12202]

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui