Inovações em inteligência artificial (IA) estão ocorrendo em grande velocidade, assim como suas aplicações. De aplicações relativamente simples para negócios, como marketing, finanças e produção, até decisões mais complexas como avaliação de risco em mercados financeiros, IA veio para ficar e está mudando radicalmente o ambiente de negócios. A despeito de sua grande aplicabilidade e todos os ganhos de produtividade advindos daí, como outras inovações, IA tem seus custos também.
No século XX, as grandes inovações trouxeram grandes ganhos de bem-estar com aumento de renda e emprego, mas também implicaram, ao lado dos ganhadores, a existências de perdedores, os setores que se tornaram obsoletos com essas inovações. Tratadores e criadores de cavalos, junto com fabricantes de carroças e charretes, perderam renda e emprego quando do advento do automóvel, que beneficiou número bem maior de setores e empregos. O grande economista austríaco da primeira metade do século passado, Joseph Shumpeter, batizou este processo de destruição criativa: cada inovação tecnológica destrói capital anteriormente acumulado ao torná-lo obsoleto, mas cria produtos melhores e mais baratos, fazendo com que fortunas mudem de mãos. Antigos setores perdem renda e emprego, que são canalizados para aqueles que resultam das inovações. Esse processo de destruição criativa é o que permite que a pizza econômica da sociedade (o PIB) aumente e gere prosperidade.
IA, neste sentido, faz parte do processo de destruição criativa, porém existem duas diferenças significativas: faz parte de um processo mais rápido de inovação tecnológica e, fundamentalmente, leva à criação de agentes artificiais, ou seja, agentes com poder decisório que imitam seres humanos até com maior capacidade de tomada de decisões. Como exemplo, o programa de computador de IA conhecido como AlphaZero, baseado em algoritmos de redes neurais, que precisou de apenas vinte e quatro horas para treinar e aprender a jogar xadrez em nível super-humano. Programas como o AlphaZero são, dessa forma, unidades decisórias chamadas de agentes. Apesar de conseguirem resolver problemas melhor do que seres humanos, suas habilidades são muitos restritas. No caso do AlphaZero, ele só sabe jogar xadrez.
O que poderia acontecer quando um programa de IA adquirisse a habilidade de aprender, em nível super-humano, tudo o que os seres humanos são capazes de fazer? Esse é o caso de Superinteligência, ou de Inteligência Artificial Geral (IAG), importante tópico de pesquisa de IA e presente na literatura de ficção científica. Tornar-nos-íamos obsoletos e desnecessários, vítimas desse processo de destruição criativa? Essa pergunta, de caráter totalmente especulativo, não deixa de ser importante para ajudar a condicionar o desenvolvimento futuro de algoritmos de IA.
Nick Bostrom, inicia seu magnífico livro “Superinteligência: Caminhos, Perigos, Estratégias” com uma parábola inconclusa dos pardais. Chegando a estação de construção de ninhos, os pardais conversam sobre como seria bom se eles tivessem uma coruja para construir ninhos para eles. Afinal, é uma tarefa extenuante para eles, tão pequenos e fracos. Poderiam usar uma coruja para tomar conta das crianças e dos idosos também, além de vigiar o gato da vizinhança. Combinaram então procurar um ninho de corujas para pegar um ovo, chocá-lo e domesticar a coruja. Todos ficaram exultantes com a ideia, mas então começaram a surgir algumas dúvidas. Os pardais não tinham a menor ideia de como criar e domesticar uma coruja. E se ela não fizer o que ela deveria? E se ela fosse perigosa para os pardais? Não acharam nenhuma resposta para estas perguntas, mas mesmo assim combinaram que um grupo de pardais iria buscar um ovo de coruja enquanto outros ficariam estudando como lidar com a coruja adotada. Não se sabe como a parábola terminou.
O problema de superinteligência é análogo ao problema da coruja para os pardais. Trata-se de um agente que consegue fazer melhor tudo o que seus criadores são capazes de fazer, mas pode também tomar decisões não desejáveis por eles. Tome por exemplo o problema da produção de clips de papel. Um programador cria uma superinteligência artificial e lhe dá uma ordem simples: maximizar a produção de clips de papel. O algoritmo começa a buscar fontes de ferro para a produção e descobre que seres humanos também são fontes de ferro e resolve matá-los para alcançar seu objetivo. Ou ainda descobre que o seu programador pode desligá-la antes que isso aconteça e resolve matá-lo antes. Claro que essa situação assustadora decorre da ordem simples e mal descrita do que a superinteligência deveria fazer, mas o problema é bem mais complicado porque nossa linguagem tem embutidas muito mais instruções e restrições do que a linguagem de computador. Não precisamos ser plenamente explícitos quanto ao que se deve ou não fazer ou quanto ao que se pode ou não fazer quando damos uma ordem ou uma instrução a alguém. Para dar objetivo a superinteligência artificial, é necessário codificar todas as restrições possíveis e imaginárias. Mesmo assim, algum detalhe importante pode passar despercebido e o comportamento desta superinteligência pode escapar do controle.
Para que a coisa não escape ao controle, é importante resolver o problema de alinhamento, que pode ser direto ou indireto e é discutido por experts em tecnologia e por economistas também. O alinhamento direto diz respeito à consecução dos objetivos do programador, sem que se incorra em consequências não intencionais não desejáveis. O alinhamento indireto diz respeito ao impacto das ações da superinteligência sobre a sociedade, que na visão de economistas tem relação com o controle de externalidades – mesmo que o problema de alinhamento direto esteja bem resolvido, é possível que as ações levem a danos de bem estar a terceiros. Tal qual o problema dos pardais, estamos chocando o ovo da coruja (a superinteligência da fábula) sem saber como alinhar suas ações aos nossos objetivos individuais ou de sociedade.
Como as inovações na área de IA são muito rápidas, estamos provavelmente chegando muito próximo da eclosão de uma superinteligência. Quando isso ocorrer, poderemos controlá-la adequadamente e alinhar suas ações com o que desejamos dela? Difícil saber, mas como os pardais da fábula, especialistas no assunto devotam boa parte do seu tempo estudando o problema sem ter nenhuma experiência prévia a respeito.
O que pode acontecer com a eclosão de uma superinteligência é difícil de antecipar. Poderemos ter o mundo com maior abundância de bens e satisfação de necessidades para todos, ou alguma distopia descrita nos filmes de ficção científica, caso não se resolva a contento o problema do alinhamento. Apenas para aguçar a imaginação, vale a pena assistir a alguns deles. Westworld, de 1973, é um clássico que inspirou uma série sensacional, de 2016, na HBO. Ex-Machina, de 2015, onde um programador interage com um robô humanoide que passou pelo teste de Turing quando as coisas escapam rapidamente de controle de forma imprevisível. Finalmente, o clássico dos clássicos de ficção científica, de 1968, do consagrado Stanley Kubrick: 2001, Uma Odisseia no Espaço.
1 comentário
Muito interessante o artigo, especialmente quanto ao risco do não alinhamento e da necessidade de comando minimamente explícitos pela IA. De fato, na nossa inteligência, não precisamos dizer tudo, muitas vezes não precisamos dizer quase nada ou até nada para sermos entendidos ou completamente mal compreendidos. Imagina uma máquina, que não capta sutilezas e precisa de informação completa, coisa que o ser humano falha e não consegue prever em muitas situações. Obrigada pelo artigo!