Superinteligência - Caminhos, Perigos, Estratégias ( PDFDrive ).pdf
Document Details
Uploaded by Deleted User
Tags
Full Transcript
Era a estação de construção dos ninhos. Mas, após longos dias de trabalho árduo, os pardais se sentaram sob o luar, relaxando e gorjeando. “Nós somos tão pequenos e fraquinhos… Imagine como a vida seria fácil se tivéssemos uma coruja que nos ajudasse na construção de nossos ninhos!”...
Era a estação de construção dos ninhos. Mas, após longos dias de trabalho árduo, os pardais se sentaram sob o luar, relaxando e gorjeando. “Nós somos tão pequenos e fraquinhos… Imagine como a vida seria fácil se tivéssemos uma coruja que nos ajudasse na construção de nossos ninhos!” “Sim”, disse outro. “E nós poderíamos ter a ajuda dela para cuidar dos pardais mais velhos e também dos mais novos.” “Ela poderia nos aconselhar e ficar de olho no gato do vizinho”, acrescentou um terceiro. Então, Pastus, o pássaro mais velho, disse: “Vamos enviar olheiros para procurar em todos os lugares uma corujinha abandonada, ou talvez um ovo. Um filhote de corvo ou de doninha também serviria. Isso poderia ser a melhor coisa que já nos aconteceu, pelo menos desde a abertura do Pavilhão do Grão Ilimitado, no quintal ao lado”. O bando estava radiante e os pardais começaram a gorjear com toda a força. Apenas Scronkfinkle, o pardal rabugento e de um olho só, não estava convencido da prudência daquela empreitada. Disse ele: “Será, com certeza, nossa destruição. Não deveríamos pensar um pouco sobre a arte da domesticação e do adestramento das corujas antes de trazer criaturas desse tipo para o nosso meio?”. Pastus respondeu: “Adestrar uma coruja parece algo extremamente difícil. Vamos começar procurando um ovo, o que já não será tarefa fácil. Depois que tivermos sido bem-sucedidos em criar uma coruja, então poderemos pensar em outros desafios”. “Há uma falha nesse plano”, grunhiu Scronkfinkle, mas seu protesto foi em vão, pois o bando já havia levantado voo para começar a colocar em ação as diretrizes fornecidas por Pastus. Apenas dois ou três pardais ficaram para trás. Juntos começaram a imaginar como as corujas poderiam ser domesticadas e adestradas. Logo perceberam que Pastus estava certo: esse seria um desafio extremamente difícil, principalmente porque não havia uma coruja com a qual praticar. Entretanto, eles se empenharam ao máximo, temendo que o bando pudesse retornar com um ovo de coruja antes que uma solução para o problema de contenção fosse encontrada. O fim da história não é conhecido, mas o autor dedica o livro a Scronkfinkle e seus seguidores. SUPERINTELIGÊNCIA SUMÁRIO Capa Mídias sociais Folha de rosto Figuras, tabelas e quadros Prefácio Capítulo 1 Desenvolvimentos anteriores e capacidades atuais Regimes de crescimento e a história Grandes expectativas Períodos de esperança e aflição Estado da arte Opiniões sobre o futuro da inteligência de máquina Capítulo 2 Caminhos para a superinteligência Inteligência artificial Emulação completa do cérebro Cognição biológica Interfaces cérebro-computador Redes e organizações Resumo Capítulo 03 Formas desuperinteligência Superinteligência rápida Superinteligência coletiva Superinteligência de qualidade Alcance direto e indireto Vantagens da inteligência digital Capítulo 04 A cinética de uma explosão de inteligência Momento e velocidade da partida Resistência Caminhos de inteligência de não máquinas Caminhos de emulação e IA Poder de otimização e explosividade Capítulo 05 Vantagem estratégica decisiva O projeto líder terá uma vantagem estratégica decisiva? Qual será o tamanho de um projeto bem-sucedido? Monitoramento Colaboração internacional De uma vantagem estratégica decisiva para o singleton Capítulo 06 Superpoderes cognitivos Funcionalidades e superpoderes Um cenário de tomada do poder por uma IA Poder sobre a natureza e os agentes Capítulo 07 A vontade superinteligente A relação entre inteligência e motivação Convergência instrumental Autopreservação Integridade do conteúdo do objetivo Aprimoramento cognitivo Perfeição tecnológica Aquisição de recursos Capítulo 08 O resultado mais provável será o nosso fim? Catástrofe existencial como resultado esperado de uma explosão de inteligência? A curva traiçoeira Modos de falha malignos Instanciação perversa Profusão de infraestrutura Crimes da mente Capítulo 09 O problema do controle Dois problemas de agência Métodos de controle de capacidade Métodos de confinamento Métodos de incentivo Inibição Detonadores Métodos de seleção de motivação Especificação direta Domesticidade Normatividade indireta Ampliação Sinopse Capítulo 10 Oráculos, gênios, soberanos e ferramentas Oráculos Gênios e soberanos IAs ferramentas Comparação Capítulo 11 Cenários multipolares Sobre cavalos e homens Salários e desemprego Capital e assistência social O princípio malthusiano em uma perspectiva histórica Crescimento populacional e investimento A vida em uma economia algorítmica Escravidão voluntária, morte casual Trabalhar da forma mais eficiente possível seria divertido? Inconscientes terceirizados? Evolução não é necessariamente para cima Formação de um singleton no pós-transição? Uma segunda transição Superorganismos e economias de escala Unificação por tratado Capítulo 12 Adquirindo valores O problema da inserção de valores Seleção evolutiva Aprendizagem por reforço Acréscimo associativo de valores Estepe motivacional Aprendizado de valores Modulação de emulação Projeto institucional Sinopse Capítulo 13 Elegendo os critérios de escolha A necessidade da normatividade indireta Vontade extrapolada coerente Algumas explicações Argumentos para a vec Observações adicionais Modelos de moralidade Faça o que eu quero dizer Lista de componentes Conteúdo de objetivo Teoria da decisão Epistemologia Ratificação Chegando perto o suficiente Capítulo 14 O panorama estratégico Estratégia científica e tecnológica Desenvolvimento tecnológico diferencial Ordem preferível de chegada Taxas de mudança e aperfeiçoamento cognitivo Acoplamento de tecnologias Antecipando reações Caminhos e facilitadores Os efeitos dos avanços em hardware As pesquisas em emulação completa do cérebro deveriam ser promovidas? A perspectiva do indivíduo-afetado favorece uma maior velocidade Colaboração A dinâmica competitiva e seus perigos Sobre os benefícios da colaboração Trabalhando em conjunto Capítulo 15 A hora decisiva Filosofia com prazo O que deve ser feito? Buscando a iluminação estratégica Construindo uma boa capacidade Medidas específicas Que o melhor da natureza humana se coloque, por favor, de pé Posfácio Glossário parcial Bibliografia Agradecimentos Sobre o autor Créditos SUPERINTELIGÊNCIA FIGURAS, TABELAS E QUADROS LISTA DE FIGURAS 01 Histórico do PIB mundial 02 Impacto geral de longo prazo da HLMI 03 Desempenho de supercomputadores 04 Reconstrução neuroanatômica em 3D a partir de imagens obtidas com um microscópio eletrônico 05 Roteiro para a emulação completa do cérebro 06 Composição de rostos como uma metáfora para a correção de genomas 07 A estrutura da partida 08 Uma escala menos antropomórfica? 09 Um modelo simples de uma explosão de inteligência 10 Fases em um cenário de tomada de poder por uma IA 11 Ilustração esquemática de trajetórias possíveis para um singleton prudente hipotético 12 Resultados da antropomorfização da motivação de um alienígena 13 Inteligência artificial ou emulação completa do cérebro primeiro? 14 Níveis de risco em corridas tecnológicas de IA LISTA DE TABELAS 01 IA para jogos 02 Quando a inteligência de máquina de nível humano será alcançada? 03 Quanto tempo será necessário entre o nível humano e a superinteligência? 04 Capacidades necessárias para a emulação completa do cérebro 05 Ganhos máximos de QI a partir da seleção de embriões em conjuntos de diferentes tamanhos 06 Possíveis impactos da seleção genética em diferentes cenários 07 Algumas corridas tecnológicas estrategicamente significativas 08 Superpoderes: algumas tarefas estrategicamente relevantes e seus conjuntos de habilidades correspondentes 09 Diferentes tipos de detonadores 10 Métodos de controle 11 Características das diferentes castas de sistema 12 Sumário de técnicas de inserção de valores 13 Lista de componentes LISTA DE QUADROS 01 Um agente bayesiano ótimo 02 O Flash Crash de 2010 03 O que seria necessário para replicar a evolução? 04 Sobre a cinética de uma explosão de inteligência 05 Corridas tecnológicas: alguns exemplos históricos 06 Cenário de encomenda de DNA 07 Qual é o tamanho do domínio cósmico? 08 Captura antrópica 09 Soluções estranhas em uma busca cega 10 Formalizando a aprendizagem de valores 11 Uma IA que deseja ser amigável 12 Duas ideias recentes (e pouco amadurecidas) 13 Um nivelamento por baixo arriscado PREFÁCIO Dentro do seu crânio se encontra o responsável pela compreensão do mundo ao redor. O cérebro humano tem algumas capacidades inexistentes nos cérebros de outros animais. É a tais capacidades singulares que devemos nossa posição dominante no planeta. Outros animais possuem músculos mais fortes e garras mais afiadas, mas nós temos cérebros mais habilidosos. Nossa pequena vantagem em inteligência geral nos levou a desenvolver a linguagem, a tecnologia e uma organização social complexa. Essa vantagem tem aumentado ao longo do tempo, pois cada geração constrói em cima dos avanços conquistados por suas predecessoras. Se algum dia construirmos cérebros artificiais capazes de superar o cérebro humano em inteligência geral, então essa nova superinteligência poderia se tornar muito poderosa. E, assim como o destino dos gorilas depende hoje mais dos humanos que dos próprios gorilas, também o destino de nossa espécie dependeria das ações da superinteligência de máquina. Mas temos uma vantagem: nós é que construiríamos a máquina. Em princípio poderíamos construir um tipo de superinteligência que protegesse os valores humanos. Teríamos, certamente, fortes razões para isso. Na prática, o problema do controle — a questão de como controlar o que a superinteligência faria — parece bastante difícil. Tudo indica também que teríamos apenas uma única chance para resolvê-lo. Uma vez que uma superinteligência hostil passasse a existir, ela nos impediria de substituí-la ou de mudar suas preferências. Nosso destino estaria selado. Neste livro, procuro entender o desafio que surge com a perspectiva da superinteligência e de que maneiras poderíamos melhor responder a ele. Esse é, muito provavelmente, o desafio mais importante e mais assustador que a humanidade já encarou. E, independentemente do nosso sucesso ou fracasso, promete ser o último desafio que encararemos. Este livro não argumenta que estejamos no limiar de uma grande descoberta em inteligência artificial, ou que possamos prever com alguma precisão quando um avanço desse tipo deve ocorrer. Mas é provável que isso aconteça ainda neste século, embora não tenhamos certeza disso. Os dois primeiros capítulos discutem possíveis caminhos e especulam sobre o momento mais provável para tal acontecimento. A maior parte do livro, no entanto, trata a respeito do que poderia acontecer depois disso. Estudamos a cinética de uma explosão da inteligência, as formas e poderes da superinteligência e as opções estratégicas disponíveis para um agente superinteligente que obtenha uma vantagem decisiva. Mais adiante, mudamos nosso foco para o problema do controle e questionamos o que poderia ser feito para moldar as condições iniciais de modo a alcançar um resultado que garantisse nossa sobrevivência e nos trouxesse benefícios. Na parte final do livro, aumentamos nossa escala de observação e contemplamos o cenário maior que emerge a partir de nossas investigações. São fornecidas algumas sugestões sobre o que deve ser feito no presente para aumentar nossas chances de evitar uma catástrofe existencial no futuro. Este não foi um livro fácil de escrever. Espero que o caminho aqui aberto permita que outros estudiosos alcancem essa nova fronteira da forma mais rápida e conveniente possível, a fim de que possam chegar lá menos desgastados e mais preparados para expandir ainda mais o alcance de nossa compreensão. (E se o processo é um pouco tortuoso, espero que os críticos, ao julgarem os resultados, não subestimem a hostilidade do terreno ex ante!) Este não foi um livro fácil de escrever. Tentei escrever uma obra fácil de ler, mas não acredito que tenha sido bem-sucedido. Enquanto escrevia, imaginava um leitor que se parecesse comigo uns anos atrás e tentei produzir um livro cuja leitura me daria prazer. Seu público pode ser restrito. No entanto, acredito que o conteúdo deva ser acessível a muitas pessoas, se elas refletirem sobre ele e resistirem à tentação de interpretar erroneamente cada nova ideia, assimilando-a ao clichê mais parecido em sua bagagem cultural. Leitores sem familiaridade com os termos técnicos não devem se sentir desencorajados pela presença ocasional de fórmulas matemáticas ou pelo vocabulário especializado, pois é sempre possível entender a questão principal a partir das explicações apresentadas ao longo do texto. (E para os leitores que quiserem mais detalhes técnicos, há muitos deles nas notas de rodapé). Muitos dos argumentos apresentados neste livro estão provavelmente errados. É possível também que haja considerações extremamente importantes que eu não tenha levado em conta, invalidando, dessa forma, partes ou mesmo o todo de minhas conclusões. Esforcei-me ao máximo para indicar as nuances e os níveis de incertezas do texto — poluindo-o com expressões tais como: “possivelmente”, “talvez”, “pode ser”, “me parece”, “deve ser”, “provavelmente”, “muito provavelmente”, “quase certamente”. Cada um desses termos foi posicionado de forma cuidadosa e deliberada. Ainda assim, essas aplicações pontuais de modéstia epistemológica não são suficientes, devendo ser aqui complementadas por uma confissão sistêmica de incerteza e falibilidade. Isto não é falsa modéstia: apesar de acreditar que meu livro possa estar completamente errado, apontando um caminho falso, penso que visões alternativas que vêm sendo apresentadas pela bibliografia especializada são ainda piores — incluindo aqui a visão padrão, ou “hipótese nula”, segundo a qual podemos por enquanto ignorar de forma segura e sensata a perspectiva da superinteligência. CAPÍTULO 1 DESENVOLVIMENTOS ANTERIORES E CAPACIDADES ATUAIS Começamos olhando para trás. A história, na sua escala mais ampla, parece apresentar uma sequência de distintos regimes de crescimento, cada um muito mais rápido que o seu predecessor. Esse padrão tem sido utilizado para sugerir que outro regime de crescimento (ainda mais rápido) pode ser possível. Entretanto, não colocamos muita ênfase nessa observação — este não é um livro que trata a respeito de “aceleração tecnológica”, “crescimento exponencial” ou sobre as muitas noções algumas vezes reunidas sob a rubrica da “singularidade”. Em seguida, repassamos a história da inteligência artificial. Mais adiante, examinamos as capacidades atuais desse campo de pesquisa. Por fim, analisamos algumas das pesquisas de opinião recentemente realizadas com especialistas e refletimos sobre nosso desconhecimento acerca da cronologia de futuros avanços. Regimes de crescimento e a história Há poucos milhões de anos, nossos ancestrais ainda estavam se balançando nos galhos das selvas africanas. Numa cronologia geológica ou mesmo evolucionária, o surgimento do Homo sapiens a partir do nosso último ancestral comum com os macacos aconteceu rapidamente. Desenvolvemos a postura ereta, os polegares opositores e — o mais importante — algumas mudanças relativamente pequenas no tamanho do nosso cérebro e na organização neurológica que resultaram num grande salto em nossa habilidade cognitiva. Como consequência, os humanos são capazes de pensar de forma abstrata, comunicar pensamentos complexos e acumular culturalmente informações através das gerações, de forma muito melhor do que qualquer outra espécie no planeta. Essas capacidades levaram os humanos a desenvolver tecnologias de produção cada vez mais eficientes, tornando possível para nossos ancestrais a migração para áreas mais afastadas das florestas tropicais e das savanas. A densidade populacional e o tamanho total da população humana aumentaram, principalmente após a adoção da agricultura. Um número maior de pessoas levou a um número maior de ideias; uma maior densidade populacional permitiu que essas ideias se espalhassem mais rapidamente e que alguns indivíduos se dedicassem ao desenvolvimento de competências específicas. Esses desenvolvimentos aumentaram a taxa de crescimento da produtividade econômica e da capacidade tecnológica. Desenvolvimentos posteriores, relacionados à Revolução Industrial, provocaram um segundo salto de aumento na taxa de crescimento, comparável ao primeiro. Tais mudanças na taxa de crescimento têm consequências importantes. Há poucas centenas de milhares de anos, no início da pré-história humana (ou hominídea), o crescimento era tão lento que foram necessários aproximadamente 1 milhão de anos até que a capacidade humana de produção aumentasse o suficiente para sustentar um adicional de 1 milhão de indivíduos vivendo no nível da subsistência. Em 5000 a.C., após a revolução agrícola, a taxa de crescimento havia aumentado a ponto de serem necessários apenas dois séculos para termos o mesmo volume de crescimento. Hoje, após a Revolução Industrial, a economia mundial cresce, em média, nesse mesmo volume a cada noventa minutos. Mesmo que a taxa de crescimento se mantenha nos níveis atuais, a longo prazo ela produzirá resultados impressionantes. Se a economia mundial continuar crescendo na mesma velocidade dos últimos cinquenta anos, o mundo será aproximadamente 4,8 vezes mais rico em 2050 e aproximadamente 34 vezes mais rico em 2100, em comparação ao que é hoje. Ainda assim, a perspectiva de continuar em um crescimento exponencial constante não se compara com o que poderia acontecer caso o mundo experimentasse novamente um salto na taxa de crescimento, comparável em magnitude àqueles experimentados com a Revolução Agrícola e a Revolução Industrial. O economista Robin Hanson estima, com base em dados histórico- econômicos e populacionais, que, para que a economia mundial dobrasse seu tamanho, tenham sido necessários 224 mil anos para as sociedades de caçadores- coletores do Plistoceno; 909 anos para as sociedades agrárias e 6,3 anos para a sociedade industrial. (No modelo de Hanson, a época atual é uma mistura dos regimes de crescimento das sociedades agrária e industrial — a economia mundial como um todo ainda não está conseguindo dobrar sua taxa de crescimento a cada 6,3 anos.) Caso uma nova transição para um regime de crescimento diferente acontecesse, e esta fosse da mesma magnitude das duas anteriores, isso resultaria em um novo regime de crescimento no qual a economia mundial dobraria de tamanho a cada duas semanas, aproximadamente. Uma taxa de crescimento dessa magnitude parece fantástica em comparação ao que conhecemos hoje. Observadores de épocas passadas talvez possam ter achado igualmente absurdo supor que a economia mundial duplicaria, no futuro, várias vezes ao longo da vida de uma pessoa. Porém, esse ritmo extraordinário é o que consideramos normal hoje em dia. A ideia do surgimento de uma singularidade tecnológica tem sido largamente popularizada, começando com o artigo seminal de Vernor Vinge e seguindo com os escritos de Ray Kurzweil e outros. O termo “singularidade”, no entanto, tem sido usado de forma confusa com sentidos distintos e vem acumulando uma aura profana (porém quase apocalíptica) com conotações tecnoutópicas. Já que a maioria desses significados e conotações são irrelevantes para o nosso argumento, podemos ganhar clareza se dispensarmos o termo “singularidade”, optando por utilizar uma terminologia mais precisa. HISTÓRIA DO PIB MUNDIAL. Traçada numa escala linear, a história da economia mundial aparece como uma linha plana que se mantém junto ao eixo × até que, de repente, apresenta um pico vertical. (a) Mesmo quando focamos nos últimos 10 mil anos, o padrão se mantém essencialmente como um único ângulo de 90o. (b) Apenas nos últimos cem anos, mais ou menos, a curva se eleva de forma perceptível acima do nível zero. (As diferentes linhas no gráfico correspondem a diferentes conjuntos de dados, que resultam em estimativas ligeiramente diferentes).* *Van Zanden (2003); Maddison (1999, 2001); De Long (1998). A ideia relacionada à singularidade que nos interessa aqui é a possibilidade de uma explosão de inteligência, e particularmente a perspectiva de uma superinteligência de máquina. Há quem seja convencido pelos diagramas de crescimento, semelhantes ao da figura 1, de que uma nova mudança drástica do regime de crescimento comparável à Revolução Agrícola ou à Revolução Industrial esteja em vias de acontecer. Essas pessoas podem então achar difícil conceber um cenário no qual o tempo necessário para que a economia mundial dobre seu tamanho diminua para apenas algumas semanas sem que isso envolva a criação de mentes que sejam mais rápidas e eficientes do que as mentes biológicas que conhecemos. Entretanto, argumentos para levar a sério a perspectiva de uma revolução da inteligência artificial não precisam se basear em exercícios de ajuste de curva ou em extrapolações a partir do crescimento econômico experimentado no passado. Como veremos, há fortes razões para sermos cautelosos. Grandes expectativas Máquinas com inteligência geral comparável à dos humanos — ou seja, dotadas de bom senso e capacidade real de aprender, raciocinar e planejar a superação de desafios complexos de processamento de informação em uma vasta gama de domínios naturais e abstratos — têm sido esperadas desde a invenção dos computadores, na década de 1940. Naquele tempo, o advento de tais máquinas era frequentemente esperado para os vinte anos seguintes. Desde então, a data estimada para o seu surgimento tem recuado numa razão de um ano a cada ano, fazendo com que ainda hoje futuristas interessados na possibilidade de uma inteligência artificial geral acreditem que máquinas inteligentes surgirão dentro de duas décadas. Duas décadas é o período de tempo ideal para quem tenta prever uma mudança radical: próximo o suficiente para ser relevante e chamar atenção e ainda distante o suficiente para tornar possível imaginar que uma sequência de grandes avanços, atualmente apenas vagamente concebíveis, possa ocorrer. Contraponha isso a períodos de tempo menores: a maioria das tecnologias que nos próximos cinco ou dez anos terão um grande impacto no mundo já estão em uso de forma limitada, enquanto as tecnologias que remodelarão o mundo em menos de quinze anos provavelmente já existem em laboratórios na forma de protótipos. Vinte anos também pode ser um período próximo do tempo restante da carreira de quem trabalha prevendo tais avanços, limitando, assim, o risco que uma previsão ousada poderia causar à sua reputação. O fato de que, no passado, alguns indivíduos fizeram previsões exageradas a respeito da inteligência artificial (IA) não implica, entretanto, que a IA seja impossível ou que nunca será desenvolvida. A principal razão para que o progresso tenha sido mais lento do que o previsto se deve ao fato de que dificuldades técnicas para a construção de máquinas inteligentes se mostraram maiores do que os obstáculos previstos pelos pioneiros da IA. Mas isso não determina o tamanho dessas dificuldades e o quão longe estamos de superá-las. Muitas vezes, um problema que de início se mostra irremediavelmente complicado acaba tendo uma solução surpreendentemente simples (embora o oposto seja, provavelmente, mais comum). No próximo capítulo, veremos os diferentes caminhos que podem nos levar à IA de nível humano. Mas notemos desde já que, independentemente de quantas paradas existam entre o presente e a IA de nível humano, ela não é o destino final. A próxima parada, a uma pequena distância adiante nos trilhos, é a IA sobre-humana. O trem pode não parar e nem mesmo desacelerar na Estação da Vila dos Humanos. É mais provável que ele passe direito. O matemático I.J. Good, que tinha sido chefe de estatística da equipe de Alan Turing responsável pela quebra de códigos durante a Segunda Guerra Mundial, possivelmente foi o primeiro a enunciar os aspectos essenciais desse cenário. Em uma passagem datada de 1965, frequentemente citada, ele escreveu: Defina-se uma máquina ultrainteligente como uma máquina capaz de superar todas as atividades intelectuais de qualquer homem, independentemente de quão genial ele seja. Já que o projeto de máquinas é uma dessas atividades intelectuais, uma máquina ultrainteligente poderia projetar máquinas ainda melhores; haveria então certamente uma “explosão de inteligência”, e a inteligência humana se tornaria desnecessária. Desse modo, a primeira máquina ultrainteligente é a última invenção que o homem precisará fazer, contanto que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle. Pode parecer óbvio agora que grandes riscos existenciais estariam associados a essa explosão de inteligência, e que essa possibilidade deve ser examinada com a maior seriedade possível, mesmo se soubéssemos que a probabilidade de isso acontecer fosse pequena (o que não é o caso). Apesar da crença que os pioneiros da inteligência artificial tiveram na iminência de uma IA de nível humano, a maioria deles, no entanto, não concebeu a possibilidade de uma IA de nível superior ao humano. É como se toda a capacidade de especulação que eles possuíam tivesse se exaurido na concepção da possibilidade radical de máquinas alcançando uma inteligência humana e, portanto, não foram capazes de compreender o corolário — que as máquinas se tornariam, posteriormente, superinteligentes. A maioria dos pioneiros de IA não consideraram a possibilidade de que sua empreitada poderia envolver alguns riscos. Eles não fizeram declarações retóricas — muito menos considerações sérias — sobre qualquer preocupação referente à segurança ou questões éticas relacionadas à criação de mentes artificiais e de potenciais computadores déspotas: uma lacuna que surpreende mesmo diante do padrão não-tão-impressionante das avaliações críticas de tecnologia da época. Devemos ter a esperança de que, quando a empreitada finalmente se tornar viável, nós tenhamos alcançado não apenas a proficiência tecnológica para desencadear uma explosão de inteligência, mas também o nível maior de maestria necessário para que sejamos capazes de sobreviver à detonação dessa explosão. Mas antes que nos voltemos para o que vem adiante, será útil darmos uma olhada na história da inteligência artificial até o presente momento. Períodos de esperança e aflição No verão de 1956, na Dartmouth College, dez cientistas que compartilhavam o interesse em redes neurais, na teoria dos autômatos e no estudo da inteligência se reuniram para um workshop de seis semanas. O Dartmouth Summer Project é considerado, frequentemente, o marco que assinalou a inteligência artificial como um campo de pesquisa. Muitos dos participantes seriam mais tarde reconhecidos como fundadores desse campo. A perspectiva otimista dos participantes está refletida na proposta apresentada à Rockefeller Foundation, que patrocinou o evento: Nós propomos que um estudo sobre inteligência artificial seja realizado por dez homens durante duas semanas [...]. O estudo será realizado com base na hipótese de que todos os aspectos da aprendizagem ou de qualquer outra característica da inteligência podem, em princípio, ser descritos de forma tão precisa que uma máquina poderia simulá-los. Será feita uma tentativa de descobrir como produzir máquinas que usem linguagem, formem conceitos e abstrações, resolvam determinados tipos de problemas até agora reservados aos humanos e que sejam capazes de se aperfeiçoar. Acreditamos que um avanço significativo possa ser feito em um ou mais desses problemas se um grupo de cientistas cuidadosamente selecionados trabalhar em conjunto no projeto durante um verão. Nas seis décadas seguintes a esse início audacioso, o campo da inteligência artificial passou por períodos de expectativas exageradas alternados com períodos de recuos e decepções. O primeiro período de entusiasmo, que iniciou com o encontro em Dartmouth, foi mais tarde descrito por John McCarthy (o principal organizador do evento) como a era do “Veja, mamãe, sem as mãos!”. Nessa época, pesquisadores construíram sistemas projetados para contestar afirmações como: “Nenhuma máquina jamais seria capaz de fazer X!”. Tais afirmações céticas eram comuns no período. Para contrapô-las, os pesquisadores da IA criavam pequenos sistemas que faziam X em um “micromundo” (um domínio bem definido e limitado que tornava possível uma versão reduzida da performance a ser demonstrada), fornecendo, dessa forma, uma comprovação do conceito e mostrando que X poderia, em princípio, ser feito por uma máquina. Um desses sistemas iniciais, o Logic Theorist, foi capaz de provar a maioria dos teoremas que constam no segundo capítulo do Principia Mathematica, de Whitehead e Russel, e produziu até mesmo uma prova que era muito mais elegante que a original, desmascarando, dessa forma, a noção de que as máquinas poderiam “pensar apenas numericamente” e mostrando que as máquinas eram também capazes de fazer deduções e inventar provas lógicas. Um sucessor desse sistema, o General Problem Solver, poderia, em princípio, resolver uma vasta gama de problemas definidos formalmente. Programas capazes de resolver problemas de cálculo típicos de primeiro ano de cursos de graduação, problemas de analogia visual que aparecem em alguns testes de QI e problemas simples de álgebra em linguagem verbal também foram escritos. O robô Shakey (assim chamado em virtude da sua tendência de tremer durante o seu funcionamento) demonstrou como o raciocínio lógico poderia ser integrado à percepção e usado para planejar e controlar atividades físicas. O programa eliza mostrou como um computador poderia imitar um psicoterapeuta rogeriano. Em meados da década de 1970, o programa shrdlu demonstrou como a simulação de um braço robótico num mundo simulado de blocos geométricos poderia seguir instruções e responder questões em inglês que eram digitadas por um usuário. Nas décadas seguintes, outros sistemas foram criados e comprovaram que as máquinas eram capazes de compor músicas no estilo de vários compositores clássicos, superar médicos recém-formados em certas tarefas relacionadas a diagnósticos clínicos, dirigir carros de forma autônoma e criar invenções patenteáveis. Há ainda uma IA capaz de contar piadas originais. (Não que o nível do humor seja elevado, mas crianças relataram achar seus trocadilhos divertidos.) Os métodos que produziram sucessos nos primeiros sistemas de demonstração geralmente apresentaram dificuldades de extensão para uma variedade mais ampla de problemas ou para versões mais complexas do problema. Uma razão para isso é a “explosão combinatorial” de possibilidades que devem ser exploradas por métodos que se baseiam em algo como a busca exaustiva. Tais métodos funcionam bem para instâncias simples de um problema, mas falham quando as coisas ficam um pouco mais complicadas. Por exemplo, para provar um teorema que tenha uma prova de cinco linhas num sistema de dedução com uma regra de inferência e cinco axiomas, alguém poderia simplesmente enumerar as 3.125 combinações possíveis e conferir cada uma delas para checar sua correspondência com a conclusão pretendida. A busca exaustiva também funcionaria para provas de seis ou sete linhas. Mas quando as tarefas ficam mais difíceis, o método de busca exaustiva logo se torna inviável. Provar um teorema com uma prova de cinquenta linhas não exige dez vezes o tempo necessário para uma prova de cinco linhas: na verdade, o uso da busca exaustiva requer a varredura de 5⁵⁰ ≈ 8,9 × 10³⁴ sequências possíveis — o que é computacionalmente inviável mesmo com os supercomputadores mais rápidos. Para superar a explosão combinatorial, são necessários algoritmos que explorem a estrutura no domínio alvo e tirem vantagem de conhecimento prévio usando busca heurística, planejamento e representações abstratas flexíveis — capacidades que ainda estavam pouco desenvolvidas nos sistemas iniciais de IA. O fraco desempenho desses primeiros sistemas também se devia a diversos outros fatores, tais como: métodos inadequados para lidar com incertezas, dependência de representações simbólicas frágeis e infundadas, escassez de dados e severas limitações de hardware tanto em capacidade de memória quanto em velocidade de processamento. Em meados da década de 1970, já havia uma conscientização crescente acerca desses problemas. A constatação de que muitos dos projetos de IA jamais poderiam realizar suas promessas iniciais levou ao surgimento do primeiro “inverno da IA”: um período de retração durante o qual os financiamentos diminuíram, o ceticismo aumentou, e a IA, então, saiu de moda. Uma nova primavera chegou no início dos anos 1980, quando o Japão lançou o seu projeto de sistemas de computador de quinta geração, uma parceria público- privada com ótimo financiamento cujo objetivo era ultrapassar o estado da arte desenvolvendo uma arquitetura computacional maciçamente paralela que serviria como uma plataforma para a inteligência artificial. Isso ocorreu no auge do fascínio com o “milagre econômico japonês do pós-guerra”, um período em que governos e grandes empresários ocidentais procuravam ansiosamente adivinhar a fórmula por trás do sucesso econômico japonês na esperança de replicar a mágica em casa. Quando o Japão decidiu investir pesado em IA, vários outros países resolveram segui-lo. Nos anos seguintes aconteceu uma grande proliferação de sistemas especialistas. Projetados como ferramentas de suporte para tomadas de decisão, os sistemas especialistas eram programas baseados em regras que faziam inferências simples a partir de uma base de conhecimento composta de fatos extraídos de especialistas na área e programados manualmente em linguagem formal, e de forma trabalhosa. Centenas desses sistemas especialistas foram construídos. No entanto, os sistemas menores forneciam poucos benefícios, e os maiores se mostraram caros demais para serem desenvolvidos, validados e atualizados, além de serem difíceis de usar. Era impraticável adquirir um computador apenas para rodar um único programa. No fim da década de 1980, essa temporada de crescimento também encerrou seu ciclo. O projeto da.quinta geração fracassou em alcançar seus objetivos, assim como fracassaram seus similares nos Estados Unidos e na Europa. Surgiu, então, um segundo inverno na IA. Naquele momento, um crítico poderia justificadamente lamentar que “a história da pesquisa em inteligência artificial até hoje sempre consistiu de sucessos muito limitados em áreas específicas, seguidos imediatamente pelo fracasso em alcançar os objetivos maiores sugeridos, à primeira vista, por esses sucessos iniciais”. Investidores do setor privado começaram a evitar qualquer empreendimento que carregasse a marca da “inteligência artificial”. Mesmo entre os acadêmicos e seus financiadores, a “IA” se tornou um epíteto indesejável. No entanto, o trabalho técnico se manteve num ritmo acelerado e, nos anos 1990, o segundo inverno da IA teve seu degelo. O otimismo renasceu a partir da introdução de novas técnicas que pareciam oferecer alternativas ao paradigma lógico tradicional (geralmente chamado de Good Old-Fashioned Artificial Intelligence [boa e velha inteligência artificial], ou usando a sigla GOFAI), o qual havia se concentrado na manipulação de símbolos de alto nível e que atingiu seu apogeu com os sistemas especialistas da década de 1980. As técnicas que ficaram mais conhecidas nessa época, que incluíam redes neurais e algoritmos genéticos, prometeram superar algumas limitações da abordagem GOFAI, em particular a “fragilidade” que caracterizava os programas clássicos de IA (que normalmente geravam resultados sem nenhum sentido caso fossem programados com uma única hipótese ligeiramente errada). As novas técnicas exibiam um desempenho mais orgânico. Por exemplo, redes neurais exibiam a propriedade da “degradação graciosa”: um pequeno dano a uma rede neural normalmente resultava numa pequena degradação de sua performance, em vez de um colapso total. Ainda mais importante: redes neurais poderiam aprender a partir de experiências, encontrando caminhos naturais de generalização por meio de exemplos e padrões estatísticos ocultos nos dados de entrada. Isso fez com que as redes tivessem bom desempenho em reconhecimento de padrões e problemas de classificação. Por exemplo, ao treinar uma rede neural num conjunto de dados de sinais de sonar, ela poderia ser ensinada a diferenciar os perfis acústicos de submarinos, minas e vida marinha com mais exatidão que os especialistas humanos — e isso poderia ser feito sem que alguém tivesse que descobrir com antecedência como as categorias seriam definidas ou como as diferentes características teriam que ser ponderadas exatamente. Embora modelos simples de rede neural sejam conhecidos desde o fim da década de 1950, o campo de pesquisa experimentou um renascimento após a introdução do algoritmo de retropropagação (backpropagation), que permitiu treinar redes neurais multicamadas. Tais redes multicamadas, que possuem uma ou mais camadas intermediárias (“ocultas”) de neurônios entre as camadas de entrada e saída de dados, podem aprender uma gama muito mais variada de funções do que seus predecessores mais simples. Combinados com os computadores cada vez mais poderosos que estavam se tornando disponíveis, esses aperfeiçoamentos algorítmicos capacitaram engenheiros na construção de redes neurais boas o suficiente para serem úteis, na prática, em várias aplicações. As qualidades semelhantes às do cérebro que as redes neurais exibiam contrastavam favoravelmente com o detalhismo lógico rígido, mas frágil, dos sistemas GOFAI baseados em regras. Isso foi suficiente para inspirar um novo “ismo”, o “conexionismo”, que enfatizava a importância do processamento subsimbólico maciçamente paralelo. Mais de 150 mil artigos acadêmicos sobre redes neurais artificiais foram publicados desde então, e elas continuam a ser uma abordagem importante do aprendizado de máquina. Métodos com base no evolucionismo, tais como os algoritmos genéticos e a programação genética, constituem outra abordagem cujo surgimento ajudou a acabar com o segundo inverno da IA. Talvez essa abordagem tenha causado um impacto acadêmico menor do que o das redes neurais, mas foi largamente popularizada. Em modelos evolucionários, uma população de soluções candidatas (que podem ser programas ou estruturas de dados) é mantida e novas soluções candidatas são geradas aleatoriamente através de mutação ou recombinação de variáveis da população existente. Periodicamente a população é podada por meio da aplicação de um critério de seleção (função de aptidão), permitindo que apenas os melhores candidatos sobrevivam na geração seguinte. Quando esse processo é repetido por milhares de gerações, a média da qualidade das soluções candidatas aumenta gradualmente. Quando funciona, esse tipo de algoritmo consegue produzir soluções eficientes para uma gama altamente variada de problemas — soluções que podem ser surpreendentemente inovadoras e não intuitivas, geralmente se parecendo mais com estruturas naturais do que qualquer coisa que um engenheiro humano projetaria. E, em princípio, isso pode acontecer sem muita necessidade de contribuição humana além da especificação inicial da função de aptidão, o que geralmente é muito simples. Na prática, entretanto, conseguir que métodos evolucionários funcionem bem requer habilidade e criatividade, particularmente para elaborar boas formas de representação. Sem uma maneira eficiente de codificar soluções candidatas (uma linguagem genética que esteja de acordo com a estrutura latente no domínio em questão), a busca evolucionária tende a vagar indefinidamente em um vasto espaço de busca ou a ficar presa em um ótimo local. Mesmo que uma boa forma de representação seja encontrada, a evolução exige muitos recursos computacionais e é frequentemente derrotada pela explosão combinatorial. Redes neurais e algoritmos genéticos são exemplos de métodos que causaram empolgação na década de 1990 ao sugerir que ofereciam alternativas para a estagnação do paradigma GOFAI. Mas a intenção aqui não é a de defender esses dois métodos ou de elevá-los acima de outras técnicas de aprendizado de máquina. Na verdade, um dos maiores desenvolvimentos teóricos dos últimos vinte anos foi a constatação clara de que técnicas superficialmente distintas podem ser entendidas como casos especiais dentro de uma estrutura matemática comum. Por exemplo, muitos tipos de redes neurais artificiais podem ser vistas como classificadores que realizam um tipo específico de cálculo estatístico (estimativa de máxima verossimilhança). Essa perspectiva permite que as redes neurais sejam comparadas com uma classe maior de algoritmos para aprendizado de classificadores a partir de exemplos — “árvores de decisão”, “modelos de regressão logística”, “máquinas de vetores de suporte”, “classificador naive Bayes”, “regressão de K-vizinhos mais próximos”, entre outros. De modo semelhante, algoritmos genéticos podem ser vistos como algoritmos de busca que executam “subida de encosta estocástica” e que são, por sua vez, parte de uma categoria mais ampla de algoritmos de otimização. Cada um desses algoritmos utilizados na construção de classificadores ou para fazer busca em um espaço de soluções tem seu próprio perfil com vantagens e desvantagens que podem ser estudadas matematicamente. Os algoritmos se distinguem pelos requisitos de tempo de processamento e espaço de memória, pelos vieses indutivos que eles pressupõem, pela facilidade com a qual conseguem incorporar conteúdo produzido externamente e por quão transparente seu funcionamento interno se mostra para um analista humano. Logo, por trás do alvoroço que envolve as áreas de aprendizado de máquina e resolução criativa de problemas, encontra-se uma série de escolhas com perdas e ganhos matematicamente bem definidos. O ideal em questão é o do agente bayesiano perfeito, que faz uso probabilisticamente ótimo das informações disponíveis. Esse ideal é inalcançável, pois tem uma demanda computacional muito grande para ser implementado em qualquer computador físico (ver quadro 1). Assim, é possível ver a inteligência artificial como uma procura por atalhos: meios de se aproximar do ideal bayesiano sacrificando alguma otimização ou generalização, enquanto se preserva o suficiente para atingir uma alta performance nos reais domínios de interesse. Um reflexo desse cenário pode ser visto no trabalho realizado nas últimas duas décadas em modelos gráficos probabilísticos, tais como as redes bayesianas. Redes bayesianas oferecem uma forma concisa de se representar relações de independência probabilística e condicional válidas para alguns domínios específicos. (Explorar tais relações de independência é essencial para superar a explosão combinatorial, que é um grande problema, tanto para a inferência probabilística quanto para a dedução lógica.) Eles também ajudam na compreensão do conceito de causalidade. Uma vantagem de se relacionar problemas de aprendizagem oriundos de domínios específicos ao problema geral de inferência bayesiana é que novos algoritmos que tornem a inferência bayesiana mais eficiente permitirão, dessa forma, melhorias imediatas em várias áreas diferentes. Avanços em técnicas de aproximação de Monte Carlo, por exemplo, são diretamente aplicáveis em visão computacional, robótica e genética computacional. QUADRO 1 Um agente bayesiano ótimo Um agente bayesiano ideal começa com uma “distribuição de probabilidade a priori”, uma função que atribui probabilidades para cada “mundo possível” (ou seja, para cada descrição inteiramente especificada de como o mundo poderia ser na realidade). Esta função incorpora um viés indutivo que faz com que probabilidades maiores sejam designadas a mundos possíveis mais simples. (Uma maneira de definir formalmente a simplicidade de um mundo possível é em termos de sua “complexidade de Kolmogorov”, uma medida baseada no tamanho do menor programa de computador que gera uma descrição completa do mundo). A distribuição de probabilidade a priori também incorpora qualquer conhecimento prévio que os programadores desejarem dar ao agente. Assim que o agente recebe uma nova informação dos seus sensores, ele atualiza sua distribuição de probabilidade condicionando a distribuição à nova informação de acordo com o teorema de Bayes. Condicionalização é a operação matemática que modifica para zero a nova probabilidade dos mundos que são inconsistentes com a informação recebida e renormaliza a distribuição de probabilidade considerando apenas os mundos possíveis restantes. O resultado é uma “distribuição de probabilidade a posteriori” (que o agente pode utilizar como sua distribuição de probabilidade a priori na próxima etapa). Enquanto o agente faz suas observações, sua massa de probabilidade se concentra numa série decrescente de mundos possíveis que permanecem consistentes com a evidência, sendo que, entre esses mundos possíveis, os mais simples sempre têm maior probabilidade. Metaforicamente, podemos pensar em probabilidade como uma quantidade de areia sobre uma grande folha de papel. O papel é dividido em áreas de vários tamanhos, cada área correspondendo a um mundo possível, e áreas maiores representando mundos possíveis mais simples. Imagine também uma camada de areia com espessura uniforme espalhada por toda a folha: essa é nossa distribuição de probabilidade a priori. Toda vez que uma observação feita descarta alguns mundos possíveis, nós removemos a areia correspondente a essas áreas do papel e a redistribuímos igualmente sobre as áreas que permanecem em jogo. Dessa forma, a quantidade total de areia sobre a folha nunca muda, mas apenas se concentra em menos áreas à medida que a evidência observacional se acumula. Esse é um retrato do aprendizado na sua forma mais pura. (Para calcular a probabilidade de uma hipótese, simplesmente medimos a quantidade de areia em todas as áreas que correspondem aos mundos possíveis nos quais a hipótese é verdadeira.) Até o momento, definimos uma regra de aprendizado. Para obter um agente, precisamos também de uma regra de decisão. Para tal fim, dotamos o agente com uma “função de utilidade” que atribui um número a cada mundo possível. O número representa a conveniência daquele mundo de acordo com as preferências básicas do agente. A partir de então, a cada passo, o agente seleciona a ação com a maior utilidade esperada. (Para encontrar a ação com a maior utilidade esperada, o agente poderia listar todas as possíveis ações. Ele poderia então calcular a distribuição de probabilidade condicional dada a ação — a distribuição de probabilidade que resultaria do condicionamento de sua distribuição de probabilidade atual à observação de que a ação acabou de ser tomada. Por fim, ele calcularia o valor esperado da ação como a soma do valor de cada mundo possível multiplicado pela probabilidade condicional daquele mundo dada a ação.) A regra de aprendizado e a regra de decisão, juntas, definem uma “noção de otimalidade” para um agente. (Essencialmente, a mesma noção de otimalidade tem sido amplamente utilizada em inteligência artificial, epistemologia, filosofia da ciência, economia e estatística). Na realidade, é impossível construir tal agente por ser computacionalmente intratável realizar os cálculos necessários. Qualquer tentativa de fazê-lo sucumbe a uma explosão combinatória exatamente como a que descrevemos em nossa discussão a respeito da GOFAI. Para entender porque isso acontece, considere um pequeno subconjunto de todos os mundos possíveis: aqueles que consistem de um único monitor de computador flutuando num vácuo infinito. O monitor tem 1.000 × 1.000 pixels, dos quais cada qual está permanentemente ligado ou desligado. Mesmo esse subgrupo de mundos possíveis é imensamente grande: as 2(1.000 × 1.000) possibilidades de estado do monitor superam todas as computações esperadas para acontecer no universo observável. Dessa forma, não poderíamos nem ao menos enumerar todos os mundos possíveis nesse pequeno subconjunto de todos os mundos possíveis, quem dirá, então, executar cálculos mais elaborados em cada um deles, individualmente. Noções de otimalidade podem ser de interesse teórico mesmo que sejam fisicamente inconcebíveis. Elas nos fornecem um padrão com o qual podemos julgar aproximações heurísticas, e em alguns casos é possível raciocinar a respeito do que um agente ótimo faria em algum caso especial. Encontraremos algumas outras noções de otimalidade para agentes artificiais no capítulo 12. TABELA 1 IA para jogos Damas Super- O programa de damas de Arthur Samuel, originalmente escrito em 1952 e mais tarde humana aprimorado (a versão de 1955 incorporou o aprendizado de máquina), tornou-se o primeiro programa a aprender a jogar melhor um jogo do que o seu criador. Em 1994, o programa CHINOOK derrotou o campeão humano da época, marcando a primeira vez que um programa ganhou um campeonato mundial oficial num jogo de habilidade. Em 2002, Jonathan Schaeffer e sua equipe “solucionaram” o jogo de damas, ou seja, produziram um programa que sempre faz a melhor jogada possível (combinando busca alfa-beta com um banco de dados de 39 trilhões de posições finais de jogo). Um jogo perfeito de ambos os lados leva ao empate. Gamão Super- 1979: o programa de gamão BKG, de Hans Berliner, derrotou o campeão mundial — o primeiro humana programa de computador a derrotar (em uma partida amistosa) um campeão mundial em qualquer jogo —, apesar de Berliner mais tarde ter atribuído a vitória à sorte com os dados. 1992: O programa de gamão TD-Gammon, de Gerry Tesauro, alcançou uma habilidade de nível de competição, usando aprendizado de diferença temporal (uma forma de aprendizagem por reforço) e jogos repetidos contra ele mesmo para se aperfeiçoar. Nos anos seguintes, outros programas de gamão superaram, em muito, os melhores jogadores humanos. Traveller Super- Em 1981 e 1982 , o programa Eurisko, de Douglas Lenat, vence o campeonato dos Estados TCS humana Unidos de Traveller TCS (um jogo de guerra naval futurista) induzindo mudanças de regras para em bloquear suas estratégias não ortodoxas. O programa Eurisko tinha uma heurística para colabora projetar suas esquadras e também uma heurística para modificar sua heurística. ção com humanos6 Othello Super- 1997: o programa Logistello ganhou todas as partidas numa série de seis jogos contra o humano campeão mundial Takeshi Murakami. Xadrez Super- 1997: Deep Blue vence o campeão mundial de xadrez, Garry Kasparov. Kasparov diz ter visto humana lampejos de inteligência e criatividade verdadeiras em algumas das jogadas do computador. Desde então, as máquinas de xadrez continuaram se aperfeiçoando. Palavras Nível de 1999: o Proverb, um programa de solução de palavras cruzadas, supera um solucionador Cruzadas especialista humano de palavras cruzadas de nível médio. 2012: o programa Dr. Fill, criado por Matt Ginsberg, fica no melhor quartil entre os competidores humanos no American Crossword Puzzle Tournament. (A performance do Dr. Fill foi irregular. Ele completou perfeitamente o quebra-cabeça considerado como o mais difícil pelos humanos, mas teve dificuldade de completar alguns quebra-cabeças fora do padrão, com palavras soletradas de trás para a frente ou na diagonal.) Scrabble Super- Desde 2002, softwares superam os melhores jogadores humanos. humano Bridge Igual ao Em 2005, o software para jogar brigde alcança a paridade com os melhores jogadores humanos me de bridge. lhor humano Jeopardy! Super- 2010: O Watson da IBM derrota os dois maiores campeões mundiais de Jeopardy!, Ken humana Jennings e Brad Rutter. Jeopardy! é um jogo de perguntas sobre história, literatura, esportes, geografia, cultura popular, ciência e outros tópicos, transmitido na televisão nos Estados Unidos. As questões são apresentadas em forma de dicas e geralmente envolvem trocadilhos. Pôquer Variada Computadores jogadores de pôquer continuam levemente abaixo dos melhores humanos na modalidade Texas hold’em com mesa de apostas cheia, mas atuam em nível super-humano em algumas variantes do jogo. FreeCell Super- Heurísticas evoluídas com o uso de algoritmos genéticos produziram um solucionador para o humana jogo FreeCell (o qual, em sua forma generalizada, é NP-completo) que é capaz de vencer jogadores humanos de alto nível. Go Ótimo Em 2012, a série Zen de programas jogadores de Go alcançou a categoria de sexto dan em nível jogos rápidos (nível de um excelente jogador amador), usando busca Monte Carlo em árvores amador de hipóteses e técnicas de aprendizado de máquina. Programas jogadores de Go têm sido aperfeiçoados numa taxa de um dan por ano nos últimos anos. Se essa média de aperfeiçoamento continuar, eles poderão vencer o campeão mundial humano em cerca de uma década. Outra vantagem é permitir que pesquisadores de diferentes disciplinas agreguem mais facilmente suas descobertas. Modelos gráficos e estatística bayesiana têm se tornado um foco comum de pesquisa em muitos campos, incluindo aprendizado de máquina, física estatística, bioinformática, otimização combinatória e teoria da comunicação. Uma quantidade considerável do progresso recente em aprendizado de máquina é produto da incorporação de resultados formais obtidos originalmente em outros campos acadêmicos. (Aplicações de aprendizado de máquina também se beneficiaram enormemente de computadores mais rápidos e de uma maior disponibilidade de grandes conjuntos de dados.) Estado da arte A inteligência artificial já supera a inteligência humana em vários domínios. A tabela 1 examina o estágio atual da inteligência artificial para jogos, mostrando que IAs atualmente superam campeões humanos em uma gama variada de jogos. Essas conquistas podem não nos impressionar hoje. Mas isso é porque adaptamos nosso critério do que é impressionante aos avanços já alcançados. A maestria no xadrez já foi considerada o epítome do intelecto humano. Na opinião de vários especialistas no fim dos anos 1950: “Se alguém pudesse elaborar uma máquina capaz de jogar xadrez, essa pessoa teria, supostamente, penetrado no âmago da empreitada intelectual humana”. Mas, atualmente, isso não é mais verdade. Há quem concorde com John McCarthy, que lamentou: “Quando algo funciona, ninguém mais chama isso de IA”. Há um sentido importante, no entanto, no qual as IAs jogadoras de xadrez se mostraram um triunfo menor do que muitos imaginavam. Anteriormente se supunha, não totalmente sem razão, que para um computador jogar xadrez no nível de um grande mestre, teria que ser dotado com um alto grau de inteligência geral. Imaginava-se, por exemplo, que jogar xadrez requeria capacidade de aprender conceitos abstratos, pensar de forma inteligente sobre estratégia, compor planos flexíveis, empregar uma ampla gama de deduções lógicas complexas e talvez até mesmo modelar o pensamento do seu oponente. Mas isso não é verdade. Confirmou-se que é possível construir um mecanismo de xadrez perfeitamente bom em torno de um algoritmo de propósito específico. Quando esse algoritmo foi implementado nos processadores rápidos que se tornaram disponíveis no fim do século xx, resultou num excelente jogo. Mas uma IA construída dessa forma é limitada. Ela não faz nada além de jogar xadrez. Em outros domínios de aplicação, soluções têm se mostrado mais complicadas do que se esperava inicialmente e progridem muito mais lentamente. O cientista da computação Donald Knuth observou que “a IA tem tido sucesso até agora em fazer essencialmente tudo o que requer ‘pensar’, mas tem falhado em fazer a maior parte daquilo que as pessoas e os animais fazem ‘sem pensar’ — isso, de alguma forma, é muito mais difícil!”. Analisar cenas visuais, reconhecer objetos ou controlar o comportamento de um robô enquanto ele interage com um ambiente natural se provaram problemas desafiadores. Entretanto, um progresso considerável foi e continua a ser alcançado, auxiliado pelo aperfeiçoamento constante dos hardwares de computadores. Senso comum e compreensão de linguagem natural também têm se mostrado difíceis. Considera-se com frequência que atingir um desempenho de nível plenamente humano nessas tarefas é um problema “IA-completo”, significando que a dificuldade de solucionar esses problemas se equivale à dificuldade de se construir máquinas com inteligência geral de nível humano. Em outras palavras, se alguém tivesse sucesso na criação de uma IA que entendesse a linguagem natural tanto quanto um humano adulto, esse alguém muito provavelmente já teria logrado sucesso na criação de uma IA capaz de fazer tudo mais que a inteligência humana pode fazer, ou estaria muito próximo disso. A proficiência no jogo de xadrez se mostrou alcançável por meio de um algoritmo surpreendentemente simples. É tentador especular que outras capacidades — tais como a habilidade geral de raciocínio, ou alguma habilidade específica de programação — podem igualmente ser alcançadas através de algum algoritmo surpreendentemente simples. O fato de que o melhor desempenho é obtido uma vez por meio de um mecanismo complicado não significa que um mecanismo simples não poderia fazer a tarefa tão bem quanto ou ainda melhor. Pode ser que simplesmente não se tenha ainda encontrado a alternativa mais simples. O sistema ptolemaico (com a Terra ao centro, orbitada pelo Sol, a Lua, os planetas e as estrelas) representou o estado da arte em astronomia por mais de mil anos, e sua precisão preditiva foi aprimorada ao longo dos séculos através de modificações que tornavam o modelo cada vez mais complexo: adicionando epiciclos sobre epiciclos aos movimentos celestiais postulados. Então, todo o sistema foi derrubado pela teoria heliocêntrica de Copérnico, que era mais simples e — embora apenas após elaborações posteriores de Kepler — fazia previsões mais precisas. Métodos de inteligência artificial são agora utilizados em mais áreas do que faria sentido revisar aqui, mas mencionar uma amostra delas nos dará uma ideia da abrangência de suas aplicações. Além das IAs para jogos listadas na tabela 1, há aparelhos auditivos com algoritmos que filtram ruído ambiente; traçadores de rota que mostram mapas e oferecem conselhos de navegação aos motoristas; sistemas de recomendação que sugerem livros e álbuns de música baseados nas compras prévias e avaliações do usuário; sistemas de apoio a decisões médicas que ajudam os profissionais a diagnosticarem câncer de mama, recomendam planos de tratamento e auxiliam na interpretação de eletrocardiogramas. Há robôs de estimação e robôs de limpeza, robôs cortadores de grama, robôs para resgates, robôs cirurgiões e mais de 1 milhão de robôs na indústria. A população mundial de robôs excede o número de 10 milhões. Programas de reconhecimento de voz modernos, baseados em técnicas estatísticas como modelos ocultos de Markov, têm se tornado precisos o suficiente para o uso prático (algumas partes deste livro foram redigidas com a ajuda de um programa do tipo). Assistentes digitais pessoais, como a Siri, da Apple, reagem a comandos falados e podem responder a perguntas simples e executar comandos. Programas de reconhecimento óptico de caracteres de textos escritos à mão ou à máquina são utilizados rotineiramente em aplicativos de triagem de correspondência e de digitalização de documentos antigos. Traduções feitas por máquinas continuam imperfeitas, mas boas o suficiente em muitas aplicações. Os primeiros sistemas utilizaram a abordagem GOFAI de gramáticas manualmente programadas que foram desenvolvidas do zero por linguistas especializados para cada idioma específico. Sistemas mais novos utilizam técnicas estatísticas de aprendizado de máquina que automaticamente constroem modelos estatísticos a partir de padrões de uso observados. A máquina infere os parâmetros para esses modelos analisando corpora bilíngues. Essa abordagem dispensa os linguistas: os programadores responsáveis pela construção desses sistemas não precisam nem mesmo falar a língua com a qual estão trabalhando. Nos últimos anos, programas de reconhecimento facial têm se aperfeiçoado suficientemente a ponto de serem utilizados na automatização do controle de fronteiras na Europa e na Austrália. O Departamento de Estado dos Estados Unidos opera um sistema de reconhecimento facial com mais de 75 milhões de fotografias para o processamento de vistos. Sistemas de vigilância utilizam IA cada vez mais sofisticada e tecnologias de mineração de dados para analisar voz, vídeos ou texto, sendo que boa parte desses dados são coletados em meios de comunicação eletrônicos no mundo todo e armazenados em enormes data centers. Programas que provam teoremas e resolvem equações estão agora tão estabelecidos que dificilmente são reconhecidos como IA. Solucionadores de equações estão incluídos em programas de computação científica tal como o Mathematica. Métodos formais de verificação, incluindo provadores automáticos de teoremas, são rotineiramente utilizados por fabricantes de chips para verificar o comportamento dos projetos de circuitos antes de sua produção. As organizações militares e de inteligência norte-americanas têm liderado a implementação em larga escala de robôs desarmadores de bombas, drones de vigilância e ataque e outros veículos não tripulados. Estes ainda dependem sobretudo do controle remoto operado por humanos, mas o trabalho para aumentar suas capacidades autônomas está em andamento. O escalonamento inteligente é uma importante área de sucesso. A ferramenta DART para planejamento e escalonamento logístico automático foi usada na operação Tempestade no Deserto em 1991, com tal efeito que a Agência de Projetos de Pesquisa Avançada de Defesa (DARPA, sigla em inglês) dos Estados Unidos afirma que essa única aplicação mais do que pagou seus trinta anos de investimentos em IA. Sistemas de reserva de voos usam sofisticados sistemas de escalonamento e precificação. Empresas fazem amplo uso de técnicas de IA em sistemas de controle de estoque. Também são empregados sistemas automáticos de reserva por telefone e linhas de atendimento ao consumidor conectadas a softwares de reconhecimento de voz utilizados para conduzir seus clientes insatisfeitos através do labirinto de opções interdependentes do menu. Tecnologias de IA estão por trás de muitos serviços na internet. Programas de computador policiam mundialmente o tráfego de e-mails e, apesar da contínua adaptação de spammers para driblar as contramedidas impostas a eles, filtros bayesianos antispam têm conseguido controlar o problema. Programas de computador que utilizam componentes de IA são responsáveis por aprovar ou reprovar automaticamente transações realizadas com cartões de crédito e monitoram continuamente a atividade das contas procurando sinais de uso fraudulento. Sistemas de recuperação de informação também fazem uso extensivo do aprendizado de máquina. A ferramenta de busca do Google é, provavelmente, o maior sistema de IA já criado. Agora, é importante ressaltar que a demarcação entre inteligência artificial e programas de computador em geral não é tão nítida. Algumas das aplicações listadas acima podem ser vistas mais como aplicações genéricas de software do que especificamente como IA — embora isso nos traga de volta à máxima de McCarthy, de que, quando algo funciona, não é mais chamado de IA. Uma distinção mais relevante para nossos propósitos é aquela que existe entre sistemas que têm uma gama limitada de capacidade cognitiva (sejam eles chamados de “IA” ou não) e sistemas que possuem capacidade de solução de problemas de aplicação mais geral. Essencialmente todos os sistemas atualmente em uso são do primeiro tipo: limitado. Contudo, muitos deles possuem componentes que podem também ter participação em uma futura inteligência artificial geral ou estar a serviço de seu desenvolvimento — componentes como classificadores, algoritmos de busca, planejadores, solucionadores e estruturas representacionais. Um ambiente de alto risco e extremamente competitivo no qual sistemas de IA operam atualmente é o mercado financeiro global. Sistemas de negociação de ações automatizados são amplamente usados por grandes corretoras de investimentos. Enquanto alguns deles são simplesmente utilizados para automatizar a execução de uma ordem de compra ou venda emitida por um administrador de fundos humano, outros seguem complicadas estratégias de compra e venda que se adaptam às mudanças das condições do mercado. Sistemas analíticos usam uma variedade de tecnologias de mineração de dados e análise de séries temporais para mapear padrões e tendências em mercados de valores mobiliários ou para correlacionar os movimentos históricos dos preços com variáveis externas tais como palavras-chave em painéis eletrônicos de notícias. Agências de notícias financeiras vendem feeds de notícias que são formatados especialmente para o uso de tais programas de IA. Outros sistemas se especializaram em encontrar oportunidades de arbitragem entre mercados ou dentro deles, ou em negociações de alta frequência que buscam lucrar com pequenos movimentos dos preços que ocorrem em questão de milissegundos (uma escala de tempo na qual as latências de comunicação, mesmo para sinais na velocidade da luz em cabos de fibra ótica, se tornam significativos, tornando vantajosa a localização de computadores próximos ao local da transação). Negociações algorítmicas de alta frequência são responsáveis por mais da metade das transações envolvendo ações ordinárias comercializadas nos mercados norte-americanos. A negociação algorítmica estava envolvida no Flash Crash de 2010 (ver quadro 2). QUADRO 2 O Flash Crash de 2010 Na tarde do dia 6 de maio de 2010, os mercados de ações dos Estados Unidos já apresentavam uma queda de 4% em virtude da preocupação com a crise de endividamento europeia. Às 14h32, um grande vendedor (um conglomerado de fundos de investimento) iniciou um algoritmo de venda para liquidar um grande número de contratos futuros E-Mini S&P 500 a uma taxa de venda relacionada à liquidez medida minuto-a- minuto na transação. Esses contratos foram comprados por algoritmos de negociação de alta frequência que estavam programados para eliminar rapidamente suas posições longas temporárias vendendo os contratos para outros negociadores. Com uma fraca demanda por parte de compradores fundamentais, os algoritmos de negociação começaram a vender E-Minis principalmente para outros algoritmos de negociação, criando um efeito de “batata quente” que elevou o volume das negociações — isso foi interpretado pelo algoritmo de venda como um indicador de alta liquidez, o que induziu o aumento da taxa com a qual os contratos E- Mini eram colocados no mercado, elevando a tendência de queda. Num dado momento, os negociadores de alta frequência começaram a se retirar do mercado, secando a liquidez enquanto os preços continuavam caindo. Às 14h45, a comercialização de E-Minis foi interrompida pelo circuit breaker, um mecanismo automático de interrupção das transações da bolsa. Quando a comercialização foi reiniciada, apenas cinco segundos depois, os preços estabilizaram e logo começaram a recuperar boa parte de suas perdas. Mas, por um momento, no auge da crise, um trilhão de dólares desapareceu do mercado, e efeitos de propagação fizeram com que um número substancial de transações de títulos individuais fosse realizado a preços “absurdos”, tais como 1 centavo ou 100 mil dólares. Após o fechamento do mercado naquele dia, os representantes das bolsas de valores se encontraram com as entidades reguladoras e decidiram cancelar todas as transações que haviam sido executadas com valores 60% (ou mais) maiores que os níveis anteriores à crise (considerando tais transações “claramente errôneas” e, por isso, sujeitas ao cancelamento post facto, conforme previsto nas leis de negociação de ações). Recontar aqui esse episódio é uma digressão porque os programas de computação envolvidos no Flash Crash não eram particularmente inteligentes ou sofisticados e o tipo de ameaça que eles criaram é fundamentalmente diferente das preocupações que levantaremos a seguir em relação à perspectiva da superinteligência de máquina. Entretanto, esses eventos ilustram uma série de lições úteis. Uma delas é o alerta de que interações entre componentes individualmente simples (como o algoritmo de venda e os algoritmos de negociação de alta frequência) podem produzir resultados complexos e inesperados. Riscos sistêmicos podem se acumular em um sistema conforme novos elementos são introduzidos, riscos que não são óbvios até o momento em que algo dá errado (e algumas vezes nem mesmo quando isso acontece). Outra lição é a de que profissionais inteligentes podem fornecer instruções para um programa com base em uma suposição que pareça sensata e razoável (por exemplo, que o volume de transações é uma boa medida da liquidez do mercado), e isso pode produzir resultados catastróficos quando o programa continua a agir rigorosamente dentro da lógica segundo a qual foi instruído, mesmo em situações não previstas na qual tal suposição se mostra inválida. O algoritmo só faz o que ele está programado para fazer e, a menos que ele seja um tipo muito especial de algoritmo, ele não dá a mínima para o fato de ficarmos horrorizados com suas ações totalmente inapropriadas. Esse é um tema do qual falaremos mais adiante. A terceira observação em relação ao Flash Crash é que, embora a automação tenha contribuído para o incidente, ela contribuiu também para a sua solução. A lógica de interrupção automática pré-programada, que suspendeu a comercialização quando os preços saíram do controle, foi programada para entrar automaticamente em ação, pois se antecipou corretamente que eventos passíveis de acionar a interrupção poderiam acontecer numa escala de tempo muito curta para a capacidade de resposta dos humanos. A necessidade de funcionalidades de segurança pré-instaladas e de acionamento automático — em oposição à confiança no tempo de resposta de uma supervisão humana — mais uma vez antecipa um tema que será importante em nossa discussão sobre a superinteligência de máquina. Opiniões sobre o futuro da inteligência de máquina O progresso em duas grandes frentes — por um lado, em direção a uma base mais sólida em estatística e teoria da informação para aprendizagem de máquina, e, por outro, em direção ao sucesso prático e comercial de várias aplicações de problemas ou áreas específicas — tem trazido de volta à pesquisa de IA parte do prestígio que havia sido perdido. Pode haver, no entanto, um efeito cultural residual na comunidade de IA, proveniente da fase inicial da sua história, que faz com que muitos dos principais pesquisadores relutem em se alinhar com ambições exageradas. Por causa disso, Nils Nilsson, um dos veteranos na área, se queixa de que seus colegas atuais não possuem a ousadia de espírito que impulsionou os pioneiros de sua própria geração: Acredito que a preocupação por “respeitabilidade” tem tido um efeito estupidificante sobre alguns pesquisadores de IA. Eu os ouço dizer coisas como: “A IA costumava ser criticada por sua superficialidade. Agora que temos feito progresso sólido, não devemos arriscar nossa respeitabilidade”. As consequências desse conservadorismo têm sido uma concentração maior na “IA fraca” — a variedade dedicada a prover ajuda ao pensamento humano — e o afastamento de uma “IA forte” — a variedade que busca mecanizar a inteligência de nível humano. O sentimento de Nilsson foi ecoado por muitos outros fundadores, incluindo Marvin Minsky, John McCarthy e Patrick Winston. Os últimos anos têm assistido a um ressurgimento do interesse em IA, o que pode ainda conduzir a esforços renovados em direção à inteligência artificial geral (o que Nilsson chama de “IA forte”). Além de um hardware mais rápido, um projeto contemporâneo se beneficiaria dos grandes avanços que têm sido alcançados nas muitas subáreas de IA, em engenharia de software de forma geral e nas áreas correlatas, como a neurociência computacional. Um indício de que existe uma demanda reprimida por informação de qualidade e cursos de formação pode ser percebido através da resposta à oferta de um curso on-line gratuito de introdução à inteligência artificial na Universidade Stanford no outono de 2011, organizado por Sebastian Thrun e Peter Norvig. Aproximadamente 160 mil estudantes de várias partes do mundo se inscreveram para participar (e 23 mil concluíram o curso). A opinião de especialistas sobre o futuro da IA varia consideravelmente. Há tanto divergências sobre a escala de tempo quanto sobre as formas que a IA pode eventualmente assumir. Um estudo recente notou que previsões sobre o desenvolvimento futuro da inteligência artificial “são tão confiantes quanto diversas”. Embora a distribuição das opiniões atuais não tenha sido cuidadosamente medida, podemos ter uma vaga ideia a partir de pesquisas menores e observações informais. Em particular, uma série de pesquisas recentes têm contado com entrevistas a membros de vários grupos relevantes de especialistas, que são questionados a respeito de quando, segundo eles, a “inteligência de máquina de nível humano” (HLMI, na sigla em inglês) poderia ser desenvolvida, sendo esta definida como “aquela que pode executar a maioria das profissões humanas ao menos tão bem quanto um humano típico”. Os resultados são mostrados na tabela 2. A amostra combinada resultou na estimativa (mediana) a seguir: 10% de probabilidade de que a HLMI seja alcançada até 2022, 50% de probabilidade até 2040 e 90% de probabilidade até 2075. (Foi solicitado aos entrevistados que condicionassem suas estimativas à premissa de que a “atividade científica humana prossiga sem maiores perturbações negativas”.) Esses números devem ser encarados com certa reserva: as amostras são pequenas e não necessariamente representam a população geral de especialistas. Eles estão, no entanto, de acordo com resultados de outras pesquisas. Os resultados das pesquisas estão também em conformidade com entrevistas realizadas com aproximadamente duas dezenas de pesquisadores de campos relacionados à IA e recentemente publicadas. Por exemplo, Nils Nilsson passou uma longa e produtiva carreira trabalhando em problemas de busca, planejamento, representação de conhecimento e robótica; escreveu livros acadêmicos a respeito da inteligência artificial; e completou recentemente o trabalho mais abrangente sobre a história da IA escrito até hoje. Quando questionado sobre o advento da HLMI, ele opinou da seguinte forma: 10% de chance: 2030 50% de chance: 2050 90% de chance: 2100 TABELA 2 Quando a inteligência de máquina de nível humano será alcançada?* 10% 50% 90% PT-AI 2023 2048 2080 AGI 2022 2040 2065 EETN 2020 2050 2093 TOP100 2024 2050 2070 Combinados 2022 2040 2075 * A tabela mostra os resultados de quatro pesquisas de opinião diferentes, bem como os resultados combinados. As duas primeiras foram pesquisas realizadas em conferências acadêmicas: PT-AI, participantes da conferência Philosophy and Theory of AI, em Salônica, no ano de 2011 (os participantes foram entrevistados em novembro de 2012), com uma taxa de resposta de 43 num conjunto de 88; e AGI, participantes das conferências Artificial General Intelligence e Impacts and Risks of Artificial General Intelligence, ambas realizadas em Oxford em dezembro de 2012 (taxa de resposta: 72/111). A pesquisa EETN é uma amostragem dos membros da Greek Association for Artificial Inteligence, uma organização profissional de pesquisadores da área, em abril de 2013 (taxa de resposta: 26/250). A pesquisa TOP100 coletou as opiniões dos 100 principais autores em inteligência artificial de acordo com um índice de citação, em maio de 2013 (grau de resposta: 29/100). A julgar pelas transcrições publicadas das entrevistas, a distribuição de probabilidade do professor Nilsson se mostra representativa da opinião de muitos especialistas da área — embora, novamente, deve ser enfatizado que há uma ampla gama de opiniões: há profissionais que são consideravelmente mais confiantes no progresso rápido, esperando a HLMI entre os anos 2020 e 2040, e outros que estão confiantes de que ela nunca será alcançada ou que esteja indefinidamente distante. Além disso, alguns entrevistados sentem que a noção de um “nível humano” de inteligência artificial é mal definida ou enganosa, ou os entrevistados se mostram, por outras razões, relutantes em deixar registrada uma previsão quantitativa. Minha opinião é que os números medianos relatados na pesquisa com especialistas não possuem massa de probabilidade suficiente nas datas mais avançadas. Uma probabilidade de 10% de que a HLMI não esteja desenvolvida em 2075 ou mesmo em 2100 (com a condição de que a “atividade científica humana prossiga sem grandes perturbações negativas”) me parece muito baixa. Historicamente, os pesquisadores de IA não têm se mostrado muito bons em prever o ritmo dos avanços em seu próprio campo ou a forma que tais avanços poderiam assumir. Por um lado, algumas tarefas, como jogar xadrez, se tornaram possíveis através de programas surpreendentemente simples; e céticos que diziam que as máquinas “nunca” seriam capazes de fazer isso ou aquilo se mostraram equivocados. Por outro lado, os erros mais comuns entre os profissionais têm sido subestimar as dificuldades de fazer com que um sistema execute, de forma consistente, tarefas do mundo real, e o de superestimar as vantagens de seus próprios projetos ou técnicas preferidas. A pesquisa também incluiu duas outras perguntas relevantes para a nossa investigação. Uma delas questionou os entrevistados a respeito do tempo que, segundo eles, seria necessário para alcançar a superinteligência, supondo que a inteligência de máquina com nível humano seja atingida. Os resultados estão na tabela 3. Outra pergunta levantou a questão sobre o tipo de impacto geral de longo prazo que poderia ser causado na humanidade com o alcance da inteligência de máquina de nível humano. As respostas estão resumidas na figura 2. TABELA 3 Quanto tempo será necessário para que o nível humano alcance a superinteligência? Dentro de 2 anos após HLMI Dentro de 30 anos após HLMI TOP100 5% 50% Combinado 10% 75% FIGURA 2 IMPACTO GERAL DE LONGO PRAZO DA HLMI.* *O diagrama mostra estimativas usando medianas renormalizadas. As médias são significativamente diferentes. Por exemplo, as estimativas médias para um desfecho “extremamente ruim” foram de 7,6% (para o TOP100) e 17,2% (para o conjunto total de especialistas entrevistados). Novamente meu entendimento difere, de alguma forma, das opiniões expressas na pesquisa. Atribuo uma probabilidade maior de que a superinteligência seja criada num ritmo relativamente rápido após o alcance da inteligência de máquina de nível humano. Também tenho uma visão mais polarizada sobre as consequências, acreditando que um resultado extremamente bom ou extremamente ruim é mais provável que um resultado equilibrado. As razões para tanto serão melhor esclarecidas no decorrer do livro. Amostras pequenas, vieses de seleção e — acima de tudo — a baixa confiabilidade inerente às opiniões subjetivas solicitadas indicam que não se deve tirar muitas conclusões a respeito dessas pesquisas de opinião e entrevistas com especialistas. Elas não nos permitem extrair qualquer conclusão sólida, mas fornecem uma conclusão ampla. Elas sugerem que (ao menos na ausência de melhores dados ou análises) pode ser razoável acreditar que a inteligência de máquina de nível humano tem boas chances de ser desenvolvida até a metade do século e que há uma probabilidade considerável de que seja desenvolvida bem mais cedo ou muito mais tarde; que ela possa talvez, logo depois, resultar na superinteligência; e que uma ampla gama de consequências poderá ocorrer, incluindo consequências extremamente boas e consequências tão ruins quanto a extinção da espécie humana. No mínimo, elas sugerem que é válido analisar o tema atentamente. CAPÍTULO 2 CAMINHOS PARA A SUPERINTELIGÊNCIA As máquinas são, atualmente, muito inferiores aos humanos em inteligência geral. Entretanto, um dia (como já sugerimos), elas serão superinteligentes. Como faremos para, a partir do estágio atual, atingir o estágio da superinteligência das máquinas? Este capítulo explora diversos caminhos tecnológicos possíveis. Falaremos a respeito de inteligência artificial, emuladores de atividade cerebral, cognição biológica, interfaces homem- máquina e também sobre redes e organizações. Avaliaremos seus diferentes graus de plausibilidade como caminhos para a superinteligência. A existência de múltiplos caminhos aumenta a probabilidade de que a superinteligência seja alcançada pelo menos por um desses caminhos. Podemos provisoriamente definir uma superinteligência como qualquer intelecto que exceda em muito o desempenho cognitivo dos seres humanos em, virtualmente, todos os domínios de interesse. Teremos mais a dizer sobre o conceito de superinteligência no próximo capítulo, quando esse conceito será submetido a uma espécie de análise espectral, buscando distinguir algumas possíveis formas de superinteligência. Mas, por ora, a definição aproximada aqui exposta será suficiente. Perceba que essa definição não trata a respeito da forma como a superinteligência será implementada. Essa definição tampouco tem qualquer preocupação com os qualia: o fato de uma superinteligência alcançar uma experiência subjetiva consciente pode ser de grande importância para a discussão de algumas questões (em particular, aquelas de cunho moral), mas aqui o foco principal está voltado para os antecedentes causais e as consequências da superinteligência, e não para a metafísica da mente. De acordo com essa definição, o programa de xadrez Deep Fritz não é uma superinteligência, uma vez que Fritz é inteligente apenas no que diz respeito aos jogos de xadrez. Alguns tipos de superinteligência de domínio específico podem, entretanto, ser importantes. Quando nos referirmos ao desempenho de uma superinteligência que se encontra restrita a um domínio particular, essa limitação será explicitamente observada. Por exemplo, uma “superinteligência da engenharia” seria um intelecto que superasse em muito as capacidades humanas na área de engenharia. Caso não seja explicitado de outra maneira, usaremos o termo superinteligência em referência apenas a sistemas que tenham um nível sobre-humano de inteligência geral. Mas como poderíamos criar uma superinteligência? Examinemos alguns caminhos possíveis. Inteligência artificial Os leitores deste capítulo não devem esperar encontrar instruções para a programação de uma inteligência artificial geral. Essas instruções, é claro, ainda não existem. E caso eu as possuísse, certamente não iria publicá-las num livro. (Se as razões para tal decisão não são imediatamente óbvias, os argumentos nos capítulos subsequentes serão capazes de esclarecê-las.) Podemos, entretanto, descrever alguns elementos gerais que precisariam estar presentes em um sistema dessa natureza. A esta altura, parece claro que a capacidade de aprendizagem seria uma das características centrais de um sistema que tivesse como intuito atingir a inteligência geral, e não algo a ser acrescentado posteriormente como uma extensão ou um adendo. O mesmo vale para a habilidade de lidar efetivamente com incertezas e informações probabilísticas. Entre outras características que provavelmente deverão ser centrais em um sistema moderno de IA que objetiva atingir a inteligência geral, podemos listar a capacidade de elaboração de conceitos úteis a partir da análise de dados sensoriais externos e estados internos ao agente e a habilidade de aplicar esses conceitos a uma série de representações combinatórias flexíveis que possam ser usadas na elaboração de raciocínios lógicos e intuitivos. Na maioria dos casos, os primeiros sistemas GOFAI não focaram na capacidade de aprendizagem, em incertezas ou na formação de conceitos, muito provavelmente porque as técnicas utilizadas para lidar com esses aspectos ainda não estavam plenamente desenvolvidas. Isso não quer dizer que essas ideias sejam muito recentes. A noção de que a capacidade de aprendizagem seria capaz de fazer com que um sistema mais simples atingisse níveis humanos de inteligência data, pelo menos, de 1950, quando Alan Turing descreveu o conceito de “máquina criança”: Em vez de tentar criar um programa capaz de simular a mente de um adulto, por que não tentar produzir um que simule a mente de uma criança? Se ele fosse, então, submetido a uma trajetória apropriada de aprendizado, seríamos capazes de obter o cérebro de um adulto. Turing contemplou um processo iterativo para o desenvolvimento da “máquina criança”: Não podemos esperar encontrar uma boa máquina criança logo na primeira tentativa. É possível fazer uma experiência, ensinando uma dessas máquinas para verificar a qualidade de seu processo de aprendizagem. Podemos, então, tentar com uma outra máquina e checar se ela se sai melhor ou pior. Existe uma conexão óbvia entre esse processo e a evolução [...]. Pode-se esperar, entretanto, que esse processo seja mais eficiente do que a evolução. A sobrevivência do mais apto é um processo lento demais para medir vantagens. O cientista, ao exercitar sua inteligência, deveria ser capaz de acelerá-lo. Igualmente importante é o fato de tal processo não estar restrito a mutações aleatórias. Se o cientista conseguir perceber a causa de alguma deficiência, ele provavelmente será capaz de pensar em algum tipo de mutação capaz de corrigi-la. Sabemos que processos evolutivos aleatórios são capazes de produzir níveis humanos de inteligência geral, levando em conta que isso já aconteceu pelo menos uma vez. Sendo assim, processos evolutivos planejados — isto é, programas genéticos elaborados e executados por um programador humano inteligente — poderiam ser capazes de alcançar resultados similares com muito mais eficiência. Essa mesma observação já foi usada por outros filósofos e cientistas, incluindo David Chalmers e Hans Moravec, para argumentar que a IA em níveis humanos não apenas é teoricamente possível como bastante plausível de ser alcançada ainda neste século. A ideia é que podemos estimar as potencialidades relativas da evolução natural e da engenharia humana para produzir inteligência e, ao fazer isso, perceberemos que a engenharia humana já é, em algumas áreas, muito superior à evolução natural e provavelmente não demorará muito para que o seja em todas as demais áreas. Nessa perspectiva, o fato de que a evolução natural tenha sido capaz de produzir inteligência indica que a engenharia humana será, muito em breve, capaz de fazer o mesmo. A esse respeito, Moravec escreveu (já em 1976): A existência de diversos exemplos de inteligência projetadas dentro dessas limitações nos dá bastante confiança de que seremos capazes de fazer o mesmo muito em breve. A situação é análoga ao caso do voo mais pesado que o ar, em que pássaros, morcegos e insetos comprovaram claramente essa possibilidade, muito antes de nossa cultura tê-la dominado. É preciso, entretanto, ter cautela sobre o que se pode inferir a partir dessa linha de raciocínio. É verdade que a evolução natural produziu o voo mais pesado que o ar e que a engenharia humana conseguiu posteriormente fazer o mesmo (embora tenha utilizado um mecanismo completamente diferente). Podemos citar outros exemplos nessa mesma linha, como o sonar, a navegação por magnetismo, armas químicas, fotorreceptores e vários tipos de características de desempenho mecânico e cinético. Entretanto, é igualmente possível apontar áreas nas quais os engenheiros humanos não foram capazes até agora de se equiparar à evolução natural: morfogênese, autorregeneração e defesa imunológica são alguns exemplos de áreas em que os esforços humanos não chegaram nem próximos ao que a natureza foi capaz de desenvolver. Sendo assim, o argumento de Moravec não é capaz de nos dar “bastante confiança” de que seremos capazes de desenvolver a IA em níveis humanos “muito em breve”. Na melhor das hipóteses, a evolução da vida inteligente coloca um limite superior para a dificuldade intrínseca de se criar inteligência. Mas esse limite superior pode estar bem acima das capacidades atuais da engenharia humana. Outra maneira de aplicar um argumento evolutivo na questão da viabilidade da IA é através da ideia de que, ao rodar algoritmos genéticos em computadores suficientemente rápidos, seríamos capazes de alcançar resultados comparáveis àqueles da evolução biológica. Essa versão do argumento evolutivo propõe, por conseguinte, um método específico através do qual a inteligência poderia ser gerada. Mas seria verdade que em breve conseguiremos desenvolver capacidade computacional suficiente para replicar os processos evolutivos relevantes que culminaram na inteligência humana? A resposta para essa pergunta depende do quanto a tecnologia computacional se desenvolverá nas próximas décadas e do poder de processamento necessário para a execução de algoritmos genéticos de forma tão otimizada quanto o processo evolutivo de seleção natural que nos precede. No fim das contas, embora a conclusão a que chegamos ao desenvolver essa linha de raciocínio decepcione por seu grau de indeterminação, é instrutiva a tentativa de se fazer uma estimativa, mesmo que imprecisa (ver quadro 3). Pelo menos, esse exercício chama a atenção para alguns pontos interessantes que ainda nos são desconhecidos. O fato é que os recursos computacionais necessários para que sejamos capazes de simplesmente replicar os processos evolutivos relevantes que produziram a inteligência de nível humano estão ainda muito longe de nosso alcance — e permanecerão assim, mesmo que a lei de Moore continuasse por mais um século (ver figura 3). É plausível, entretanto, que, em comparação a uma replicação força-bruta dos processos evolutivos naturais, grandes ganhos de eficiência possam ser alcançados com a projeção de um processo de busca que tenha a inteligência como objetivo, usando várias melhorias óbvias em relação à seleção natural. Mesmo assim é muito difícil prever a magnitude dos ganhos de eficiência de tal processo evolutivo artificial. Não somos sequer capazes de afirmar se o ganho seria de cinco ou 25 ordens de magnitude. Sendo assim, na ausência de mais informações, argumentos evolutivos não são capazes de restringir significativamente nossas expectativas nem em relação às dificuldades referentes à criação de uma máquina com inteligência de nível humano, nem quanto ao tempo que seria necessário para o seu desenvolvimento. QUADRO 3 O que seria necessário para replicar a evolução? Nem todos os feitos alcançados pelo processo evolutivo durante o desenvolvimento da inteligência humana são relevantes a um engenheiro interessado em fazer evoluir artificialmente uma máquina inteligente. Apenas uma pequena parte da seleção evolutiva em nosso planeta envolveu a seleção por inteligência. Mais especificamente, alguns obstáculos difíceis de serem superados pelos engenheiros humanos podem ter sido alvo de apenas uma pequena porção do processo de seleção evolutiva. Por exemplo, como nossos computadores funcionam com energia elétrica, não é necessário que tenhamos que reinventar as moléculas responsáveis pela economia de energia celular para desenvolver máquinas inteligentes — entretanto, boa parte da seleção natural observada no processo evolutivo da Terra pode ter sido usada para a evolução molecular dos caminhos metabólicos. É possível argumentar que a chave para o desenvolvimento da IA pode ser encontrada na estrutura dos sistemas nervosos que surgiram a menos de 1 bilhão de anos atrás. Se seguirmos por essa linha, o número de “experimentos” relevantes ao desenvolvimento de um processo evolutivo artificial diminui consideravelmente. Há algo em torno de 4–6×1030 procariontes no mundo hoje em dia, mas apenas 1019 insetos e menos de 1010 humanos (sendo que a população humana antes do desenvolvimento da agricultura era muito menor). Esses números são apenas moderadamente intimidadores. Todavia, algoritmos evolutivos não precisam ape