Inteligencia Artificial: O futuro da humanidade em suas mãos
Precisamos de sabedoria para enfrentar o futuro. Para saber se os avanços tecnológicos caminham na direção certa ou não; se favorecem os seres humanos ou o oposto. Nick Bostrom, no Instituto do Futuro da Humanidade. Foto:T. Pilston Getty Images Para se ter uma ideia do que fazer caso se apresentem cenários que ameaçam a sobrevivência da espécie, tais como os resultantes da ameaça nuclear, modificação de micróbios letais ou a criação de mentes digitais mais inteligentes do que o homem. Questões como essas são estudadas por um punhado de cérebros localizados na Universidade de Oxford, no chamado Instituto para o Futuro da Humanidade. MAIS INFORMAÇÕES Inteligência artificial melhora o diagnóstico de doenças mentais Cientistas contra robôs armados A nova era da computação e seus primeiros movimentos no Brasil Liderando um grupo heterodoxo de filósofos, tecnólogos, físicos, economistas e matemáticos está um filósofo formado em física, neurociência computacional e matemática; um sujeito que, desde sua adolescência, buscava interlocutores para compartilhar suas inquietudes a respeito do filósofo alemão Arthur Schopenhauer; um sueco de 42 anos que passeia pelas instalações do instituto com uma bebida à base de vegetais, proteínas e gorduras que chama de elixir; e que escuta audiolivros com o dobro da velocidade para não perder um segundo do seu precioso tempo. Estamos falando de Nick Bostrom, autor deSuperinteligência: Caminhos, Perigos, Estratégias (ainda não publicado no Brasil), um livro que causou impacto, uma reflexão sobre como lidar com um futuro no qual a Inteligência Artificial pode superar a humana, um ensaio que foi endossado explicitamente por cérebros do Vale do Silício como Bill Gates e Elon Musk; filósofos como Derek Parfit e Peter Singer; e físicos como Max Tegmark, professor do Instituto de Tecnologia de Massachusetts. Um trabalho que, além disso, entrou para a lista de best-sellers elaborada pelo The New York Times Book Review. A ONU o convida para dar palestras, assim como institutos de pesquisa como a The Royal Society; uma de suas palestras para a organização TED já conta com mais de 1,7 milhão de visualizações. E Stephen Hawking já alertou o mundo: é preciso ter cuidado com a Inteligência Artificial. O Instituto para o Futuro da Humanidade — FHI, na sigla em inglês — é um espaço com salas de reuniões batizadas com nomes de heróis anônimos que, com um gesto, salvaram o mundo — como Stanislav Petrov, o tenente-coronel russo que evitou um acidente nuclear durante a Guerra Fria —; onde fluem ideias, trocas de pontos de vista, onde florescem hipóteses e análises. Principalmente, às tardes e noites: o chefe é, como ele mesmo confessa, um corujão; fica no escritório até as 2h da madrugada. “No momento em que saibamos como fazer máquinas inteligentes, vamos fazê-las”, disse Bostrom, em uma sala do instituto que dirige, “e, até lá, devemos saber como controlá-las. Se você tem um agente artificial com objetivos diferentes dos seus, quando se torna suficientemente inteligente é capaz de antecipar suas ações e fazer planos com base nos seus, o que poderia incluir esconder suas próprias habilidades de forma estratégica”. Especialistas em Inteligência Artificial citados em seu livro dizem que há uma probabilidade de 90% de que, entre 2075 e 2090, existam máquinas inteligentes como os humanos. Na transição para essa nova era, será preciso tomar decisões. Talvez inocular valores morais às máquinas. Evitar que se voltem contra nós. É para a análise desse tipo de suposições e cenários que este especialista lê intensivamente sobre machine learning (aprendizagem automática, um segmento da inteligência artificial que explora técnicas para que os computadores possam aprender por si mesmos) e sobre economia da inovação. Para Bostrom, o tempo nunca é suficiente. Ler, ler, ler, consolidar os conhecimentos, aprofundar, escrever. “O tempo é precioso. É um recurso valioso que constantemente desliza por entre os dedos.” As pessoas parecem que se esquecem da guerra nuclear. Uma mudança para pior na geopolítica poderia se tornar um perigo Estudar, formular hipóteses, desenvolvê-las, antecipar cenários. É o que se faz neste instituto onde se promove o brainstorming (uma tempestade de ideias) e a videoconferência, um labirinto de salas dominadas por lousas vileda com diagramas e em cuja entrada está pendurado um cartaz que reproduz a capa de Admirável Mundo Novo, a visionária distopia do livro de Aldous Huxley, publicado em 1932. Um total de 16 profissionais trabalha aqui. Publicam revistas acadêmicas, produzem relatórios de risco para empresas de tecnologia, para Governos (por exemplo, para o finlandês) ou para a ONU, que está se preparando para construir seu primeiro programa de Inteligência Artificial — um dos representantes do programa visitava os escritórios do FHI na semana passada. Niel Bowerman, diretor-adjunto, físico do clima e ex-assessor da equipe política de Energia e Meio Ambiente de Barack Obama, diz que no instituto sempre estudam quão grande é um problema, quantas pessoas trabalham nele e quão fácil é avançar nessa área para determinar os campos de estudo. Bostrom é quem comanda o instituto, quem decide onde ir, o visionário. Desenvolve seu trabalho graças ao incentivo filantrópico de James Martin, milionário interessado nas questões de riscos existenciais do futuro, que há 10 anos impulsionou o FHI para estudar e refletir sobre coisas que a indústria e Governos, guiados por seus próprios interesses, não têm por que pensar. O filósofo sueco, que foi incluído em 2009 na lista dos 100 maiores pensadores globais da revista Foreign Policy, está interessado em estudar, em particular, sobre as ameaças distantes, as quais não gosta de colocar datas. “Quanto maior for o prazo”, diz, “maiores são as possibilidades de um cenário de extinção ou de era pós-humana”. Mas existem perigos no curto prazo. Os que mais preocupam Bostrom são aqueles que podem afetar negativamente as pessoas como pragas, vírus da gripe aviária, as pandemias. Há uma corrida entre nosso progresso tecnológico e nossa sabedoria, que vai muito mais devagar Em relação à Inteligência Artificial e sua relação com a militar, diz que os riscos mais evidentes são representados por drones e pelas armas letais autônomas. E lembra que a guerra nuclear, embora