Arquivo

Inteligencia Artificial: O futuro da humanidade em suas mãos

Precisamos de sabedoria para enfrentar o futuro. Para saber se os avanços tecnológicos caminham na direção certa ou não; se favorecem os seres humanos ou o oposto. Nick Bostrom, no Instituto do Futuro da Humanidade. Foto:T. Pilston Getty Images  Para se ter uma ideia do que fazer caso se apresentem cenários que ameaçam a sobrevivência da espécie, tais como os resultantes da ameaça nuclear, modificação de micróbios letais ou a criação de mentes digitais mais inteligentes do que o homem. Questões como essas são estudadas por um punhado de cérebros localizados na Universidade de Oxford, no chamado Instituto para o Futuro da Humanidade. MAIS INFORMAÇÕES Inteligência artificial melhora o diagnóstico de doenças mentais Cientistas contra robôs armados A nova era da computação e seus primeiros movimentos no Brasil Liderando um grupo heterodoxo de filósofos, tecnólogos, físicos, economistas e matemáticos está um filósofo formado em física, neurociência computacional e matemática; um sujeito que, desde sua adolescência, buscava interlocutores para compartilhar suas inquietudes a respeito do filósofo alemão Arthur Schopenhauer; um sueco de 42 anos que passeia pelas instalações do instituto com uma bebida à base de vegetais, proteínas e gorduras que chama de elixir; e que escuta audiolivros com o dobro da velocidade para não perder um segundo do seu precioso tempo. Estamos falando de Nick Bostrom, autor deSuperinteligência: Caminhos, Perigos, Estratégias (ainda não publicado no Brasil), um livro que causou impacto, uma reflexão sobre como lidar com um futuro no qual a Inteligência Artificial pode superar a humana, um ensaio que foi endossado explicitamente por cérebros do Vale do Silício como Bill Gates e Elon Musk; filósofos como Derek Parfit e Peter Singer; e físicos como Max Tegmark, professor do Instituto de Tecnologia de Massachusetts. Um trabalho que, além disso, entrou para a lista de best-sellers elaborada pelo The New York Times Book Review. A ONU o convida para dar palestras, assim como institutos de pesquisa como a The Royal Society; uma de suas palestras para a organização TED já conta com mais de 1,7 milhão de visualizações. E Stephen Hawking já alertou o mundo: é preciso ter cuidado com a Inteligência Artificial. O Instituto para o Futuro da Humanidade — FHI, na sigla em inglês — é um espaço com salas de reuniões batizadas com nomes de heróis anônimos que, com um gesto, salvaram o mundo — como Stanislav Petrov, o tenente-coronel russo que evitou um acidente nuclear durante a Guerra Fria —; onde fluem ideias, trocas de pontos de vista, onde florescem hipóteses e análises. Principalmente, às tardes e noites: o chefe é, como ele mesmo confessa, um corujão; fica no escritório até as 2h da madrugada. “No momento em que saibamos como fazer máquinas inteligentes, vamos fazê-las”, disse Bostrom, em uma sala do instituto que dirige, “e, até lá, devemos saber como controlá-las. Se você tem um agente artificial com objetivos diferentes dos seus, quando se torna suficientemente inteligente é capaz de antecipar suas ações e fazer planos com base nos seus, o que poderia incluir esconder suas próprias habilidades de forma estratégica”. Especialistas em Inteligência Artificial citados em seu livro dizem que há uma probabilidade de 90% de que, entre 2075 e 2090, existam máquinas inteligentes como os humanos. Na transição para essa nova era, será preciso tomar decisões. Talvez inocular valores morais às máquinas. Evitar que se voltem contra nós. É para a análise desse tipo de suposições e cenários que este especialista lê intensivamente sobre machine learning (aprendizagem automática, um segmento da inteligência artificial que explora técnicas para que os computadores possam aprender por si mesmos) e sobre economia da inovação. Para Bostrom, o tempo nunca é suficiente. Ler, ler, ler, consolidar os conhecimentos, aprofundar, escrever. “O tempo é precioso. É um recurso valioso que constantemente desliza por entre os dedos.” As pessoas parecem que se esquecem da guerra nuclear. Uma mudança para pior na geopolítica poderia se tornar um perigo Estudar, formular hipóteses, desenvolvê-las, antecipar cenários. É o que se faz neste instituto onde se promove o brainstorming (uma tempestade de ideias) e a videoconferência, um labirinto de salas dominadas por lousas vileda com diagramas e em cuja entrada está pendurado um cartaz que reproduz a capa de Admirável Mundo Novo, a visionária distopia do livro de Aldous Huxley, publicado em 1932. Um total de 16 profissionais trabalha aqui. Publicam revistas acadêmicas, produzem relatórios de risco para empresas de tecnologia, para Governos (por exemplo, para o finlandês) ou para a ONU, que está se preparando para construir seu primeiro programa de Inteligência Artificial — um dos representantes do programa visitava os escritórios do FHI na semana passada. Niel Bowerman, diretor-adjunto, físico do clima e ex-assessor da equipe política de Energia e Meio Ambiente de Barack Obama, diz que no instituto sempre estudam quão grande é um problema, quantas pessoas trabalham nele e quão fácil é avançar nessa área para determinar os campos de estudo. Bostrom é quem comanda o instituto, quem decide onde ir, o visionário. Desenvolve seu trabalho graças ao incentivo filantrópico de James Martin, milionário interessado nas questões de riscos existenciais do futuro, que há 10 anos impulsionou o FHI para estudar e refletir sobre coisas que a indústria e Governos, guiados por seus próprios interesses, não têm por que pensar. O filósofo sueco, que foi incluído em 2009 na lista dos 100 maiores pensadores globais da revista Foreign Policy, está interessado em estudar, em particular, sobre as ameaças distantes, as quais não gosta de colocar datas. “Quanto maior for o prazo”, diz, “maiores são as possibilidades de um cenário de extinção ou de era pós-humana”. Mas existem perigos no curto prazo. Os que mais preocupam Bostrom são aqueles que podem afetar negativamente as pessoas como pragas, vírus da gripe aviária, as pandemias. Há uma corrida entre nosso progresso tecnológico e nossa sabedoria, que vai muito mais devagar Em relação à Inteligência Artificial e sua relação com a militar, diz que os riscos mais evidentes são representados por drones e pelas armas letais autônomas. E lembra que a guerra nuclear, embora

Leia mais »

Chomsky: ‘Este é o momento mais crítico na história da humanidade’

Chomsky repassa as principais tendências do cenário internacional, a escalada militarista do seu país e os riscos crescentes de guerra nuclear. “Os Estados Unidos sempre foram uma sociedade colonizadora. Inclusive antes de se constituírem como Estado já trabalhavam para eliminar a população indígena, o que significou a destruição de muitas nações originárias”, como bem lembra o linguista e ativista estadunidense Noam Chomsky, quando se pede que descreva a situação política mundial. Crítico feroz da política externa de seu país, ele recorda 1898, quando ela apontou seus dardos ao cenário internacional, com o controle de Cuba, “transformada essencialmente numa colônia”, e logo nas Filipinas, “onde assassinaram centenas de milhares de pessoas”. Chomsky continua seu relato fazendo uma pequena contra-história do império: “roubou o Havaí da sua população originária 50 anos antes de incorporá-lo como um dos seus estados”. Imediatamente depois da II Guerra Mundial, os Estados Unidos se tornaram uma potência internacional, “com um poder sem precedente na história, um incomparável sistema de segurança, controlando o hemisfério ocidental e os dois grandes oceanos. E, naturalmente traçou planos para tentar organizar o mundo conforme a sua vontade”.[ad name=”Retangulo – Anuncios – Direita”] Contudo, ele aceita que o poder da superpotência diminuiu com respeito ao que tinha em 1950, o auge da sua hegemonia, quando acumulava 50% do produto interno bruto mundial, muito mais que os 25% que possui agora. Ainda assim, Chomsky lembra que “os Estados Unidos continua sendo o país mais rico e poderoso do mundo, e incomparável a nível militar”. Um sistema de partido único Em algum momento, Chomsky comparou as votações em seu país com a eleição de uma marca de pasta de dentes num supermercado. “Nosso país tem um só partido político, o partido da empresa e dos negócios, com duas facções, democratas e republicanos”, proclama. Mas ele acredita que já não é possível continuar falando dessas duas velhas coletividades políticas, já que suas tradições sofreram uma mutação completa durante o período neoliberal. Chomsky considera que “os chamados democratas não são mais que republicanos modernos, enquanto a antiga organização republicana ficou fora do espectro, já que ambas as vertentes se moveram muito mais à direita durante o período neoliberal – algo que também aconteceu na Europa”. O resultado disso é que os novos democratas de Hillary Clinton adotaram o programa dos velhos republicanos, enquanto estes foram completamente dominados pelos neoconservadores. “Se você olha os espetáculos televisivos onde dizem debater política, verá como somente gritam entre eles e as poucas políticas que apresentam são aterrorizantes”. Por exemplo, ele destaca que todos os candidatos republicanos negam que o aquecimento global ou são céticos – não o negam mas dizem que os governos não precisam fazer algo a respeito. “Entretanto, o aquecimento global é o pior problema que a espécie humana terá pela frente, e estamos nos dirigindo a um completo desastre”. Em sua opinião, as mudanças no clima têm efeitos comparáveis somente com os da guerra nuclear. Pior ainda, “os republicanos querem aumentar o uso de combustíveis fósseis. Esse não é um problema de centenas de anos, mas sim um criado pelas últimas duas gerações”. A negação da realidade, que caracteriza os neoconservadores, responde a uma lógica similar à que impulsiona a construção de um muro na fronteira com o México. “Essas pessoas que tratamos de distanciar são as que fogem da destruição causada pelas políticas estadunidenses”. “Em Boston, onde vivo, o governo de Obama deportou um guatemalteco que viveu aqui durante 25 anos, ele tinha uma família, uma empresa, era parte da comunidade. Havia escapado da Guatemala destruída durante a administração de Reagan. A resposta a isso é a ideia de construir um muro para nos prevenir. Na Europa acontece o mesmo. Quando vemos que milhões de pessoas fogem da Líbia e da Síria para a Europa, temos que nos perguntar o que aconteceu nos últimos 300 anos para chegar a isto”. Invasões e mudanças climáticas se retroalimentam Há apenas 15 anos, não existia o tipo de conflito que observamos hoje no Oriente Médio. “É consequência da invasão estadunidense ao Iraque, que é o pior crime do século. A invasão britânica-estadunidense teve consequências horríveis, destruíram o Iraque, que agora está classificado como o país mais infeliz do mundo, porque a invasão cobrou a vida de centenas de milhares de pessoas e gerou milhões de refugiados, que não foram acolhidos pelos Estados Unidos, e tiveram que ser recebidos pelos países vizinhos pobres, obrigados a recolher as ruínas do que nós destruímos. E o pior de tudo é que instigaram um conflito entre sunitas e xiitas que não existia antes”. As palavras de Chomsky recordam a destruição da Iugoslávia durante os Anos 90, instigada pelo ocidente. Assim como Sarajevo, ele destaca que Bagdá era uma cidade integrada, onde os diversos grupos culturais compartilhavam os mesmos bairros e se casavam membros de diferentes grupos étnicos e religiosos. “A invasão e as atrocidades que vimos em seguida fomentaram a criação de uma monstruosidade chamada Estado Islâmico, que nasce com financiamento saudita, um dos nossos principais aliados no mundo”. Um dos maiores crimes foi, em sua opinião, a destruição de grande parte do sistema agrícola sírio, que assegurava a alimentação do país, o que conduziu milhares de pessoas às cidades, “criando tensões e conflitos que explodiram após as primeiras faíscas da repressão”. Uma das suas hipóteses mais interessantes consiste em comparar os efeitos das intervenções armadas do Pentágono com as consequências do aquecimento global. Na guerra em Darfur (Sudão), por exemplo, convergiram os interesses das potências ocidentais e a desertificação que expulsa toda a população às zonas agrícolas, o que agrava e agudiza os conflitos. “Essas situações desembocam em crises espantosas, e algo parecido acontece na Síria, onde se registra a maior seca da história do país, que destruiu grande parte do sistema agrícola, gerando deslocamentos, exacerbando tensões e conflitos”, reflete. Chomsky acredita que a humanidade ainda não pensa com mais atenção sobre o que significa essa negação do aquecimento global e os planos a longo prazo dos republicanos, que pretendem acelerá-lo: “se

Leia mais »

Quatro cenários de ‘fim do mundo’ previstos por Stephen Hawking

A humanidade corre o risco de ser extinta graças a perigos criados por ela mesma, segundo o físico britânico Stephen Hawking. Hawking já alertou várias vezes para a possibilidade de a própria humanidade desencadear o fim do mundo – Image copyright PA Hawking foi o convidado deste ano das chamadas Reith Lectures – evento que desde 1948 convida pessoas de projeção pública para uma série anual de palestras transmitida pela emissora de rádio BBC Radio 4. Segundo o cientista, existem quatro cenários possíveis para um fim do mundo criado pela própria humanidade. E o progresso na ciência e tecnologia criará “novas formas de as coisas darem errado”. “Apesar de serem baixas as possibilidades de um desastre no planeta Terra em um ano qualquer, isso vai se acumulando com o tempo e se transforma em uma quase certeza para os próximos mil ou dez mil anos”, disse Hawking.[ad name=”Retangulo – Anuncios – Direita”] Hawking já fez vários alertas antes a respeito dos perigos que a humanidade estava criando. Veja abaixo os quatro possíveis motivos para um fim do mundo, segundo a opinião do cientista. 1) Inteligência artificial O clássico de Kubrick, ‘2001: Uma Odisseia no Espaço’ já previa um computador com inteligência artificial que saía de controle Foto: Moviestore/Rex/Shutterstock Stephen Hawking acredita que os esforços para criar máquinas que pensem sozinhas são uma ameaça à nossa existência. “O desenvolvimento de uma inteligência artificial total (AI) pode levar ao fim da raça humana”, disse o físico à BBC em 2014. Segundo ele, as formas primitivas de inteligência artificial desenvolvidas até o momento já provaram ser úteis, mas Hawking teme as consequências de se criar algo que possa se igualar ou até superar os humanos. “(As máquinas) iriam evoluir sozinhas, refazer o próprio projeto a uma velocidade cada vez maior. Humanos, que são limitados por uma evolução biológica lenta, não poderiam competir e seriam substituídos.” Hawking não é o único que teme a inteligência artificial. O cinema americano já tratou a questão como uma ameaça em vários filmes como 2001: Uma Odisseia no Espaço (de 1968), Bladerunner (de 1982), a série de filmes O Exterminador do Futuro, entre outros. 2) Guerra nuclear O poder das armas nucleares aumentou muito desde os primeiros testes na década de 1950 (Foto: Nasa) Se as máquinas não nos matarem, nós poderemos fazer isso por conta própria. “O fracasso humano que eu mais gostaria de corrigir é a agressão”, disse Hawking em uma palestra no Museu da Ciência de Londres, em 2015. “Pode ter sido uma vantagem para a sobrevivência na época dos homens das cavernas, para conseguir mais comida, território ou parceiros para reprodução, mas agora é uma ameaça que pode destruir todos nós.” As armas de destruição em massa atuais são capazes de acabar com a vida na Terra, e a proliferação dos arsenais nucleares é uma grande preocupação mundial. “Uma grande guerra mundial significaria o fim da civilização e talvez o fim da raça humana”, disse Hawking. 3) Vírus criado por engenharia genética Segundo Hawking, vírus criados em pequenos laboratórios podem dar grande dor de cabeça futura à humanidade (AP/Arquivo) E as armas nucleares podem não ser a pior ameaça entre as invenções da humanidade. Em 2001, Hawking disse ao jornal britânico Daily Telegraph que a raça humana enfrenta a perspectiva de ser exterminada por um vírus criado por ela mesma. “No longo prazo, fico mais preocupado com a biologia. Armas nucleares precisam de instalações grandes, mas engenharia genética pode ser feita em um pequeno laboratório. Você não consegue regulamentar cada laboratório do mundo. O perigo é que, seja por um acidente ou algo planejado, criemos um vírus que possa nos destruir”, disse o cientista ao jornal. “Não acho que a raça humana vai sobreviver aos próximos mil anos, a não ser que nos espalhemos pelo espaço. Há muitos acidentes que podem afetar a vida em um único planeta.” Novamente, temores como esse já foram retratados por Hollywood. Filmes como12 Macacos, Eu Sou A Lenda e a série Resident Evil são apenas alguns dos que mostram um cenário no qual vírus feitos pelos homens destroem a sociedade. 4) Aquecimento global Para o cientista, se aquecimento global continuar, a Terra corre o risco de ficar parecida com Vênus (Foto: Nasa) Stephen Hawking descreveu um cenário futurístico apocalíptico no documentário A Última Hora, de 2007. “Uma das consequências mais graves de nossas ações é o aquecimento global, causado pela emissão de crescentes níveis de dióxido de carbono resultantes da queima de combustíveis fósseis. O perigo é que o aumento da temperatura se transforme em (um processo) autossustentável, se é que já não está assim.” “Secas e devastação de florestas estão reduzindo a quantidade de CO2 que é reciclada na atmosfera”, afirmou. “Além disso, o derretimento das calotas polares vai reduzir a quantidade de energia solar refletida de volta para o espaço e assim aumentar ainda mais a temperatura. Não sabemos se o aquecimento global vai parar, mas o pior cenário possível é que a Terra se transforme em um planeta como Vênus, com uma temperatura de 250 graus na superfície e chuvas de ácido sulfúrico.” “A raça humana não pode sobreviver nestas condições”, acrescentou. BBC

Leia mais »

Japoneses criam casa móvel à prova de apocalipse nuclear

Módulo EDV-01 tem energia solar e comunicação via satélite. Casa japonesa à prova de apocalipse: dois andares e painéis solares (Foto: Divulgação/Daiwa) Equipamento pode ser transportado por caminhão ou helicóptero. A Daiwa House, empresa japonesa especializada em casas pré-fabricadas, apresentou o conceito de uma residência móvel construída para sobreviver a catástrofes naturais e a situações extremas como uma hecatombe nuclear. Batizado de EDV-01, o Veículo de Emergência para Desastres tem dois andares, banheiro, cozinha, camas, chuveiro, geladeira, iluminação por LED e sistema de transmissão de dados via satélite. O módulo, com medidas de 6,5 m de comprimento por 2,5 m de largura e profundidade, pesa cerca de 10 toneladas, e é alimentado por painéis que captam a luz solar e células de combustível. O formato permite que ele seja acoplado a caminhões e até helicópteros de transporte de carga pesada. O preço de um eventual produto final não foi divulgado pela fabricante de Osaka. G1

Leia mais »