Arquivo

Tecnologia: Cientistas contra robôs armados

A inteligência artificial está atingindo um desenvolvimento tão intenso que inquieta até seus pesquisadores pelo uso indevido que se pode fazer dela. Mais de 1.000 cientistas e especialistas em inteligência artificial e outras tecnologias assinaram uma carta aberta contra o desenvolvimento de robôs militares autônomos, que prescindam da intervenção humana para seu funcionamento. O físico Stephen Hawking, o cofundador da Apple Steve Wozniak, e o do PayPal, Elon Musk, estão entre os signatários do texto, que foi apresentado na terça-feira em Buenos Aires, na Conferência Internacional de Inteligência Artificial, um congresso onde estão sendo apresentados mais de 500 trabalhos dessa especialidade e ao qual comparecem vários signatários do manifesto. O documento não se refere aos drones nem aos mísseis comandados por humanos, mas a armas autônomas que dentro de poucos anos a tecnologia de inteligência artificial poderá desenvolver e isso significaria uma “terceira revolução nas guerras, depois da pólvora e das armas nucleares”. Especialistas reconhecem que existem argumentos a favor dos robôs militares, como o fato de que reduziriam as perdas humanas em conflitos bélicos. Ao contrário das armas nucleares, as autônomas não apresentam custos elevados e nem requerem matérias-primas difíceis de obter para sua construção, de acordo com os signatários. Por isso eles advertem que é “apenas uma questão de tempo” para que essa tecnologia apareça no “mercado negro e nas mãos de terroristas, ditadores e senhores da guerra”. MAIS INFORMAÇÕES O futuro está chegando do céu… em drones Drones põem em xeque a segurança das usinas nucleares francesas “Ninguém está no comando do planeta” “Elas são ideais para assassinatos, desestabilização de nações, subjugação de populações e crimes seletivos de determinadas etnias”, alertam os cientistas, que propõem que a inteligência artificial seja usada para proteger seres humanos, especialmente civis, nos campos de batalha. “Começar uma carreira militar nas armas de inteligência artificial é uma má ideia”, advertem. Os cientistas comparam essa tecnologia com as bombas químicas ou biológicas. “Não se trata de limitar a inteligência artificial, mas de introduzir limites éticos nos robôs, torná-los capazes de viver em sociedade e, sim, rejeitar claramente as armas autônomas sem controle humano”, explica Francesca Rossi, presidenta da conferência internacional e uma das signatárias do texto. “Com a carta queremos tranquilizar as pessoas que a partir de fora deste mundo olham a inteligência artificial com uma preocupação às vezes exagerada. Nós também estamos interessados em limites éticos. Queremos reunir não apenas especialistas no assunto, mas filósofos e psicólogos para conseguir impor limites éticos aos robôs semelhantes aos dos seres humanos”, enfatiza. O perigo de reprogramar O argentino Guillermo Simari, da Universidade Nacional del Sur, organizador do congresso, compartilha da filosofia da carta. “As máquinas podem tomar decisões com as quais o ser humano não está de acordo. Os homens têm filtros éticos. É possível programar um filtro ético para a máquina, mas é muito fácil removê-lo”. Simari acredita que o grande problema é a facilidade com que se pode reprogramar uma máquina. “Para fazer uma bomba atômica é preciso urânio enriquecido, que é muito difícil de conseguir. Para reprogramar uma máquina militar basta alguém com um computador digitando programas”. No congresso também estão presentes aqueles que são contra a filosofia da carta. “Estão aqui os que acreditam que devemos continuar desenvolvendo a inteligência artificial e que ela pode ser controlada”, diz Ricardo Rodríguez, professor da Universidade de Buenos Aires e organizador do encontro. O debate entre os cientistas está vivo e agora passará para toda a sociedade. Carlos E. Cuê/A.Rebossio

Leia mais »

Inteligencia Artificial: O futuro da humanidade em suas mãos

Precisamos de sabedoria para enfrentar o futuro. Para saber se os avanços tecnológicos caminham na direção certa ou não; se favorecem os seres humanos ou o oposto. Nick Bostrom, no Instituto do Futuro da Humanidade. Foto:T. Pilston Getty Images  Para se ter uma ideia do que fazer caso se apresentem cenários que ameaçam a sobrevivência da espécie, tais como os resultantes da ameaça nuclear, modificação de micróbios letais ou a criação de mentes digitais mais inteligentes do que o homem. Questões como essas são estudadas por um punhado de cérebros localizados na Universidade de Oxford, no chamado Instituto para o Futuro da Humanidade. MAIS INFORMAÇÕES Inteligência artificial melhora o diagnóstico de doenças mentais Cientistas contra robôs armados A nova era da computação e seus primeiros movimentos no Brasil Liderando um grupo heterodoxo de filósofos, tecnólogos, físicos, economistas e matemáticos está um filósofo formado em física, neurociência computacional e matemática; um sujeito que, desde sua adolescência, buscava interlocutores para compartilhar suas inquietudes a respeito do filósofo alemão Arthur Schopenhauer; um sueco de 42 anos que passeia pelas instalações do instituto com uma bebida à base de vegetais, proteínas e gorduras que chama de elixir; e que escuta audiolivros com o dobro da velocidade para não perder um segundo do seu precioso tempo. Estamos falando de Nick Bostrom, autor deSuperinteligência: Caminhos, Perigos, Estratégias (ainda não publicado no Brasil), um livro que causou impacto, uma reflexão sobre como lidar com um futuro no qual a Inteligência Artificial pode superar a humana, um ensaio que foi endossado explicitamente por cérebros do Vale do Silício como Bill Gates e Elon Musk; filósofos como Derek Parfit e Peter Singer; e físicos como Max Tegmark, professor do Instituto de Tecnologia de Massachusetts. Um trabalho que, além disso, entrou para a lista de best-sellers elaborada pelo The New York Times Book Review. A ONU o convida para dar palestras, assim como institutos de pesquisa como a The Royal Society; uma de suas palestras para a organização TED já conta com mais de 1,7 milhão de visualizações. E Stephen Hawking já alertou o mundo: é preciso ter cuidado com a Inteligência Artificial. O Instituto para o Futuro da Humanidade — FHI, na sigla em inglês — é um espaço com salas de reuniões batizadas com nomes de heróis anônimos que, com um gesto, salvaram o mundo — como Stanislav Petrov, o tenente-coronel russo que evitou um acidente nuclear durante a Guerra Fria —; onde fluem ideias, trocas de pontos de vista, onde florescem hipóteses e análises. Principalmente, às tardes e noites: o chefe é, como ele mesmo confessa, um corujão; fica no escritório até as 2h da madrugada. “No momento em que saibamos como fazer máquinas inteligentes, vamos fazê-las”, disse Bostrom, em uma sala do instituto que dirige, “e, até lá, devemos saber como controlá-las. Se você tem um agente artificial com objetivos diferentes dos seus, quando se torna suficientemente inteligente é capaz de antecipar suas ações e fazer planos com base nos seus, o que poderia incluir esconder suas próprias habilidades de forma estratégica”. Especialistas em Inteligência Artificial citados em seu livro dizem que há uma probabilidade de 90% de que, entre 2075 e 2090, existam máquinas inteligentes como os humanos. Na transição para essa nova era, será preciso tomar decisões. Talvez inocular valores morais às máquinas. Evitar que se voltem contra nós. É para a análise desse tipo de suposições e cenários que este especialista lê intensivamente sobre machine learning (aprendizagem automática, um segmento da inteligência artificial que explora técnicas para que os computadores possam aprender por si mesmos) e sobre economia da inovação. Para Bostrom, o tempo nunca é suficiente. Ler, ler, ler, consolidar os conhecimentos, aprofundar, escrever. “O tempo é precioso. É um recurso valioso que constantemente desliza por entre os dedos.” As pessoas parecem que se esquecem da guerra nuclear. Uma mudança para pior na geopolítica poderia se tornar um perigo Estudar, formular hipóteses, desenvolvê-las, antecipar cenários. É o que se faz neste instituto onde se promove o brainstorming (uma tempestade de ideias) e a videoconferência, um labirinto de salas dominadas por lousas vileda com diagramas e em cuja entrada está pendurado um cartaz que reproduz a capa de Admirável Mundo Novo, a visionária distopia do livro de Aldous Huxley, publicado em 1932. Um total de 16 profissionais trabalha aqui. Publicam revistas acadêmicas, produzem relatórios de risco para empresas de tecnologia, para Governos (por exemplo, para o finlandês) ou para a ONU, que está se preparando para construir seu primeiro programa de Inteligência Artificial — um dos representantes do programa visitava os escritórios do FHI na semana passada. Niel Bowerman, diretor-adjunto, físico do clima e ex-assessor da equipe política de Energia e Meio Ambiente de Barack Obama, diz que no instituto sempre estudam quão grande é um problema, quantas pessoas trabalham nele e quão fácil é avançar nessa área para determinar os campos de estudo. Bostrom é quem comanda o instituto, quem decide onde ir, o visionário. Desenvolve seu trabalho graças ao incentivo filantrópico de James Martin, milionário interessado nas questões de riscos existenciais do futuro, que há 10 anos impulsionou o FHI para estudar e refletir sobre coisas que a indústria e Governos, guiados por seus próprios interesses, não têm por que pensar. O filósofo sueco, que foi incluído em 2009 na lista dos 100 maiores pensadores globais da revista Foreign Policy, está interessado em estudar, em particular, sobre as ameaças distantes, as quais não gosta de colocar datas. “Quanto maior for o prazo”, diz, “maiores são as possibilidades de um cenário de extinção ou de era pós-humana”. Mas existem perigos no curto prazo. Os que mais preocupam Bostrom são aqueles que podem afetar negativamente as pessoas como pragas, vírus da gripe aviária, as pandemias. Há uma corrida entre nosso progresso tecnológico e nossa sabedoria, que vai muito mais devagar Em relação à Inteligência Artificial e sua relação com a militar, diz que os riscos mais evidentes são representados por drones e pelas armas letais autônomas. E lembra que a guerra nuclear, embora

Leia mais »

Quatro cenários de ‘fim do mundo’ previstos por Stephen Hawking

A humanidade corre o risco de ser extinta graças a perigos criados por ela mesma, segundo o físico britânico Stephen Hawking. Hawking já alertou várias vezes para a possibilidade de a própria humanidade desencadear o fim do mundo – Image copyright PA Hawking foi o convidado deste ano das chamadas Reith Lectures – evento que desde 1948 convida pessoas de projeção pública para uma série anual de palestras transmitida pela emissora de rádio BBC Radio 4. Segundo o cientista, existem quatro cenários possíveis para um fim do mundo criado pela própria humanidade. E o progresso na ciência e tecnologia criará “novas formas de as coisas darem errado”. “Apesar de serem baixas as possibilidades de um desastre no planeta Terra em um ano qualquer, isso vai se acumulando com o tempo e se transforma em uma quase certeza para os próximos mil ou dez mil anos”, disse Hawking.[ad name=”Retangulo – Anuncios – Direita”] Hawking já fez vários alertas antes a respeito dos perigos que a humanidade estava criando. Veja abaixo os quatro possíveis motivos para um fim do mundo, segundo a opinião do cientista. 1) Inteligência artificial O clássico de Kubrick, ‘2001: Uma Odisseia no Espaço’ já previa um computador com inteligência artificial que saía de controle Foto: Moviestore/Rex/Shutterstock Stephen Hawking acredita que os esforços para criar máquinas que pensem sozinhas são uma ameaça à nossa existência. “O desenvolvimento de uma inteligência artificial total (AI) pode levar ao fim da raça humana”, disse o físico à BBC em 2014. Segundo ele, as formas primitivas de inteligência artificial desenvolvidas até o momento já provaram ser úteis, mas Hawking teme as consequências de se criar algo que possa se igualar ou até superar os humanos. “(As máquinas) iriam evoluir sozinhas, refazer o próprio projeto a uma velocidade cada vez maior. Humanos, que são limitados por uma evolução biológica lenta, não poderiam competir e seriam substituídos.” Hawking não é o único que teme a inteligência artificial. O cinema americano já tratou a questão como uma ameaça em vários filmes como 2001: Uma Odisseia no Espaço (de 1968), Bladerunner (de 1982), a série de filmes O Exterminador do Futuro, entre outros. 2) Guerra nuclear O poder das armas nucleares aumentou muito desde os primeiros testes na década de 1950 (Foto: Nasa) Se as máquinas não nos matarem, nós poderemos fazer isso por conta própria. “O fracasso humano que eu mais gostaria de corrigir é a agressão”, disse Hawking em uma palestra no Museu da Ciência de Londres, em 2015. “Pode ter sido uma vantagem para a sobrevivência na época dos homens das cavernas, para conseguir mais comida, território ou parceiros para reprodução, mas agora é uma ameaça que pode destruir todos nós.” As armas de destruição em massa atuais são capazes de acabar com a vida na Terra, e a proliferação dos arsenais nucleares é uma grande preocupação mundial. “Uma grande guerra mundial significaria o fim da civilização e talvez o fim da raça humana”, disse Hawking. 3) Vírus criado por engenharia genética Segundo Hawking, vírus criados em pequenos laboratórios podem dar grande dor de cabeça futura à humanidade (AP/Arquivo) E as armas nucleares podem não ser a pior ameaça entre as invenções da humanidade. Em 2001, Hawking disse ao jornal britânico Daily Telegraph que a raça humana enfrenta a perspectiva de ser exterminada por um vírus criado por ela mesma. “No longo prazo, fico mais preocupado com a biologia. Armas nucleares precisam de instalações grandes, mas engenharia genética pode ser feita em um pequeno laboratório. Você não consegue regulamentar cada laboratório do mundo. O perigo é que, seja por um acidente ou algo planejado, criemos um vírus que possa nos destruir”, disse o cientista ao jornal. “Não acho que a raça humana vai sobreviver aos próximos mil anos, a não ser que nos espalhemos pelo espaço. Há muitos acidentes que podem afetar a vida em um único planeta.” Novamente, temores como esse já foram retratados por Hollywood. Filmes como12 Macacos, Eu Sou A Lenda e a série Resident Evil são apenas alguns dos que mostram um cenário no qual vírus feitos pelos homens destroem a sociedade. 4) Aquecimento global Para o cientista, se aquecimento global continuar, a Terra corre o risco de ficar parecida com Vênus (Foto: Nasa) Stephen Hawking descreveu um cenário futurístico apocalíptico no documentário A Última Hora, de 2007. “Uma das consequências mais graves de nossas ações é o aquecimento global, causado pela emissão de crescentes níveis de dióxido de carbono resultantes da queima de combustíveis fósseis. O perigo é que o aumento da temperatura se transforme em (um processo) autossustentável, se é que já não está assim.” “Secas e devastação de florestas estão reduzindo a quantidade de CO2 que é reciclada na atmosfera”, afirmou. “Além disso, o derretimento das calotas polares vai reduzir a quantidade de energia solar refletida de volta para o espaço e assim aumentar ainda mais a temperatura. Não sabemos se o aquecimento global vai parar, mas o pior cenário possível é que a Terra se transforme em um planeta como Vênus, com uma temperatura de 250 graus na superfície e chuvas de ácido sulfúrico.” “A raça humana não pode sobreviver nestas condições”, acrescentou. BBC

Leia mais »

Stephen Hawking: Inteligência artificial pode destruir a humanidade

Stephen Hawking, um dos mais proeminentes cientistas do mundo, disse à BBC que os esforços para criar máquinas pensantes é uma ameaça à existência humana. Cientista diz temer que as máquinas de inteligência artificial evoluam a ritmo muito superior ao dos humanos. “O desenvolvimento da inteligência artificial total poderia significar o fim da raça humana”, afirmou. Hawking fez a advertência ao responder uma pergunta sobre os avanços na tecnologia que ele próprio usa para se comunicar, a qual envolve uma forma básica de inteligência artificial. O físico britânico, que sofre de esclerose lateral amiotrófica (ELA), uma doença degenerativa, está usando um novo sistema desenvolvido pela empresa Intel para se comunicar. Especialistas da empresa britânica Swiftkey também participaram da criação do sistema. Sua tecnologia, já empregada como um aplicativo para teclados de smartphones, “aprende” a forma como Hawking pensa e sugere palavras que ele pode querer usar em seguida. Hawking diz que as formas primitivas de inteligência artificial desenvolvidas até agora têm se mostrado muito úteis, mas ele teme eventuais consequências de se criar máquinas que sejam equivalentes ou superiores aos humanos. Leia mais: Cientista quer converter ondas cerebrais de Hawking em palavras “(Essas máquinas) avançariam por conta própria e se reprojetariam em ritmo sempre crescente”, afirmou. “Os humanos, limitados pela evolução biológica lenta, não conseguiriam competir e seriam desbancados.”[ad name=”Retangulo – Anuncios – Direita”] ‘No comando’ Nem todos os cientistas, porém, compartilham da visão negativa de Hawking sobre a inteligência artificial. “Acredito que continuaremos no comando da tecnologia por um período razoável de tempo, e o potencial dela de resolver muitos dos problemas globais será concretizado”, opinou o especialista em inteligência artificial Rollo Carpenter, criador do Cleverbot, cujo software aprende a imitar conversas humanas com crescente eficácia. Carpenter disse que ainda estamos longe de ter o conhecimento de computação ou de algoritmos necessário para alcançar a inteligência artificial plena, mas acredita que isso acontecerá nas próximas décadas. “Não podemos saber exatamente o que acontecerá se uma máquina superar nossa inteligência, então não sabemos se ela nos ajudará para sempre ou se nos jogará para escanteio e nos destruirá”, disse Carpenter, que apesar disso vê o cenário como otimismo por acreditar que a inteligência artificial será uma força positiva. Ao mesmo tempo, Hawking não está sozinho em seu temor. No curto prazo, há preocupação quanto à eliminação de milhões de postos de trabalho por conta de máquinas capazes de realizar tarefas humanas; mas líderes de empresas de alta tecnologia, como Elon Musk, da fabricante de foguetes espaciais Space X, acreditam que, a longo prazo, a inteligência artificial se torne “nossa maior ameaça existencial”. Voz Na entrevista à BBC, Hawking também alertou para os perigos da internet, citando o argumento usado por centros de inteligência britânicos de que a rede estaria se tornando “um centro de comando para terroristas”. Mas o cientista se disse entusiasta de todas as tecnologias de comunicação e espera conseguir escrever com mais rapidez usando o seu novo sistema. Um aspecto tecnológico que não mudou no sistema é a voz robotizada que externaliza os pensamentos de Hawking. Mas o cientista diz que não faz questão de ter uma voz que soe natural. “(A voz robótica) se tornou minha marca registrada, e não a trocaria por uma mais natural com sotaque britânico”, disse. “Ouvi dizer que crianças que precisam de vozes computadorizadas querem uma igual à minha.” BBC

Leia mais »

Crise Mundial – Os Robôs de Wall Street, eles foram os culpados!

Softwares de inteligência artificial já controlam 40% das ações; e podem ter agravado a crise mundial Os investidores não são os únicos culpados pela crise financeira. Parte da responsabilidade cabe a outro grupo, que pouca gente conhece: os robôs de Wall Street. É isso mesmo. Os principais bancos e corretoras dos EUA entregaram seus investimentos a softwares de inteligência artificial, capazes de raciocinar e agir muito mais rápido que os investidores humanos – tudo para tentar levar vantagem no dia-a-dia do mercado. Segundo a consultoria especializada Aite Group, quase 40% de todas as negociações realizadas nas bolsas americanas já são controladas por esses softwares, que são capazes de tomar sozinhos as decisões de compra e venda e também já controlam parte das operações realizadas em mercados internacionais. Ao todo, as máquinas fazem quase 1 bilhão de transações por dia. Cada empresa do mercado financeiro desenvolve seus próprios softwares, cuja lógica é mantida em segredo. Ninguém sabe exatamente como eles funcionam, mas suas principais táticas são o processamento neural e os robôs têm liberdade para fazer experiências por conta própria até descobrir as melhores estratégias para ganhar no mercado – nem sempre obedecendo aos parâmentros definidos por seus criadores, os investidores humanos. [ad#Retangulo – Anuncios – Esquerda]É aí que entra o problema. Há quem diga que a tecnologia piorou as coisas – confrontados com uma situação inédita, durante o pico da crise financeira, os robôs teriam reagido de maneira agressiva demais. “Os softwares intensificaram as ondas de pânicos no mercado”, diz o analista americano Matthew Samelson, autor de um estudo a respeito. Vários dos bancos que detonaram a crise usavam softwares de inteligência artificial: Citigroup, Lehman Brothers e Bear Sterns, entre outros, haviam delegado parte de suas operações aos robôs financeiros. Mas as finanças computadorizadas vieram para ficar. No ano que vem, mais de 50% das operações em Wall Street serão feitas pelos robôs, que agora estão aprendendo a ler antes de tomar decisões: as agências Reuters e Bloomberg já oferecem notícias financeiras escritas em linguagem de máquina, que os softwares conseguem ler e analisar em frações de segundo. Fonte: Superinteressante

Leia mais »