Arquivo

O obscuro uso do Facebook e do Twitter como armas de manipulação política

As manobras nas redes se tornam uma ameaça que os governos querem controlar A manipulação das redes sociais está afetando os processos políticos.Tudo mudou para sempre em 2 de novembro de 2010, sem que ninguém percebesse. O Facebook introduziu uma simples mensagem que surgia no feed de notícias de seus usuários. Uma janelinha que anunciava que seus amigos já tinham ido votar. Estavam em curso as eleições legislativas dos Estados Unidos e 60 milhões de eleitores vieram aquele teaser do Facebook. Cruzando dados de seus usuários com o registro eleitoral, a rede social calculou que acabaram indo votar 340.000 pessoas que teriam ficado em casa se não tivessem visto em suas páginas que seus amigos tinham passado pelas urnas.  Dois anos depois, quando Barack Obama tentava a reeleição, os cientistas do Facebook publicaram os resultados desse experimento político na revista Nature. Era a maneira de exibir os músculos diante dos potenciais anunciantes, o único modelo de negócio da empresa de Mark Zuckerberg, e que lhe rende mais de 9 bilhões de dólares por trimestre. É fácil imaginar o quanto devem ter crescido os bíceps do Facebook desde que mandou para as ruas centenas de milhares de eleitores há sete anos, quando nem sequer havia histórias patrocinadas. Há algumas semanas, o co-fundador do Twitter, Ev Williams, se desculpou pelo papel determinante que essa plataforma desempenhou na eleição de Donald Trump, ao ajudar a criar um “ecossistema de veículos de comunicação que se sustenta e prospera com base na atenção”. “Isso é o que nos torna mais burros e Donald Trump é um sintoma disso”, afirmou. “Citar os tuítes de Trump ou a última e mais estúpida coisa dita por qualquer candidato político ou por qualquer pessoa é uma maneira eficiente de explorar os instintos mais baixos das pessoas. E isso está contaminando o mundo inteiro”, declarou Williams. “Citar a coisa mais estúpida que qualquer político diga é uma maneira de explorar os instintos mais baixos das pessoas. Isso está contaminando o mundo inteiro”, declarou o fundador do Twitter Quando perguntaram a Zuckerberg se o Facebook tinha sido determinante na eleição de Trump, ele recusou a ideia dizendo ser uma “loucura” e algo “extremamente improvável”. No entanto, a própria rede social que ele dirige se vangloria de ser uma ferramenta política decisiva em seus “casos de sucesso” publicitários, atribuindo a si mesma um papel essencial nas vitórias de deputados norte-americanas ou na maioria absoluta dos conservadores britânicos em 2015. O certo é que é a própria equipe de Trump quem reconhece que cavalgou para a Casa Branca nas costas das redes sociais, aproveitando sua enorme capacidade de alcançar usuários tremendamente específicos com mensagens quase personalizadas. Como revelou uma representante da equipe digital de Trump à BBC, o Facebook, o Twitter, o YouTube e o Google tinham funcionários com escritórios próprios no quartel-general do republicano. “Eles nos ajudaram a utilizar essas plataformas da maneira mais eficaz possível. Quando você está injetando milhões e milhões de dólares nessas plataformas sociais [entre 70 e 85 milhões de dólares no caso do Facebook], recebe tratamento preferencial, com representantes que se certificam em satisfazer todas as nossas necessidades”. E nisso apareceram os russos A revelação de que o Facebook permitiu que, a partir de contas falsas ligadas a Moscou, fossem comprados anúncios pró-Trump no valor de 100.000 dólares colocou sobre a mesa o lado negro da plataforma de Zuckerberg. Encurralado pela opinião pública e pelo Congresso dos Estados Unidos, a empresa reconheceu que esses anúncios tinham alcançado 10 milhões de usuários. No entanto, um especialista da Universidade de Columbia, Jonathan Albright, calculou que o número real deve ser pelo menos o dobro, fora que grande parte de sua divulgação teria sido orgânica, ou seja, viralizando de maneira natural e não só por patrocínio. A resposta do Facebook? Apagar todo o rastro. E cortar o fluxo de informações para futuras investigações. “Nunca mais ele ou qualquer outro pesquisador poderá realizar o tipo de análise que fez dias antes”, publicou o The Washington Post há uma semana. “São dados de interesse público”, queixou-se Albright ao descobrir que o Facebook tinha fechado a última fresta pela qual os pesquisadores podiam espiar a realidade do que ocorre dentro da poderosa empresa. Esteban Moro, que também se dedica a buscar frestas entre as opacas paredes da rede social, critica a decisão da companhia de se fechar em vez de apostar na transparência para demonstrar vontade de mudar. “Por isso tentamos forçar que o Facebook nos permita ver que parte do sistema influi nos resultados problemáticos”, afirma esse pesquisador, que atualmente trabalha no Media Lab do MIT. “Não sabemos até que ponto a plataforma está projetada para reforçar esse tipo de comportamento”, afirma, em referência à divulgação de falsas informações politicamente interessadas. “Seus algoritmos são otimizados para favorecer a difusão da publicidade. Corrigir isso para evitar a propagação de desinformação vai contra o negócio”, explica Moro O Facebook anunciou que contará com quase 9.000 funcionários para editar conteúdos, o que muitos consideram um remendo em um problema que é estrutural. “Seus algoritmos estão otimizados para favorecer a difusão de publicidade. Corrigir isso para evitar a propagação de desinformação vai contra o negócio”, explica Moro. A publicidade, principal fonte de rendas do Facebook e do Google, demanda que passemos mais tempos conectados, interagindo e clicando. E para obter isso, essas plataformas desenvolvem algoritmos muito potentes que criaram um campo de batalha perfeito para as mentiras polícias, no qual proliferaram veículos que faturam alto viralizando falsidades e meia-verdades polariza “É imprescindível haver um processo de supervisão desses algoritmos para mitigar seu impacto. E necessitamos de mais pesquisa para conhecer sua influência”, reivindica Gemma Galdon, especialista no impacto social da tecnologia e diretora da consultoria Eticas. Galdon destaca a coincidência temporal de muitos fenômenos, como o efeito bolha das redes (ao fazer um usuário se isolar de opiniões diferentes da sua), o mal-estar social generalizado, a escala brutal na qual atuam essas plataformas, a opacidade dos algoritmos e o desaparecimento da confiança na imprensa. Juntos, esses fatos geraram “um desastre significativo”. Moro concorda que “muitas das coisas que estão ocorrendo na sociedade têm a ver com o que ocorre nas redes”. E

Leia mais »

A guerra dos robôs se trava na Wikipédia

Até 4,7 milhões das mudanças da enciclopédia digital são feitas por programas de computador Captura de tela da página inicial da Wikipédia em seu 15º aniversário. Cada vez são mais os sites da web que incorporam bots, robôs que são programas de computador que se comportam como humanos, para executar tarefas como responder perguntas dos usuários, fazer publicidade ou abrir contas de e-mail. Mas, apesar dos esforços e de seu uso generalizado, ainda estão muito longe de atuar na rede como se fossem uma pessoa. Essa é a conclusão à qual chegou um grupo de engenheiros do Instituto Alan Turing do Reino Unido, que estudou o comportamento desses robôs na Wikipédia e descobriu que até 4,7 milhões das edições dos artigos são correções que os robôs estão fazendo constantemente entre si, caindo em um tipo de edição interminável nada produtiva. Captura de tela de uma das edições realizada por um bot. WIKIPEDIA Os robôs que trabalham na Wikipédia são responsáveis por tarefas que podem ser tediosas para as pessoas, como identificar e desfazer casos de vandalismo, adicionar links, verificar a ortografia e cuidar da concordância sintática das orações. O problema surge quando as edições que eles fazem estão condicionadas pelo país e idioma em que foram programados e são influenciadas por alguns aspectos culturais. Por exemplo, algumas dessas reversões são feitas para mudar Palestina por território palestino ou Golfo Pérsico para Golfo Árabe e assim com vários milhões de conceitos que não coincidem nas diferentes regiões do mundo. Também estão programados para revisar as mudanças feitas cada certo tempo, o que ajuda a aparição de confrontos com outros robôs que fazem exatamente o mesmo e se corrigem entre si quando veem que sua última edição voltou a ser modificada. Nas mudanças que fazem as pessoas não acontecem esse tipo de conflito porque os usuários da Wikipédia raramente voltam a verificar se os dados que corrigiram estão atualizados. Uma das curiosidades que mostra o estudo é que o número de edições depende do idioma do texto. Os escritos em alemão são os menos modificados, com uma média de 24 por entrada. No lado oposto estão os artigos em português, que acumulam até 185 reversões por artigo. De acordo com especialistas, uma das possíveis soluções para essas intermináveis batalhas é que a Wikipédia permita o uso de robôs cooperativos que podem gerir os desentendimentos e permitir que as tarefas possam ser cumpridas de forma eficiente. O estudo mostra que os robôs podem trabalhar de forma completamente imprevisível. “O mundo on-line se tornou um ecossistema de robôs e, no entanto, nosso conhecimento sobre como interagem esses agentes automatizados é muito pobre”, reconhece Taha Yasseri, uma das responsáveis pela pesquisa. Yasseri fala de todo um ecossistema e não exagera: um estudo de 2009 estimou que naquele ano os robôs geraram 24% de todos os tuites publicados; uma empresa de análise de audiências descobriu que 54% dos anúncios exibidos entre 2012 e 2013 foram vistos por robôs em vez de seres humanos; e, segundo uma empresa de segurança da web, os robôs realizaram 48,5% das visitas aos sites de 2015. O número de incidências causadas por esses programas de computador aumentou de maneira constante nos últimos anos, indicando, de acordo com os pesquisadores, que seus criadores não estão fazendo o suficiente para melhorá-los ou que não conseguiram identificar os problemas que geram. Alguns conflitos, como os da Wikipédia, podem ser considerados inócuos. Outros são mais problemáticos e virais, como o que aconteceu no Twitter em março deste ano, quando a Microsoft precisou retirar um dos seus robôs por tuitar mensagens com conteúdo racista, sexista e xenófobo. Tinha sido programado para responder perguntas e estabelecer conversas com os mais jovens da web e aprendeu com eles esse comportamento.se tornou um ecossistema de robôs e, no entanto, nosso conhecimento sobre como interagem é muito pobre” Apesar das falhas e da falta de eficiência demonstrada em muitas ocasiões, os robôs são ainda uma opção muito útil em tarefas de conversação. O exemplo mais claro é Siri, a assistente da Apple que resolve as dúvidas do usuário através de mensagens de voz. Mas também há outros casos, como o criado por um estudante da Universidade de Stanford, que está programado para ajudar as pessoas a recorrer das multas de estacionamento. Em um ano conseguiu cancelar 160.000 multas e já funciona em Londres e Nova York. Victoria Nadal/ElPais

Leia mais »

Algorítimos irritam usuários da Internet

Internet se rebela contra a ditadura dos algoritmos Facebook e Google corrigem seus sistemas de inteligência artificial para mostrar a seus usuários uma visão de mundo mais rea Pressionado pela crise das notícias falsas, o Google reagiu com mudanças em sua joia da coroa, os algoritmos de busca: a partir desta semana darão mais peso às páginas consideradas mais confiáveis e tornarão menos visíveis os conteúdos de baixa credibilidade. Depois de meses de testes, as melhorias anunciadas pretendem evitar que os primeiros lugares das buscas continuem exibindo páginas que negam o Holocausto, divulgam mensagens vergonhosas contra as mulheres ou difundem boatos como o de que Barack Obama prepara um golpe de Estado contra Donald Trump.[ad name=”Retangulo – Anuncios – Duplo”] Com o mesmo objetivo, o Facebook começa a permitir aos usuários que denunciem informações duvidosas. A partir desta semana, também passa a mostrar abaixo delas notícias confiáveis sobre o mesmo tema e também links para sites de checagem de dados. A divulgação de mentiras, informações muito tendenciosas, rumores e boatos foi protagonista nas campanhas do Brexit e das eleições presidenciais nos EUA e colocou sob escrutínio os algoritmos de Google e Facebook, acusados de favorecer a divulgação de notícias falsas e a criação de bolhas ideológicas. Isso porque as redes sociais mostram na timeline de cada usuário o que seus algoritmos intuem que a pessoa vai gostar, favorecendo notícias que confirmam sua visão de mundo diante das que questionam suas ideias, segundo adverte o relatório do projeto REIsearch, patrocinado pelo Atomium (o Instituto Europeu para a Ciência, Meios de Comunicação e Democracia), que acaba de lançar uma grande pesquisa pública para questionar os europeus sobre este e outros impactos da nova geração de tecnologias da Internet. “Culpar as redes sociais pelas bolhas ideológicas é um paradoxo. Ampliam a visão dos usuários para além de seu entorno mais próximo, mas não resolveram um problema que já existia, porque seus algoritmos ainda não são suficientemente bons”, afirma David García, pesquisador da área de ciências sociais computacionais na Escola Politécnica Federal de Zurique. Ali ele analisa se o conteúdo emocional das notícias falsas contribuiu para aumentar sua difusão. E destaca que os algoritmos podem detectá-las melhor se forem alimentados com dados sobre como são compartilhadas as notícias nas redes sociais. Monitorar os usuários “A pesquisa sobre as redes sociais permite identificar os usuários que compartilham notícias não verazes. Um algoritmo poderia detectar que uma notícia está sendo compartilhada por muitos desses usuários e classificá-la como possivelmente falsa”, afirma David García. “Imagino que o Google esteja fazendo algo parecido para melhorar seu algoritmo, mas o problema é que não sabemos o que é.” Em 2015, um grupo de cientistas do Google publicou um artigo de pesquisa no qual explicava um novo método para avaliar a qualidade dos sites em função da veracidade dos dados que contém, em vez do método tradicional do buscador, que determina a popularidade de um site combinando uma multiplicidade de sinais externos, como o número de links para ele a partir de outros sites. O Google não esclarece se incorporou esse algoritmo da verdade em suas melhorias recentes. Walter Quattrociocchi, pesquisador da área de ciência de dados, redes e algoritmos no IMT – Institute for Advanced Studies italiano, alerta sobre essa ideia: “Um algoritmo, por definição, nunca será capaz de distinguir o verdadeiro do falso”. Carlos Castillo, que dirige o grupo de pesquisas de ciência de dados no Eurecat (Barcelona), concorda: “Decidir se algo é verdadeiro ou falso não é algo que devemos terceirizar para uma máquina. Nem para outras pessoas. Não pode haver um Ministério da Verdade [como o do romance 1984, de George Orwell], tampouco um algoritmo da verdade”. Pelo contrário, o pesquisador afirma que a maioria das mudanças anunciadas por Google e Facebook nas últimas semanas aplicam soluções baseadas na participação humana. Castillo defende o fomento do ceticismo visível: destacar as notícias falsas e contextualizá-las, ao contrário das exigências de que Facebook e Google as eliminem. Soluções humanas: educação e verificação de dados “O que sim podemos pedir a um algoritmo é que nos ajude a avaliar a veracidade de uma informação, destacando os dados e demais elementos que devemos comparar para formar nossa opinião”, acrescenta o pesquisador Carlos Castillo. “Decidir se algo é verdadeiro ou falso não é algo que devemos terceirizar para uma máquina. Nem sequer para outras pessoas.” Assim, a Full Fact, uma agência independente de verificação de dados, prevê que este ano seus revisores possam começar a usar inteligência artificial para agilizar seu trabalho. Google e Facebook começaram a dar visibilidade a estas verificações humanas ao lado das notícias que divulgam, para que os usuários possam avaliar melhor sua veracidade. Walter Quattrociocchi destaca a necessidade de “sinergias entre jornalistas e instituições acadêmicas para promover um intercâmbio cultural e combater a difusão de notícias falsas”. “O problema não será resolvido pelos algoritmos”, adverte David García. E Carlos Castillo concorda também que “nos falta alfabetização midiática: ainda não desenvolvemos certas habilidades para avaliar as notícias, mas faremos isso”. Na mesma linha, Andreas Schleicher, diretor de Educação da OCDE (Organização para a Cooperação e o Desenvolvimento Econômico) anunciou que a análise crítica de informações digitais será incorporada ao próximo relatório PISA, que em 2018 avaliará o rendimento acadêmico dos estudantes de nível secundário internacionalmente. ElPais

Leia mais »

Tecnologia: Cientistas contra robôs armados

A inteligência artificial está atingindo um desenvolvimento tão intenso que inquieta até seus pesquisadores pelo uso indevido que se pode fazer dela. Mais de 1.000 cientistas e especialistas em inteligência artificial e outras tecnologias assinaram uma carta aberta contra o desenvolvimento de robôs militares autônomos, que prescindam da intervenção humana para seu funcionamento. O físico Stephen Hawking, o cofundador da Apple Steve Wozniak, e o do PayPal, Elon Musk, estão entre os signatários do texto, que foi apresentado na terça-feira em Buenos Aires, na Conferência Internacional de Inteligência Artificial, um congresso onde estão sendo apresentados mais de 500 trabalhos dessa especialidade e ao qual comparecem vários signatários do manifesto. O documento não se refere aos drones nem aos mísseis comandados por humanos, mas a armas autônomas que dentro de poucos anos a tecnologia de inteligência artificial poderá desenvolver e isso significaria uma “terceira revolução nas guerras, depois da pólvora e das armas nucleares”. Especialistas reconhecem que existem argumentos a favor dos robôs militares, como o fato de que reduziriam as perdas humanas em conflitos bélicos. Ao contrário das armas nucleares, as autônomas não apresentam custos elevados e nem requerem matérias-primas difíceis de obter para sua construção, de acordo com os signatários. Por isso eles advertem que é “apenas uma questão de tempo” para que essa tecnologia apareça no “mercado negro e nas mãos de terroristas, ditadores e senhores da guerra”. MAIS INFORMAÇÕES O futuro está chegando do céu… em drones Drones põem em xeque a segurança das usinas nucleares francesas “Ninguém está no comando do planeta” “Elas são ideais para assassinatos, desestabilização de nações, subjugação de populações e crimes seletivos de determinadas etnias”, alertam os cientistas, que propõem que a inteligência artificial seja usada para proteger seres humanos, especialmente civis, nos campos de batalha. “Começar uma carreira militar nas armas de inteligência artificial é uma má ideia”, advertem. Os cientistas comparam essa tecnologia com as bombas químicas ou biológicas. “Não se trata de limitar a inteligência artificial, mas de introduzir limites éticos nos robôs, torná-los capazes de viver em sociedade e, sim, rejeitar claramente as armas autônomas sem controle humano”, explica Francesca Rossi, presidenta da conferência internacional e uma das signatárias do texto. “Com a carta queremos tranquilizar as pessoas que a partir de fora deste mundo olham a inteligência artificial com uma preocupação às vezes exagerada. Nós também estamos interessados em limites éticos. Queremos reunir não apenas especialistas no assunto, mas filósofos e psicólogos para conseguir impor limites éticos aos robôs semelhantes aos dos seres humanos”, enfatiza. O perigo de reprogramar O argentino Guillermo Simari, da Universidade Nacional del Sur, organizador do congresso, compartilha da filosofia da carta. “As máquinas podem tomar decisões com as quais o ser humano não está de acordo. Os homens têm filtros éticos. É possível programar um filtro ético para a máquina, mas é muito fácil removê-lo”. Simari acredita que o grande problema é a facilidade com que se pode reprogramar uma máquina. “Para fazer uma bomba atômica é preciso urânio enriquecido, que é muito difícil de conseguir. Para reprogramar uma máquina militar basta alguém com um computador digitando programas”. No congresso também estão presentes aqueles que são contra a filosofia da carta. “Estão aqui os que acreditam que devemos continuar desenvolvendo a inteligência artificial e que ela pode ser controlada”, diz Ricardo Rodríguez, professor da Universidade de Buenos Aires e organizador do encontro. O debate entre os cientistas está vivo e agora passará para toda a sociedade. Carlos E. Cuê/A.Rebossio

Leia mais »

Inteligencia Artificial: O futuro da humanidade em suas mãos

Precisamos de sabedoria para enfrentar o futuro. Para saber se os avanços tecnológicos caminham na direção certa ou não; se favorecem os seres humanos ou o oposto. Nick Bostrom, no Instituto do Futuro da Humanidade. Foto:T. Pilston Getty Images  Para se ter uma ideia do que fazer caso se apresentem cenários que ameaçam a sobrevivência da espécie, tais como os resultantes da ameaça nuclear, modificação de micróbios letais ou a criação de mentes digitais mais inteligentes do que o homem. Questões como essas são estudadas por um punhado de cérebros localizados na Universidade de Oxford, no chamado Instituto para o Futuro da Humanidade. MAIS INFORMAÇÕES Inteligência artificial melhora o diagnóstico de doenças mentais Cientistas contra robôs armados A nova era da computação e seus primeiros movimentos no Brasil Liderando um grupo heterodoxo de filósofos, tecnólogos, físicos, economistas e matemáticos está um filósofo formado em física, neurociência computacional e matemática; um sujeito que, desde sua adolescência, buscava interlocutores para compartilhar suas inquietudes a respeito do filósofo alemão Arthur Schopenhauer; um sueco de 42 anos que passeia pelas instalações do instituto com uma bebida à base de vegetais, proteínas e gorduras que chama de elixir; e que escuta audiolivros com o dobro da velocidade para não perder um segundo do seu precioso tempo. Estamos falando de Nick Bostrom, autor deSuperinteligência: Caminhos, Perigos, Estratégias (ainda não publicado no Brasil), um livro que causou impacto, uma reflexão sobre como lidar com um futuro no qual a Inteligência Artificial pode superar a humana, um ensaio que foi endossado explicitamente por cérebros do Vale do Silício como Bill Gates e Elon Musk; filósofos como Derek Parfit e Peter Singer; e físicos como Max Tegmark, professor do Instituto de Tecnologia de Massachusetts. Um trabalho que, além disso, entrou para a lista de best-sellers elaborada pelo The New York Times Book Review. A ONU o convida para dar palestras, assim como institutos de pesquisa como a The Royal Society; uma de suas palestras para a organização TED já conta com mais de 1,7 milhão de visualizações. E Stephen Hawking já alertou o mundo: é preciso ter cuidado com a Inteligência Artificial. O Instituto para o Futuro da Humanidade — FHI, na sigla em inglês — é um espaço com salas de reuniões batizadas com nomes de heróis anônimos que, com um gesto, salvaram o mundo — como Stanislav Petrov, o tenente-coronel russo que evitou um acidente nuclear durante a Guerra Fria —; onde fluem ideias, trocas de pontos de vista, onde florescem hipóteses e análises. Principalmente, às tardes e noites: o chefe é, como ele mesmo confessa, um corujão; fica no escritório até as 2h da madrugada. “No momento em que saibamos como fazer máquinas inteligentes, vamos fazê-las”, disse Bostrom, em uma sala do instituto que dirige, “e, até lá, devemos saber como controlá-las. Se você tem um agente artificial com objetivos diferentes dos seus, quando se torna suficientemente inteligente é capaz de antecipar suas ações e fazer planos com base nos seus, o que poderia incluir esconder suas próprias habilidades de forma estratégica”. Especialistas em Inteligência Artificial citados em seu livro dizem que há uma probabilidade de 90% de que, entre 2075 e 2090, existam máquinas inteligentes como os humanos. Na transição para essa nova era, será preciso tomar decisões. Talvez inocular valores morais às máquinas. Evitar que se voltem contra nós. É para a análise desse tipo de suposições e cenários que este especialista lê intensivamente sobre machine learning (aprendizagem automática, um segmento da inteligência artificial que explora técnicas para que os computadores possam aprender por si mesmos) e sobre economia da inovação. Para Bostrom, o tempo nunca é suficiente. Ler, ler, ler, consolidar os conhecimentos, aprofundar, escrever. “O tempo é precioso. É um recurso valioso que constantemente desliza por entre os dedos.” As pessoas parecem que se esquecem da guerra nuclear. Uma mudança para pior na geopolítica poderia se tornar um perigo Estudar, formular hipóteses, desenvolvê-las, antecipar cenários. É o que se faz neste instituto onde se promove o brainstorming (uma tempestade de ideias) e a videoconferência, um labirinto de salas dominadas por lousas vileda com diagramas e em cuja entrada está pendurado um cartaz que reproduz a capa de Admirável Mundo Novo, a visionária distopia do livro de Aldous Huxley, publicado em 1932. Um total de 16 profissionais trabalha aqui. Publicam revistas acadêmicas, produzem relatórios de risco para empresas de tecnologia, para Governos (por exemplo, para o finlandês) ou para a ONU, que está se preparando para construir seu primeiro programa de Inteligência Artificial — um dos representantes do programa visitava os escritórios do FHI na semana passada. Niel Bowerman, diretor-adjunto, físico do clima e ex-assessor da equipe política de Energia e Meio Ambiente de Barack Obama, diz que no instituto sempre estudam quão grande é um problema, quantas pessoas trabalham nele e quão fácil é avançar nessa área para determinar os campos de estudo. Bostrom é quem comanda o instituto, quem decide onde ir, o visionário. Desenvolve seu trabalho graças ao incentivo filantrópico de James Martin, milionário interessado nas questões de riscos existenciais do futuro, que há 10 anos impulsionou o FHI para estudar e refletir sobre coisas que a indústria e Governos, guiados por seus próprios interesses, não têm por que pensar. O filósofo sueco, que foi incluído em 2009 na lista dos 100 maiores pensadores globais da revista Foreign Policy, está interessado em estudar, em particular, sobre as ameaças distantes, as quais não gosta de colocar datas. “Quanto maior for o prazo”, diz, “maiores são as possibilidades de um cenário de extinção ou de era pós-humana”. Mas existem perigos no curto prazo. Os que mais preocupam Bostrom são aqueles que podem afetar negativamente as pessoas como pragas, vírus da gripe aviária, as pandemias. Há uma corrida entre nosso progresso tecnológico e nossa sabedoria, que vai muito mais devagar Em relação à Inteligência Artificial e sua relação com a militar, diz que os riscos mais evidentes são representados por drones e pelas armas letais autônomas. E lembra que a guerra nuclear, embora

Leia mais »