O obscuro uso do Facebook e do Twitter como armas de manipulação política

As manobras nas redes se tornam uma ameaça que os governos querem controlar

A manipulação das redes sociais está afetando os processos políticos.
A manipulação das redes sociais está afetando os processos políticos.
Tudo mudou para sempre em 2 de novembro de 2010, sem que ninguém percebesse. O Facebook introduziu uma simples mensagem que surgia no feed de notícias de seus usuários. Uma janelinha que anunciava que seus amigos já tinham ido votar. Estavam em curso as eleições legislativas dos Estados Unidos e 60 milhões de eleitores vieram aquele teaser do Facebook. Cruzando dados de seus usuários com o registro eleitoral, a rede social calculou que acabaram indo votar 340.000 pessoas que teriam ficado em casa se não tivessem visto em suas páginas que seus amigos tinham passado pelas urnas. 

Dois anos depois, quando Barack Obama tentava a reeleição, os cientistas do Facebook publicaram os resultados desse experimento político na revista Nature. Era a maneira de exibir os músculos diante dos potenciais anunciantes, o único modelo de negócio da empresa de Mark Zuckerberg, e que lhe rende mais de 9 bilhões de dólares por trimestre. É fácil imaginar o quanto devem ter crescido os bíceps do Facebook desde que mandou para as ruas centenas de milhares de eleitores há sete anos, quando nem sequer havia histórias patrocinadas.

Há algumas semanas, o co-fundador do Twitter, Ev Williams, se desculpou pelo papel determinante que essa plataforma desempenhou na eleição de Donald Trump, ao ajudar a criar um “ecossistema de veículos de comunicação que se sustenta e prospera com base na atenção”. “Isso é o que nos torna mais burros e Donald Trump é um sintoma disso”, afirmou. “Citar os tuítes de Trump ou a última e mais estúpida coisa dita por qualquer candidato político ou por qualquer pessoa é uma maneira eficiente de explorar os instintos mais baixos das pessoas. E isso está contaminando o mundo inteiro”, declarou Williams.

“Citar a coisa mais estúpida que qualquer político diga é uma maneira de explorar os instintos mais baixos das pessoas. Isso está contaminando o mundo inteiro”, declarou o fundador do Twitter

Quando perguntaram a Zuckerberg se o Facebook tinha sido determinante na eleição de Trump, ele recusou a ideia dizendo ser uma “loucura” e algo “extremamente improvável”. No entanto, a própria rede social que ele dirige se vangloria de ser uma ferramenta política decisiva em seus “casos de sucesso” publicitários, atribuindo a si mesma um papel essencial nas vitórias de deputados norte-americanas ou na maioria absoluta dos conservadores britânicos em 2015.

O certo é que é a própria equipe de Trump quem reconhece que cavalgou para a Casa Branca nas costas das redes sociais, aproveitando sua enorme capacidade de alcançar usuários tremendamente específicos com mensagens quase personalizadas. Como revelou uma representante da equipe digital de Trump à BBC, o Facebook, o Twitter, o YouTube e o Google tinham funcionários com escritórios próprios no quartel-general do republicano. “Eles nos ajudaram a utilizar essas plataformas da maneira mais eficaz possível. Quando você está injetando milhões e milhões de dólares nessas plataformas sociais [entre 70 e 85 milhões de dólares no caso do Facebook], recebe tratamento preferencial, com representantes que se certificam em satisfazer todas as nossas necessidades”.

E nisso apareceram os russos

A revelação de que o Facebook permitiu que, a partir de contas falsas ligadas a Moscou, fossem comprados anúncios pró-Trump no valor de 100.000 dólares colocou sobre a mesa o lado negro da plataforma de Zuckerberg. Encurralado pela opinião pública e pelo Congresso dos Estados Unidos, a empresa reconheceu que esses anúncios tinham alcançado 10 milhões de usuários. No entanto, um especialista da Universidade de Columbia, Jonathan Albright, calculou que o número real deve ser pelo menos o dobro, fora que grande parte de sua divulgação teria sido orgânica, ou seja, viralizando de maneira natural e não só por patrocínio. A resposta do Facebook? Apagar todo o rastro. E cortar o fluxo de informações para futuras investigações. “Nunca mais ele ou qualquer outro pesquisador poderá realizar o tipo de análise que fez dias antes”, publicou o The Washington Post há uma semana. “São dados de interesse público”, queixou-se Albright ao descobrir que o Facebook tinha fechado a última fresta pela qual os pesquisadores podiam espiar a realidade do que ocorre dentro da poderosa empresa.

Esteban Moro, que também se dedica a buscar frestas entre as opacas paredes da rede social, critica a decisão da companhia de se fechar em vez de apostar na transparência para demonstrar vontade de mudar. “Por isso tentamos forçar que o Facebook nos permita ver que parte do sistema influi nos resultados problemáticos”, afirma esse pesquisador, que atualmente trabalha no Media Lab do MIT. “Não sabemos até que ponto a plataforma está projetada para reforçar esse tipo de comportamento”, afirma, em referência à divulgação de falsas informações politicamente interessadas.

“Seus algoritmos são otimizados para favorecer a difusão da publicidade. Corrigir isso para evitar a propagação de desinformação vai contra o negócio”, explica Moro

O Facebook anunciou que contará com quase 9.000 funcionários para editar conteúdos, o que muitos consideram um remendo em um problema que é estrutural. “Seus algoritmos estão otimizados para favorecer a difusão de publicidade. Corrigir isso para evitar a propagação de desinformação vai contra o negócio”, explica Moro. A publicidade, principal fonte de rendas do Facebook e do Google, demanda que passemos mais tempos conectados, interagindo e clicando. E para obter isso, essas plataformas desenvolvem algoritmos muito potentes que criaram um campo de batalha perfeito para as mentiras polícias, no qual proliferaram veículos que faturam alto viralizando falsidades e meia-verdades polariza

“É imprescindível haver um processo de supervisão desses algoritmos para mitigar seu impacto. E necessitamos de mais pesquisa para conhecer sua influência”, reivindica Gemma Galdon, especialista no impacto social da tecnologia e diretora da consultoria Eticas. Galdon destaca a coincidência temporal de muitos fenômenos, como o efeito bolha das redes (ao fazer um usuário se isolar de opiniões diferentes da sua), o mal-estar social generalizado, a escala brutal na qual atuam essas plataformas, a opacidade dos algoritmos e o desaparecimento da confiança na imprensa. Juntos, esses fatos geraram “um desastre significativo”. Moro concorda que “muitas das coisas que estão ocorrendo na sociedade têm a ver com o que ocorre nas redes”. E aponta um dado: “São o único lugar em que se informam 40% dos norte-americanos, que passam nelas três horas por dia”.

A propaganda informática é “uma das ferramentas mais poderosas contra a democracia”, segundo especialistas de Oxford, e por isso as redes “precisam se redesenhar para que a democracia sobreviva”

A diretora de operações do Facebook, Sheryl Sandberg, braço direito de Zuckerberg, defendeu a venda de anúncios como os russos, argumentando que se trata de uma questão de “liberdade de expressão”. Segundo a agência de notícias Bloomberg, o Facebook e o Google colaboraram ativamente em uma campanha xenófoba contra refugiados para que fosse vista por eleitores-chave nos estados em disputa. O Google também aceitou dinheiro russo para anúncios no YouTube e no Gmail. Não em vão, o Facebook tem pressionado há anos para que não seja afetado pela legislação que exige que a mídia tradicional seja transparente na contratação de propaganda eleitoral. Agora, o Senado pretende legislar sobre a propaganda digital contra a pressão dessas grandes plataformas tecnológicas, que defendem a autorregulação. Tanto o Twitter quanto o Facebook expressaram recentemente a intenção de serem mais transparentes nesta questão.

A responsabilidade do Twitter

Em meados deste ano, o Instituto de Internet da Universidade de Oxford publicou um relatório devastador, analisando a influência que as plataformas digitais estavam tendo sobre os processos democráticos em todo o mundo. A equipe de pesquisadores estudou o que aconteceu com milhões de publicações nos últimos dois anos em nove países (Brasil, Canadá, China, Alemanha, Polônia, Taiwan, Rússia, Ucrânia e Estados Unidos) e concluiu, entre outras coisas, que “os bots [contas automatizadas] podem influenciar processos políticos de importância mundial”.

Facebook, Twitter, YouTube e Google tinham funcionários com escritório próprio no quartel-general de Trump: “Quando você injeta tantos milhões, tem tratamento preferencial”

Nos EUA, os republicanos e a direita supremacista usaram exércitos de bots para “manipular consensos, dando a ilusão de uma popularidade on-line significativa para construir um verdadeiro apoio político” e para ampliar o alcance de sua propaganda. E concentraram seus esforços nos principais estados em disputa, que foram inundados com notícias de fontes não confiáveis. Em países como a Polônia e a Rússia, grande parte das conversas no Twitter é monopolizada por contas automatizadas. Em estados mais autoritários, as redes são usadas para controlar o debate político, silenciando a oposição e, nos mais democráticos, aparecem as cibertropas para intencionalmente contaminar as discussões. As plataformas não informam nem interferem porque colocariam “sua conta em risco”.

“Os bots utilizados para a manipulação política também são ferramentas eficazes para fortalecer a propaganda on-line e as campanhas de ódio. Uma pessoa, ou um pequeno grupo de pessoas, pode usar um exército de robôs políticos no Twitter para dar a ilusão de um consenso de grande escala”, afirma a equipe da Oxford. E concluem: “A propaganda informática é agora uma das ferramentas mais poderosas contra a democracia” e é por isso que as plataformas digitais “precisam ser significativamente redesenhadas para que a democracia sobreviva às redes sociais”.

Zuckerberg diz que é “loucura” pensar que o Facebook pode definir eleições, mas se gaba de fazer isso em seu próprio site

O Twitter também deletou conteúdo de valor potencialmente insubstituível que ajudaria a identificar a influência russa na eleição de Trump. Mais recentemente, pesquisadores da Universidade do Sul da Califórnia alertaram sobre o desenvolvimento de um mercado paralelo de bots políticos: as mesmas contas que antes apoiaram Trump, tentaram mais tarde envenenar a campanha na França a favor de Le Pen e, depois, produziram material em alemão colaborando com o partido neonazista Afd. Zuckerberg prometeu fazer o possível para “garantir a integridade” das eleições alemãs. Durante a campanha, sete das 10 notícias mais virais sobre a primeira-ministra alemã Angela Merkel no Facebook eram falsas. O portal ProPublica acaba de revelar que a rede social tolerou anúncios ilegais que espalhavam informações tóxicas contra o Partido Verde alemão.

Galdon trabalha com a Comissão Europeia, a qual considera “muito preocupada” nos últimos meses em dar uma resposta a esses fenômenos, pensando em um marco europeu de controle que, atualmente, está muito longe de ser concretizado. “Há quem aposte pela autorregulação, quem acredite que deve haver um órgão de supervisão de algoritmos como o dos medicamentos e até mesmo quem peça que os conteúdos sejam diretamente censurados”, diz a pesquisadora. Mas Galdon destaca um problema maior: “Dizemos às plataformas que precisam atuar melhor, mas não sabemos o que significa melhor. As autoridades europeias estão preocupadas, mas não sabem bem o que está acontecendo, o que mudar ou o que pedir exatamente”.

SAIR DA BOLHA

Tem sido muito discutido o verdadeiro impacto do risco das bolhas de opinião geradas pelas redes, depois do alerta do ativista Eli Pariser. “Esse filtro, que acaba reforçando nossos próprios argumentos, está sendo decisivo”, alerta Galdon. Recentemente, Sheryl Sandberg, do Facebook, disse que a bolha era menor em sua plataforma do que na mídia tradicional (embora tenha negado categoricamente que sua empresa possa ser considerada um meio de comunicação). Cerca de 23% dos amigos de um usuário do Facebook têm opiniões políticas diferentes desse amigo, de acordo com Sandberg.

“Sabemos que as dinâmicas do Facebook favorecem o reforço de opiniões, que tudo é exacerbado porque buscamos a aprovação do grupo, porque podemos silenciar pessoas das quais não gostamos, porque a ferramenta nos dá mais do que nós gostamos. E isso gera maior polaridade”, diz Esteban Moro. Um exemplo: um estudo recente do Pew Research Center mostrou que os políticos mais extremistas têm muito mais seguidores no Facebook do que os moderados. “Vivemos em regiões de redes sociais completamente fechadas, das quais é muito difícil sair”, afirma. E propõe testar o experimento de seus colegas do Media Lab, do MIT, que desenvolveram a ferramenta FlipFeed, que permite entrar na bolha de outro usuário do Twitter, vendo sua timeline: “É como se você fosse levado de helicóptero e lançado no Texas sendo eleitor de Trump. Assim você percebe o quanto vivemos em um ecossistema de pessoas que pensam exatamente como nós”.

A guerra dos robôs se trava na Wikipédia

Até 4,7 milhões das mudanças da enciclopédia digital são feitas por programas de computador

Captura de tela da página inicial da Wikipédia em seu 15º aniversário.Captura de tela da página inicial da Wikipédia em seu 15º aniversário.

Cada vez são mais os sites da web que incorporam bots, robôs que são programas de computador que se comportam como humanos, para executar tarefas como responder perguntas dos usuários, fazer publicidade ou abrir contas de e-mail. Mas, apesar dos esforços e de seu uso generalizado, ainda estão muito longe de atuar na rede como se fossem uma pessoa. Essa é a conclusão à qual chegou um grupo de engenheiros do Instituto Alan Turing do Reino Unido, que estudou o comportamento desses robôs na Wikipédia e descobriu que até 4,7 milhões das edições dos artigos são correções que os robôs estão fazendo constantemente entre si, caindo em um tipo de edição interminável nada produtiva.

Captura de tela de uma das edições realizada por um bot.
Captura de tela de uma das edições realizada por um bot. WIKIPEDIA

Os robôs que trabalham na Wikipédia são responsáveis por tarefas que podem ser tediosas para as pessoas, como identificar e desfazer casos de vandalismo, adicionar links, verificar a ortografia e cuidar da concordância sintática das orações. O problema surge quando as edições que eles fazem estão condicionadas pelo país e idioma em que foram programados e são influenciadas por alguns aspectos culturais. Por exemplo, algumas dessas reversões são feitas para mudar Palestina por território palestino ou Golfo Pérsico para Golfo Árabe e assim com vários milhões de conceitos que não coincidem nas diferentes regiões do mundo.

Também estão programados para revisar as mudanças feitas cada certo tempo, o que ajuda a aparição de confrontos com outros robôs que fazem exatamente o mesmo e se corrigem entre si quando veem que sua última edição voltou a ser modificada. Nas mudanças que fazem as pessoas não acontecem esse tipo de conflito porque os usuários da Wikipédia raramente voltam a verificar se os dados que corrigiram estão atualizados.

Uma das curiosidades que mostra o estudo é que o número de edições depende do idioma do texto. Os escritos em alemão são os menos modificados, com uma média de 24 por entrada. No lado oposto estão os artigos em português, que acumulam até 185 reversões por artigo. De acordo com especialistas, uma das possíveis soluções para essas intermináveis batalhas é que a Wikipédia permita o uso de robôs cooperativos que podem gerir os desentendimentos e permitir que as tarefas possam ser cumpridas de forma eficiente.

O estudo mostra que os robôs podem trabalhar de forma completamente imprevisível. “O mundo on-line se tornou um ecossistema de robôs e, no entanto, nosso conhecimento sobre como interagem esses agentes automatizados é muito pobre”, reconhece Taha Yasseri, uma das responsáveis pela pesquisa.

Yasseri fala de todo um ecossistema e não exagera: um estudo de 2009 estimou que naquele ano os robôs geraram 24% de todos os tuites publicados; uma empresa de análise de audiências descobriu que 54% dos anúncios exibidos entre 2012 e 2013 foram vistos por robôs em vez de seres humanos; e, segundo uma empresa de segurança da web, os robôs realizaram 48,5% das visitas aos sites de 2015.

O número de incidências causadas por esses programas de computador aumentou de maneira constante nos últimos anos, indicando, de acordo com os pesquisadores, que seus criadores não estão fazendo o suficiente para melhorá-los ou que não conseguiram identificar os problemas que geram.

Alguns conflitos, como os da Wikipédia, podem ser considerados inócuos. Outros são mais problemáticos e virais, como o que aconteceu no Twitter em março deste ano, quando a Microsoft precisou retirar um dos seus robôs por tuitar mensagens com conteúdo racista, sexista e xenófobo. Tinha sido programado para responder perguntas e estabelecer conversas com os mais jovens da web e aprendeu com eles esse comportamento.se tornou um ecossistema de robôs e, no entanto, nosso conhecimento sobre como interagem é muito pobre”

Apesar das falhas e da falta de eficiência demonstrada em muitas ocasiões, os robôs são ainda uma opção muito útil em tarefas de conversação. O exemplo mais claro é Siri, a assistente da Apple que resolve as dúvidas do usuário através de mensagens de voz. Mas também há outros casos, como o criado por um estudante da Universidade de Stanford, que está programado para ajudar as pessoas a recorrer das multas de estacionamento. Em um ano conseguiu cancelar 160.000 multas e já funciona em Londres e Nova York.
Victoria Nadal/ElPais

Algorítimos irritam usuários da Internet

Internet se rebela contra a ditadura dos algoritmosInternet se rebela contra a ditadura dos algoritmos

Facebook e Google corrigem seus sistemas de inteligência artificial para mostrar a seus usuários uma visão de mundo mais rea

Pressionado pela crise das notícias falsas, o Google reagiu com mudanças em sua joia da coroa, os algoritmos de busca: a partir desta semana darão mais peso às páginas consideradas mais confiáveis e tornarão menos visíveis os conteúdos de baixa credibilidade.

Depois de meses de testes, as melhorias anunciadas pretendem evitar que os primeiros lugares das buscas continuem exibindo páginas que negam o Holocausto, divulgam mensagens vergonhosas contra as mulheres ou difundem boatos como o de que Barack Obama prepara um golpe de Estado contra Donald Trump.[ad name=”Retangulo – Anuncios – Duplo”]

Com o mesmo objetivo, o Facebook começa a permitir aos usuários que denunciem informações duvidosas. A partir desta semana, também passa a mostrar abaixo delas notícias confiáveis sobre o mesmo tema e também links para sites de checagem de dados.

A divulgação de mentiras, informações muito tendenciosas, rumores e boatos foi protagonista nas campanhas do Brexit e das eleições presidenciais nos EUA e colocou sob escrutínio os algoritmos de Google e Facebook, acusados de favorecer a divulgação de notícias falsas e a criação de bolhas ideológicas.

Isso porque as redes sociais mostram na timeline de cada usuário o que seus algoritmos intuem que a pessoa vai gostar, favorecendo notícias que confirmam sua visão de mundo diante das que questionam suas ideias, segundo adverte o relatório do projeto REIsearch, patrocinado pelo Atomium (o Instituto Europeu para a Ciência, Meios de Comunicação e Democracia), que acaba de lançar uma grande pesquisa pública para questionar os europeus sobre este e outros impactos da nova geração de tecnologias da Internet.

“Culpar as redes sociais pelas bolhas ideológicas é um paradoxo. Ampliam a visão dos usuários para além de seu entorno mais próximo, mas não resolveram um problema que já existia, porque seus algoritmos ainda não são suficientemente bons”, afirma David García, pesquisador da área de ciências sociais computacionais na Escola Politécnica Federal de Zurique.

Ali ele analisa se o conteúdo emocional das notícias falsas contribuiu para aumentar sua difusão. E destaca que os algoritmos podem detectá-las melhor se forem alimentados com dados sobre como são compartilhadas as notícias nas redes sociais.

Monitorar os usuários

“A pesquisa sobre as redes sociais permite identificar os usuários que compartilham notícias não verazes. Um algoritmo poderia detectar que uma notícia está sendo compartilhada por muitos desses usuários e classificá-la como possivelmente falsa”, afirma David García. “Imagino que o Google esteja fazendo algo parecido para melhorar seu algoritmo, mas o problema é que não sabemos o que é.”

Em 2015, um grupo de cientistas do Google publicou um artigo de pesquisa no qual explicava um novo método para avaliar a qualidade dos sites em função da veracidade dos dados que contém, em vez do método tradicional do buscador, que determina a popularidade de um site combinando uma multiplicidade de sinais externos, como o número de links para ele a partir de outros sites.

O Google não esclarece se incorporou esse algoritmo da verdade em suas melhorias recentes.

Walter Quattrociocchi, pesquisador da área de ciência de dados, redes e algoritmos no IMT – Institute for Advanced Studies italiano, alerta sobre essa ideia: “Um algoritmo, por definição, nunca será capaz de distinguir o verdadeiro do falso”.

Carlos Castillo, que dirige o grupo de pesquisas de ciência de dados no Eurecat (Barcelona), concorda: “Decidir se algo é verdadeiro ou falso não é algo que devemos terceirizar para uma máquina. Nem para outras pessoas. Não pode haver um Ministério da Verdade [como o do romance 1984, de George Orwell], tampouco um algoritmo da verdade”.

Pelo contrário, o pesquisador afirma que a maioria das mudanças anunciadas por Google e Facebook nas últimas semanas aplicam soluções baseadas na participação humana. Castillo defende o fomento do ceticismo visível: destacar as notícias falsas e contextualizá-las, ao contrário das exigências de que Facebook e Google as eliminem.

Soluções humanas: educação e verificação de dados

“O que sim podemos pedir a um algoritmo é que nos ajude a avaliar a veracidade de uma informação, destacando os dados e demais elementos que devemos comparar para formar nossa opinião”, acrescenta o pesquisador Carlos Castillo.

“Decidir se algo é verdadeiro ou falso não é algo que devemos terceirizar para uma máquina. Nem sequer para outras pessoas.”

Assim, a Full Fact, uma agência independente de verificação de dados, prevê que este ano seus revisores possam começar a usar inteligência artificial para agilizar seu trabalho.

Google e Facebook começaram a dar visibilidade a estas verificações humanas ao lado das notícias que divulgam, para que os usuários possam avaliar melhor sua veracidade.

Walter Quattrociocchi destaca a necessidade de “sinergias entre jornalistas e instituições acadêmicas para promover um intercâmbio cultural e combater a difusão de notícias falsas”.

“O problema não será resolvido pelos algoritmos”, adverte David García. E Carlos Castillo concorda também que “nos falta alfabetização midiática: ainda não desenvolvemos certas habilidades para avaliar as notícias, mas faremos isso”.

Na mesma linha, Andreas Schleicher, diretor de Educação da OCDE (Organização para a Cooperação e o Desenvolvimento Econômico) anunciou que a análise crítica de informações digitais será incorporada ao próximo relatório PISA, que em 2018 avaliará o rendimento acadêmico dos estudantes de nível secundário internacionalmente.
ElPais

Tecnologia: Cientistas contra robôs armados

A inteligência artificial está atingindo um desenvolvimento tão intenso que inquieta até seus pesquisadores pelo uso indevido que se pode fazer dela.

Robôs,Robótica,Inteligência artificial,Guerras,Blog do Mesquita

Mais de 1.000 cientistas e especialistas em inteligência artificial e outras tecnologias assinaram uma carta aberta contra o desenvolvimento de robôs militares autônomos, que prescindam da intervenção humana para seu funcionamento.

O físico Stephen Hawking, o cofundador da Apple Steve Wozniak, e o do PayPal, Elon Musk, estão entre os signatários do texto, que foi apresentado na terça-feira em Buenos Aires, na Conferência Internacional de Inteligência Artificial, um congresso onde estão sendo apresentados mais de 500 trabalhos dessa especialidade e ao qual comparecem vários signatários do manifesto.

O documento não se refere aos drones nem aos mísseis comandados por humanos, mas a armas autônomas que dentro de poucos anos a tecnologia de inteligência artificial poderá desenvolver e isso significaria uma “terceira revolução nas guerras, depois da pólvora e das armas nucleares”.

Especialistas reconhecem que existem argumentos a favor dos robôs militares, como o fato de que reduziriam as perdas humanas em conflitos bélicos. Ao contrário das armas nucleares, as autônomas não apresentam custos elevados e nem requerem matérias-primas difíceis de obter para sua construção, de acordo com os signatários. Por isso eles advertem que é “apenas uma questão de tempo” para que essa tecnologia apareça no “mercado negro e nas mãos de terroristas, ditadores e senhores da guerra”.

“Elas são ideais para assassinatos, desestabilização de nações, subjugação de populações e crimes seletivos de determinadas etnias”, alertam os cientistas, que propõem que a inteligência artificial seja usada para proteger seres humanos, especialmente civis, nos campos de batalha. “Começar uma carreira militar nas armas de inteligência artificial é uma má ideia”, advertem. Os cientistas comparam essa tecnologia com as bombas químicas ou biológicas.

“Não se trata de limitar a inteligência artificial, mas de introduzir limites éticos nos robôs, torná-los capazes de viver em sociedade e, sim, rejeitar claramente as armas autônomas sem controle humano”, explica Francesca Rossi, presidenta da conferência internacional e uma das signatárias do texto.

“Com a carta queremos tranquilizar as pessoas que a partir de fora deste mundo olham a inteligência artificial com uma preocupação às vezes exagerada. Nós também estamos interessados em limites éticos. Queremos reunir não apenas especialistas no assunto, mas filósofos e psicólogos para conseguir impor limites éticos aos robôs semelhantes aos dos seres humanos”, enfatiza.

O perigo de reprogramar

O argentino Guillermo Simari, da Universidade Nacional del Sur, organizador do congresso, compartilha da filosofia da carta. “As máquinas podem tomar decisões com as quais o ser humano não está de acordo. Os homens têm filtros éticos. É possível programar um filtro ético para a máquina, mas é muito fácil removê-lo”.

Simari acredita que o grande problema é a facilidade com que se pode reprogramar uma máquina. “Para fazer uma bomba atômica é preciso urânio enriquecido, que é muito difícil de conseguir. Para reprogramar uma máquina militar basta alguém com um computador digitando programas”.

No congresso também estão presentes aqueles que são contra a filosofia da carta. “Estão aqui os que acreditam que devemos continuar desenvolvendo a inteligência artificial e que ela pode ser controlada”, diz Ricardo Rodríguez, professor da Universidade de Buenos Aires e organizador do encontro. O debate entre os cientistas está vivo e agora passará para toda a sociedade.
Carlos E. Cuê/A.Rebossio

Inteligencia Artificial: O futuro da humanidade em suas mãos

Precisamos de sabedoria para enfrentar o futuro. Para saber se os avanços tecnológicos caminham na direção certa ou não; se favorecem os seres humanos ou o oposto.

Nick Bostrom, no Instituto do Futuro da Humanidade.
Foto:T. Pilston Getty Images

 Para se ter uma ideia do que fazer caso se apresentem cenários que ameaçam a sobrevivência da espécie, tais como os resultantes da ameaça nuclear, modificação de micróbios letais ou a criação de mentes digitais mais inteligentes do que o homem. Questões como essas são estudadas por um punhado de cérebros localizados na Universidade de Oxford, no chamado Instituto para o Futuro da Humanidade.

Liderando um grupo heterodoxo de filósofos, tecnólogos, físicos, economistas e matemáticos está um filósofo formado em física, neurociência computacional e matemática; um sujeito que, desde sua adolescência, buscava interlocutores para compartilhar suas inquietudes a respeito do filósofo alemão Arthur Schopenhauer; um sueco de 42 anos que passeia pelas instalações do instituto com uma bebida à base de vegetais, proteínas e gorduras que chama de elixir; e que escuta audiolivros com o dobro da velocidade para não perder um segundo do seu precioso tempo.

Estamos falando de Nick Bostrom, autor deSuperinteligência: Caminhos, Perigos, Estratégias (ainda não publicado no Brasil), um livro que causou impacto, uma reflexão sobre como lidar com um futuro no qual a Inteligência Artificial pode superar a humana, um ensaio que foi endossado explicitamente por cérebros do Vale do Silício como Bill Gates e Elon Musk; filósofos como Derek Parfit e Peter Singer; e físicos como Max Tegmark, professor do Instituto de Tecnologia de Massachusetts.

Um trabalho que, além disso, entrou para a lista de best-sellers elaborada pelo The New York Times Book Review. A ONU o convida para dar palestras, assim como institutos de pesquisa como a The Royal Society; uma de suas palestras para a organização TED já conta com mais de 1,7 milhão de visualizações. E Stephen Hawking já alertou o mundo: é preciso ter cuidado com a Inteligência Artificial.

O Instituto para o Futuro da Humanidade — FHI, na sigla em inglês — é um espaço com salas de reuniões batizadas com nomes de heróis anônimos que, com um gesto, salvaram o mundo — como Stanislav Petrov, o tenente-coronel russo que evitou um acidente nuclear durante a Guerra Fria —; onde fluem ideias, trocas de pontos de vista, onde florescem hipóteses e análises. Principalmente, às tardes e noites: o chefe é, como ele mesmo confessa, um corujão; fica no escritório até as 2h da madrugada.

“No momento em que saibamos como fazer máquinas inteligentes, vamos fazê-las”, disse Bostrom, em uma sala do instituto que dirige, “e, até lá, devemos saber como controlá-las. Se você tem um agente artificial com objetivos diferentes dos seus, quando se torna suficientemente inteligente é capaz de antecipar suas ações e fazer planos com base nos seus, o que poderia incluir esconder suas próprias habilidades de forma estratégica”.

Especialistas em Inteligência Artificial citados em seu livro dizem que há uma probabilidade de 90% de que, entre 2075 e 2090, existam máquinas inteligentes como os humanos. Na transição para essa nova era, será preciso tomar decisões. Talvez inocular valores morais às máquinas. Evitar que se voltem contra nós.

É para a análise desse tipo de suposições e cenários que este especialista lê intensivamente sobre machine learning (aprendizagem automática, um segmento da inteligência artificial que explora técnicas para que os computadores possam aprender por si mesmos) e sobre economia da inovação. Para Bostrom, o tempo nunca é suficiente. Ler, ler, ler, consolidar os conhecimentos, aprofundar, escrever. “O tempo é precioso. É um recurso valioso que constantemente desliza por entre os dedos.”

As pessoas parecem que se esquecem da guerra nuclear. Uma mudança para pior na geopolítica poderia se tornar um perigo

Estudar, formular hipóteses, desenvolvê-las, antecipar cenários. É o que se faz neste instituto onde se promove o brainstorming (uma tempestade de ideias) e a videoconferência, um labirinto de salas dominadas por lousas vileda com diagramas e em cuja entrada está pendurado um cartaz que reproduz a capa de Admirável Mundo Novo, a visionária distopia do livro de Aldous Huxley, publicado em 1932. Um total de 16 profissionais trabalha aqui.

Publicam revistas acadêmicas, produzem relatórios de risco para empresas de tecnologia, para Governos (por exemplo, para o finlandês) ou para a ONU, que está se preparando para construir seu primeiro programa de Inteligência Artificial — um dos representantes do programa visitava os escritórios do FHI na semana passada. Niel Bowerman, diretor-adjunto, físico do clima e ex-assessor da equipe política de Energia e Meio Ambiente de Barack Obama, diz que no instituto sempre estudam quão grande é um problema, quantas pessoas trabalham nele e quão fácil é avançar nessa área para determinar os campos de estudo.

Bostrom é quem comanda o instituto, quem decide onde ir, o visionário. Desenvolve seu trabalho graças ao incentivo filantrópico de James Martin, milionário interessado nas questões de riscos existenciais do futuro, que há 10 anos impulsionou o FHI para estudar e refletir sobre coisas que a indústria e Governos, guiados por seus próprios interesses, não têm por que pensar.

O filósofo sueco, que foi incluído em 2009 na lista dos 100 maiores pensadores globais da revista Foreign Policy, está interessado em estudar, em particular, sobre as ameaças distantes, as quais não gosta de colocar datas. “Quanto maior for o prazo”, diz, “maiores são as possibilidades de um cenário de extinção ou de era pós-humana”. Mas existem perigos no curto prazo. Os que mais preocupam Bostrom são aqueles que podem afetar negativamente as pessoas como pragas, vírus da gripe aviária, as pandemias.

Há uma corrida entre nosso progresso tecnológico e nossa sabedoria, que vai muito mais devagar

Em relação à Inteligência Artificial e sua relação com a militar, diz que os riscos mais evidentes são representados por drones e pelas armas letais autônomas. E lembra que a guerra nuclear, embora com poucas probabilidades de acontecer, ainda é um perigo latente. “As pessoas parecem que não se preocupam mais com ela; uma mudança para pior na situação geopolítica poderia se tornar um grande perigo.”

A biotecnologia e, em particular, a possibilidade oferecida pelo sistema de edição genética CRISPR de criar armas biológicas também colocam novos desafios. “A biotecnologia está avançando rapidamente; permitirá manipular a vida, modificar micróbios com grande precisão e potência. Isso abre caminho para habilidades muito destrutivas.” A tecnologia nuclear, destaca, pode ser controlada. A biotecnologia, a nanotecnologia, o que alguém faz em uma garagem com um equipamento de segunda mão, comprado no eBay, nem tanto. Com pouco, é possível fazer muito mal.

Depois de superar sua fase trans-humanista — fundou, em 1998, com David Pearce, a Associação Mundial Trans-humanista, grupo que defende com entusiasmo a expansão das habilidades humanas através do uso de tecnologias—, Bostrom encontrou na Inteligência Artificial o campo perfeito para desenvolver seu trabalho. A corrida nessa área deslanchou; grandes empresas — o Google comprou a empresa de tecnologia DeepMind, em 2014 — e Estados brigam para se apossar de um setor que poderia proporcionar poderes imensos, quase inimagináveis.

Um dos cenários projetados em seu livro é a tomada de poder por uma Inteligência Artificial. Ocorreria uma explosão de inteligência. As máquinas chegariam a um ponto em que superam seus programadores, os humanos. São capazes de melhorar a si mesmas. De desenvolver grandes habilidades de programação, estratégicas, de manipulação social, de hacking. Podem querer controlar o planeta.

Os seres humanos podem ser um obstáculo para seus objetivos. Para assumir o controle, escondem suas cartas. Podem se mostrar inicialmente dóceis. No momento em que desenvolvem todos seus poderes, podem lançar um ataque contra a espécie humana. Hackear drones, armas. Lançar robôs do tamanho de um mosquito desenvolvidos em nanofábricas produtoras de gás mostarda. Isso é apenas a síntese do desenvolvimento de um cenário.

Mas, como dizia a crítica da revista The Economist sobre o livroSuperinteligência, as implicações da introdução de uma segunda espécie inteligente na Terra merecem que alguém pense nelas. “Antes, muitas dessas questões, não apenas aquelas da AI [sigla em inglês de Artificial Intelligence], costumavam estar no campo da ficção científica, da especulação”, diz Bostrom, “para muitas pessoas era difícil entender ser possível fazer trabalho acadêmico com isso, que poderiam produzir avanços intelectuais”.

O livro também apresenta um cenário no qual a Inteligência Artificial se desenvolve em diferentes setores em paralelo e gera uma economia que produz patamares de riqueza inimagináveis, surpreendentes avanços tecnológicos. Os robôs, que não dormem nem pedem férias, produzem sem parar e substituem os seres humanos em vários trabalhos.

— Os robôs nos enriquecerão ou nos substituirão?

— Primeiramente, talvez nos enriqueçam. No longo prazo, vamos ver. O trabalho é caro e não é algo desejado, então é preciso pagar as pessoas para fazê-lo. Automatizá-lo parece benéfico. Isso cria dois desafios: se as pessoas perdem seus salários, como podem se manter? O que se torna uma questão política: planeja-se uma garantia de renda básica? Um Estado de bem-estar? Se esta tecnologia realmente torna o mundo um lugar muito mais rico, com um crescimento mais rápido, o problema deveria ser fácil de resolver, haveria mais dinheiro.

O outro desafio é que muita gente vê seu trabalho como necessário para ter status social e para que sua vida tenha sentido. Hoje, estar desempregado não é ruim só porque você não tem dinheiro, mas também porque muitas pessoas se sentem inúteis. Seria preciso mudar a cultura de modo que não pensemos que trabalhar por dinheiro é algo que dá valor. É possível, há exemplos históricos: os aristocratas não trabalhavam para viver; até pensavam que fazer isso era degradante. Acreditamos que as estruturas de significado social são universais, mas são recentes. A vida das crianças parece fazer muito sentido, mesmo se não fazem nada útil. Sou otimista: a cultura pode mudar.

Alguns segmentos da comunidade científica acusaram Bostrom de ser muito radical. Especialmente em sua fase trans-humanista. “Seus pontos de vista sobre a edição genética ou sobre a melhora do ser humano são controversos”, diz Miquel-Ángel Serra, biólogo que acaba de publicar, em parceria com Albert Cortina, Humanidade: Desafios Éticos das Tecnologias Emergentes (em espanhol). “Somos muito céticos em relação às suas propostas.” Serra, no entanto, deixa claro que Bostrom está agora no centro do debate sobre o futuro da Inteligência Artificial, que é uma referência.

— Você projeta uma visão muito apocalíptica em seu livro do que poderia acontecer com a humanidade?

— Muitas pessoas podem ter a impressão de que sou mais pessimista em relação à ‘AI’ do que realmente sou. Quando o escrevi, parecia mais urgente tentar ver o que poderia dar errado para nos certificar de como evitar isso.

— Mas você é otimista em relação ao futuro?

— Tento não ser pessimista nem otimista. Tento ajustar minhas crenças ao que a evidência aponta; com nosso conhecimento atual, acredito que o resultado final pode ser muito bom ou muito ruim. Embora talvez pudéssemos deslocar a probabilidade para um bom final, se trabalharmos duro para isso.

— Ou seja, há coisas para fazer. Quais?

— Estamos fazendo todo o possível para criar este campo de pesquisa de controle do problema. Devemos manter e cultivar boas relações com a indústria e com os desenvolvedores de Inteligência Artificial. Além disso, há muitas coisas que não vão bem neste mundo: pessoas que estão morrendo de fome, que são picadas por um mosquito e contraem malária, que se enfraquecem devido ao envelhecimento, desigualdade, injustiça, pobreza, e muitas [coisas] podem ser evitadas.

No geral, acredito que há uma corrida entre nossa habilidade de fazer as coisas, de avançar rapidamente nossas habilidades tecnológicas, e nossa sabedoria, que vai muito mais devagar. Precisamos de um certo nível de sabedoria e colaboração para o momento em que alcancemos determinados marcos tecnológicos, para sobreviver a essas transições.
Por: Joseba Elola