• mqt_for@hotmail.com
  • Brasil

Inteligência Artificial está ajudando a entender os oceanos

As aplicações de aprendizado de computadores estão se mostrando especialmente úteis para a comunidade científica que estuda as maiores massas de água do planeta.

Direito de Imagem Getty Images

Se você tivesse cerca de 180.000 horas de gravações subaquáticas do Oceano Pacífico e precisasse saber quando e onde, nessas horas diferentes, baleias jubarte estavam cantando, você pesquisaria no Google?

Foi o que Ann Allen, ecologista de pesquisa da Administração Nacional Oceânica e Atmosférica, fez. 

Em janeiro de 2018, ela se aproximou do Google e perguntou se eles poderiam ajudá-la a encontrar o sinal de músicas de baleias jubarte em meio a todo o ruído do oceano, como chamadas de golfinhos ou motores de navios. Usando 10 horas de dados anotados, nos quais as músicas das baleias e outros ruídos foram identificados, os engenheiros do Google treinaram uma rede neural para detectar as músicas, com base em um modelo para reconhecer sons nos vídeos do YouTube, disse Julie Cattiau, gerente de produtos do Google.

Cerca de nove meses depois, a Dra. Allen tinha um modelo para identificar canções de baleias jubarte, que ela está usando em sua pesquisa sobre a ocorrência da espécie em ilhas do Pacífico e como ela pode ter mudado na última década. O Google usou algoritmos semelhantes para ajudar o Departamento de Pescas e Oceanos do Canadá a monitorar em tempo real a população da Orca Residente do Sul, em risco de extinção, que tem cerca de 70 animais.

As aplicações de aprendizado de máquina e inteligência artificial estão se mostrando especialmente úteis no oceano, onde existem tantos dados – grandes superfícies, profundidades profundas – e dados insuficientes – é muito caro e não é necessariamente útil coletar amostras de qualquer tipo por toda parte.

A mudança climática também torna o aprendizado de máquina muito mais valioso: muitos dados disponíveis para os cientistas não são mais precisos, pois os animais mudam de habitat, as temperaturas aumentam e as correntes mudam. À medida que as espécies se movem, o manejo de populações se torna ainda mais crítico.

A baleia franca do Atlântico Norte, ameaçada de extinção, cuja população caiu para cerca de 400, é um animal que pode se beneficiar de um monitoramento tecnologicamente mais avançado: provavelmente por causa do aquecimento das temperaturas, essas baleias se mudaram para o norte de seu habitat tradicional do Golfo do Maine para o Golfo de São Lourenço no Canadá. Coincidir com essa mudança é o que a NOAA chamou de “evento incomum de mortalidade”, no qual se sabe que 30 baleias morreram desde 2017 – 21 no Canadá e 9 nos Estados Unidos – a maioria devido a ataques de navios ou emaranhados em equipamentos de pesca.

As baleias francas do Atlântico Norte, como esta mãe e filhote, se mudaram para o norte, e mais delas estão morrendo.

Para proteger as baleias, os cientistas precisam saber onde estão, o que o Charles Stark Draper Laboratory e o New England Aquarium estão fazendo no que chamam de “contar baleias do espaço”. Tomando dados de satélites, sonar, radar, avistamentos humanos, correntes oceânicas e muito mais, eles estão treinando um algoritmo de aprendizado de máquina para criar um modelo de probabilidade de onde as baleias podem estar. Com essas informações, as autoridades federais, estaduais e locais podem tomar decisões sobre rotas de navegação e velocidades e pesca mais rapidamente, ajudando-as a proteger melhor as baleias, de acordo com Sheila Hemami, diretora de desafios globais da Draper.

Muitas populações de peixes também estão se movendo ou estão com sobrepesca ou se aproximando, e grande parte dessa pesca é feita ilegalmente. Em um esforço para conter as atividades ilegais e manter as populações em níveis saudáveis no oceano, o Google também ajudou a iniciar o Global Fishing Watch, uma organização que monitora a pesca em todo o mundo coletando.

Tecnologia,Crimes Cibernéticos,Internet,Redes Sociais,Hackers,Privacidade,Malware,Stalkware,WhatsApp,Facebook,Instagram,Twitter

“Facebook e Apple poderão ter o controle que a KGB nunca teve sobre os cidadãos”

O historiador Yuval Noah Harari, um dos pensadores do momento, reflete sobre como a inteligência artificial e o ‘big data’ transformarão a natureza humana

Yuval Noah Harari. JAIME VILLANUEVA

Um carro autônomo está prestes a atropelar cinco pedestres. O que deve fazer? Virar para o lado e matar seu dono para minimizar as baixas humanas, ou salvar a vida de seu passageiro e passar por cima de quem está na rua? Como se deveria programar o computador do automóvel? Dilemas éticos como esse preocupam Yuval Noah Harari (Israel, 1976), professor de História da Universidade Hebraica de Jerusalém e um dos pensadores de referência na atualidade. Seu primeiro livro, Sapiens, Uma Breve História da Humanidade, tornou-se um fenômeno editorial recomendado por Barack Obama e Mark Zuckerberg. Em seu segundo livro, Homo Deus, Uma Breve História do Amanhã, vai mais adiante e alerta para os riscos da inteligência artificial, do big data e dos algoritmos que permitem complexas predições matemáticas.

Harari descreve um futuro em que uma elite humana cada vez mais poderosa graças à tecnologia se distancia das massas até se transformar em uma nova espécie com capacidades nunca vistas. Um mundo controlado por máquinas e corporações tecnológicas que abandona à própria sorte os humanos que considera inúteis. Não se assustem: Harari diz em uma entrevista em Madri que ainda não é tarde para mudar o futuro.

Pergunta. Em meados deste ano, Zuckerberg recomendou seu primeiro ensaio. Acredita que fará o mesmo com o segundo?

Resposta. De fato este livro é mais desafiador, porque questiona opiniões e práticas do Vale do Silício. Não é um livro contra o Vale do Silício, mas sim sobre a revolução dos computadores e da Internet. É a coisa mais importante que está acontecendo agora e a deixamos nas mãos de umas poucas empresas. Permitir que o Facebook e a Amazon moldem o futuro da humanidade tem perigos inerentes. Não porque representem o mal, mas porque têm sua própria visão limitada do mundo, seus próprios interesses e não representam ninguém, ninguém votou neles. A maioria dos partidos e Governos não tem uma visão séria do futuro da humanidade.

“É preciso convencer os políticos de que a inteligência artificial não é ficção científica”

P. A promessa do Vale do Silício é mudar o mundo, torná-lo um lugar melhor. Não parece um objetivo ameaçador.

R. É preciso reconhecer que têm razão. O que se faz ali influirá mais que qualquer outra coisa no século XXI. Os políticos perderam o contato com a realidade. Donald Trump afirma que os chineses tirarão o trabalho dos americanos, mas serão os robôs. É preciso convencer os políticos de que a inteligência artificial não é uma fantasia de ficção científica.

P. Alguns especialistas dizem que os trabalhos que desaparecerão serão simplesmente substituídos por outros.

R. Não temos nenhuma garantia de que os trabalhos que vão surgir serão suficientes para compensar os que vão desaparecer. Também não está claro se os humanos serão capazes de realizar esses novos trabalhos melhor que a inteligência artificial. E, ainda, um terceiro problema é quantas pessoas terão a habilidade necessária para se reciclar.

“Estamos cedendo o controle de nossas vidas aos algoritmos”

P. O que acontecerá com essa massa de gente expulsa do mercado de trabalho?

R. Se as forças do mercado continuarem tomando as decisões mais importantes, é muito possível que uma elite monopolize o poder e o use para ascender a uma nova categoria, do Homo sapiens para Homo deus, uma espécie de super-humanos. E a maioria da população, uma nova classe formada por gente dispensável, ficará para trás. Isto já está acontecendo. Os exércitos mais avançados não recrutam mais milhares de soldados, mas um pequeno número de militares qualificados, apoiados por drones, robôs e técnicas de guerra cibernética. Para o exército, muitos soldados já são desnecessários. A engenharia genética e a inteligência artificial podem ser utilizadas para criar tipos de sociedades muito diferentes e deveríamos começar a discutir que sociedade queremos criar. Ainda podemos escolher.

P. Os algoritmos são cada vez mais importantes. Quais as consequências disso?

R. Um dos grandes perigos é que nos conhecem cada vez melhor e confiamos neles para que escolham por nós, desde coisas simples, como que notícias ler, até importantes, como nossa saúde. Perdemos o controle de nossas vidas e o entregamos aos algoritmos. É verdade que, muitas vezes, é positivo ceder. Por exemplo, Angelina Jolie fez um exame de DNA e encontrou uma mutação em um gene que, segundo o algoritmo, indicava uma possibilidade de 87% de desenvolver um câncer de mama. Naquele momento não estava doente, sentia-se perfeitamente bem. Mas se submeteu a uma dupla mastectomia. E, na minha opinião, fez bem. O potencial da tecnologia é incrível. O desafio é saber usá-lo, porque também tem um lado escuro. Se confiarmos nos algoritmos porque nos aconselham bem, damos a eles cada vez mais poder e controle sobre nossas vidas e podem começar a nos manipular, mesmo que de forma não intencional.

P. Muita gente não se importa de ceder seus dados.

R. Nossos dados pessoais são nosso maior patrimônio. Que lugares você frequenta, o que compra e, ainda por cima, seus dados biométricos, seu DNA, sua pressão arterial… Mas as pessoas cedem tudo isso a empresas como Amazon, Facebook e Google em troca de correio eletrônico, redes sociais e vídeos de gatinhos. Essas empresas acumulam uma grande quantidade de dados que lhes permitem compreender a sociedade e o mundo melhor que ninguém. O Facebook pode, teoricamente, decidir as eleições nos Estados Unidos. Uma das informações mais valiosas hoje em dia é quem são os eleitores indecisos. O Facebook tem essa informação. Nem todos estamos na rede social, é verdade, mas muita gente sim, e a empresa poderia tentar verificar quem são esses indecisos e até o que o candidato deveria dizer a eles para ganhar seu voto. O Facebook tem esse poder porque os usuários lhe entregam todos os seus dados pessoais.

P. É o fim do livre-arbítrio?

“É muito possível que uma nova classe de super-humanos monopolize o poder no futuro”

R. O cérebro é tão complexo que nem a KGB soviética, espionando os cidadãos o tempo todo, era capaz de entender as pessoas ou predizer seus gostos e desejos. Em certo sentido, isso nos torna livres. Mas, no século XXI, estamos adquirindo mais conhecimentos biológicos e os computadores têm mais poder. Assim, o que a KGB era incapaz de controlar, o Facebook e a Apple conseguirão em… 10, 20 ou 30 anos? Poderiam monitorar seu corpo com sensores biométricos, registrar esses dados e, com algoritmos sofisticados, analisá-los para saber exatamente quem você é, sua personalidade, o que você gosta, que resposta daria a determinada pergunta. Quando uma entidade externa te entende melhor que você mesmo, não há mais livre-arbítrio.

P. Muita gente o verá como mais um tecnófobo …

R. No livro falo mais dos riscos que das vantagens da tecnologia, porque acredito que é responsabilidade dos pensadores, historiadores e filósofos alertar para os perigos e buscar soluções. Os engenheiros e os empresários já se encarregam de ressaltar as vantagens. É importante que nós mesmos nos conheçamos e saibamos o que queremos na vida. Acredito que, assim, poderemos usar a tecnologia de forma mais sensata e alcançar nossos próprios objetivos.

Tecnologia,Inteligência Artificial,AI,Internet,Privacidade,Dados,BlogdoMesquita

Agência polonesa tem acesso a gravações de assistente virtual Alexa

Comandos verbais de usuários alemães de Alexa, da Amazon, vão parar na Polônia para transcrição não supervisionada. Escândalo recente revelou que assistente Siri, da Apple, faz gravações, por exemplo, durante o sexo.    

Aparelhos da linha Echo, da Amazon, distribuídos sobre mesa de madeiraLinha Echo da Amazon inclui assistente virtual Alexa: quadrilha de espiões dentro de casa?

A multinacional americana Amazon admitiu que emprega funcionários temporários, em parte trabalhando de casa, para transcrever manualmente os comandos verbais dados a sua assistente virtual, Alexa.

A admissão veio em resposta a revelações do semanário alemão Welt am Sonntag, de que empregados contratados por uma agência na Polônia tinham permissão para escutar as gravações vocais de usuários alemães de Alexa.

Essa revelação agrava as atuais preocupações sobre privacidade, em meio à popularidade crescente de recursos interativos permitindo o uso de instruções verbais para aparelhos reproduzirem música, acenderem luzes ou consultarem as notícias ou a meteorologia.

Revelações anteriores mostraram que os assistentes virtuais podem ser involuntariamente ativados para gravar conversas. No fim de julho, o jornal inglês The Guardian noticiou que funcionários trabalhando no assistente virtual da Apple, Siri, escutavam mais do que as instruções dos usuários, tendo acompanhado eventos como negócios com drogas ou relações sexuais. Entre os “sinais-gatilho” programados estavam, por exemplo, o som de um zíper.

O artigo do Welt revela agora que os comandos vocais dos usuários alemães de Alexa não são escutados apenas por funcionários da Amazon, mas também por indivíduos contratados pela agência Randstad, na Polônia. O fato de eles poderem trabalhar de casa ou em trânsito, potencialmente abre a possibilidade de que as informações pessoais dos usuários sejam copiadas ou partilhadas, sem qualquer instância de controle.

Embora a Amazon assegure que apenas seu quadro de confiança tem acesso às gravações, os anúncios de emprego da Randstad ofereciam a candidatos com excelentes conhecimentos de alemão a promessa de “trabalhar de todo o país”, após treinamento na sucursal da Amazon em Gdansk.

Embora admitindo que transcrições de áudio podem ser realizadas de casa, a gigante do comércio eletrônico insistiu haver “medidas e diretrizes estritas de segurança, que todo empregado deve respeitar”. Trabalhar em locais públicos, por exemplo, seria proibido.

Segundo confirmou um contratado da agência polonesa ao periódico alemão, era possível escutarem-se, nos áudios transmitidos, nomes e locais que potencialmente permitiriam a identificação dos usuários de Alexa.

Especialistas alertam sobre contra o Reconhecimento Facial

Inteligência Artificial,Blog do Mesquita

PARA MUITA GENTE, o reconhecimento facial passou rapidamente de novidade tecnológica a vida real, com milhões de pessoas no mundo todo dispostas a ter seus rostos digitalizados por softwares de aeroporto, iPhones ou fazendas de servidores do Facebook.

Mas pesquisadores do instituto AI Now, da Universidade de Nova York, emitiram um forte alerta não só contra o reconhecimento facial onipresente, mas também em relação ao seu parente mais sinistro: o chamado reconhecimento de emoção, tecnologia que afirma poder encontrar um significado oculto na forma do seu nariz e da sua boca e na maneira como você sorri. Se isso soa como algo retirado do século 19, é porque é mais ou menos por aí.

O relatório de 2018 do AI Now é um registro de 56 páginas de como a “inteligência artificial” – um termo abrangente que inclui uma miríade tanto de tentativas científicas para simular o julgamento humano quanto absurdos de marketing – continua a se espalhar sem supervisão, regulamentação ou escrutínio ético significativo. O relatório abrange uma ampla extensão de usos e abusos, incluindo casos de discriminação racial, vigilância policial e de como as leis de sigilo comercial podem ocultar códigos tendenciosos de um público com vigilância da IA. Mas o AI Now, que foi criado no ano passado para lidar com as implicações sociais da inteligência artificial, expressa no documento um receio quanto ao reconhecimento de emoção, “uma subclasse de reconhecimento facial que alega detectar coisas como personalidade, sentimentos íntimos, saúde mental e ‘envolvimento do trabalhador’ com base em imagens ou vídeos de rostos”. A ideia de ter seu chefe observando você por meio de uma câmera que usa aprendizado de máquina para avaliar constantemente seu estado mental é ruim o suficiente, embora a perspectiva da polícia usar “reconhecimento de emoção” para deduzir sua criminalidade futura baseada em “microexpressões” seja exponencialmente pior.

“A capacidade de usar reconhecimento facial e análise massiva de dados para encontrar correlações está levando a algumas alegações muito suspeitas.”

Isso porque o “reconhecimento de emoção”, explica o relatório, é pouco mais do que a informatização da fisiognomia, uma cepa de pseudociência totalmente desacreditada e desmentida de outra época que afirmava que o caráter de uma pessoa podia ser discernido de seus corpos – e de seus rostos, em particular. Não havia razão para acreditar que isso fosse verdade na década de 1880, quando figuras como o desacreditado criminologista italiano Cesare Lombroso promoveram a teoria, e há ainda menos razões para acreditar nisso hoje. Ainda assim, é uma ideia atraente, apesar da falta de base em qualquer ciência, e as empresas centradas em dados aproveitaram a oportunidade para não apenas colocar nomes em rostos, mas para atribuir padrões de comportamento e previsões inteiras a uma relação invisível entre sua sobrancelha e nariz que só pode ser decifrado através do olho de um computador. Há dois anos, estudantes de uma universidade de Xangai publicaram um relatório detalhando o que alegaram ser um método de aprendizado de máquina para determinar a criminalidade com base apenas em características faciais. O artigo foi amplamente criticado, inclusive por Kate Crawford, do AI Now, que disse ao Intercept que se tratava de “frenologia literal… apenas usando ferramentas modernas de aprendizado de máquina supervisionado em vez de pinças”.

Crawford e seus colegas agora se opõem mais do que nunca à disseminação desse tipo de previsão algorítmica cultural e cientificamente regressiva: “Embora a fisiognomia tenha caído em desuso após sua associação com a ciência racial nazista, os pesquisadores estão preocupados com o ressurgimento de ideias fisiognômicas em aplicativos de reconhecimento de emoção”, diz o relatório. “A ideia de que os sistemas de inteligência artificial podem nos dizer o que um aluno, um cliente ou um suspeito criminal realmente está sentindo ou que tipo de pessoa eles são intrinsecamente está se mostrando atraente para corporações e governos, embora as justificativas científicas para tais alegações sejam altamente questionáveis, e a história de seus objetivos discriminatórios, bem documentada.”

Em um e-mail para o Intercept, Crawford, co-fundadora do AI Now e renomada professora de pesquisa na NYU, juntamente com Meredith Whittaker, co-fundadora do AI Now e cientista pesquisadora da NYU, explicou por que o reconhecimento de emoção é mais preocupante hoje do que nunca, referindo-se a duas empresas que usam aparências para tirar conclusões importantes sobre as pessoas. “Da Faception alegando ser capaz de ‘detectar’ se alguém é terrorista a partir de seu rosto até o HireVue registrando em massa candidatos a empregos para prever se eles serão bons funcionários com base em suas ‘microexpressões faciais’, a capacidade de usar reconhecimento facial e análise maciça de dados para encontrar correlações está levando a algumas alegações muito suspeitas”, disse Crawford.

A Faception tem pretendido determinar a partir da aparência se alguém é “psicologicamente desequilibrado”, ansioso ou carismático, enquanto a HireVue tem classificado candidatos a empregos na mesma base.

Como acontece com qualquer sistema computadorizado de julgamento e tomada de decisões automáticos e invisíveis, o potencial para se ser classificado, sinalizado ou etiquetado erroneamente é imenso com o reconhecimento de emoção, especialmente devido à frágil base científica: “Como uma pessoa descrita por esses sistemas contestaria o resultado?”, acrescentou Crawford. “O que acontece quando contamos com sistemas de inteligência artificial fechados para julgar a ‘vida interior’ ou o valor de seres humanos? Alguns desses produtos citam teorias profundamente controversas que são muito contestadas na literatura psicológica, mas que estão sendo tratadas como fato por startups de IA.”

O que é pior do que a má ciência julgar qualquer um dentro do alcance da câmera é que os algoritmos tomando essas decisões são mantidos em sigilo pelas empresas que os desenvolvem, a salvo de escrutínio rigoroso, por trás de um véu de sigilo comercial. Whittaker, do AI Now, destaca o sigilo corporativo como algo que confunde as práticas já problemáticas de reconhecimento de emoção: “Como a maior parte dessas tecnologias está sendo desenvolvida por empresas privadas, que operam sob as leis de sigilo corporativo, nosso relatório faz uma forte recomendação de proteções para denunciantes éticos dentro dessas empresas”.

Tais denúncias continuarão a ser fundamentais, escreveu Whittaker, porque muitas empresas de dados tratam a privacidade e a transparência como um passivo, em vez de uma virtude: “As justificativas variam, mas a maioria [dos desenvolvedores de AI] nega toda a responsabilidade e diz que cabe aos clientes decidir o que fazer com ela”. Pseudociência em parceria com engenharia de computação de última geração com ausência de responsabilização. O que pode dar errado?

The Intercept/Tradução: Cássia Zanon

O obscuro uso do Facebook e do Twitter como armas de manipulação política

As manobras nas redes se tornam uma ameaça que os governos querem controlar

A manipulação das redes sociais está afetando os processos políticos.
A manipulação das redes sociais está afetando os processos políticos.
Tudo mudou para sempre em 2 de novembro de 2010, sem que ninguém percebesse. O Facebook introduziu uma simples mensagem que surgia no feed de notícias de seus usuários. Uma janelinha que anunciava que seus amigos já tinham ido votar. Estavam em curso as eleições legislativas dos Estados Unidos e 60 milhões de eleitores vieram aquele teaser do Facebook. Cruzando dados de seus usuários com o registro eleitoral, a rede social calculou que acabaram indo votar 340.000 pessoas que teriam ficado em casa se não tivessem visto em suas páginas que seus amigos tinham passado pelas urnas. 

Dois anos depois, quando Barack Obama tentava a reeleição, os cientistas do Facebook publicaram os resultados desse experimento político na revista Nature. Era a maneira de exibir os músculos diante dos potenciais anunciantes, o único modelo de negócio da empresa de Mark Zuckerberg, e que lhe rende mais de 9 bilhões de dólares por trimestre. É fácil imaginar o quanto devem ter crescido os bíceps do Facebook desde que mandou para as ruas centenas de milhares de eleitores há sete anos, quando nem sequer havia histórias patrocinadas.

Há algumas semanas, o co-fundador do Twitter, Ev Williams, se desculpou pelo papel determinante que essa plataforma desempenhou na eleição de Donald Trump, ao ajudar a criar um “ecossistema de veículos de comunicação que se sustenta e prospera com base na atenção”. “Isso é o que nos torna mais burros e Donald Trump é um sintoma disso”, afirmou. “Citar os tuítes de Trump ou a última e mais estúpida coisa dita por qualquer candidato político ou por qualquer pessoa é uma maneira eficiente de explorar os instintos mais baixos das pessoas. E isso está contaminando o mundo inteiro”, declarou Williams.

“Citar a coisa mais estúpida que qualquer político diga é uma maneira de explorar os instintos mais baixos das pessoas. Isso está contaminando o mundo inteiro”, declarou o fundador do Twitter

Quando perguntaram a Zuckerberg se o Facebook tinha sido determinante na eleição de Trump, ele recusou a ideia dizendo ser uma “loucura” e algo “extremamente improvável”. No entanto, a própria rede social que ele dirige se vangloria de ser uma ferramenta política decisiva em seus “casos de sucesso” publicitários, atribuindo a si mesma um papel essencial nas vitórias de deputados norte-americanas ou na maioria absoluta dos conservadores britânicos em 2015.

O certo é que é a própria equipe de Trump quem reconhece que cavalgou para a Casa Branca nas costas das redes sociais, aproveitando sua enorme capacidade de alcançar usuários tremendamente específicos com mensagens quase personalizadas. Como revelou uma representante da equipe digital de Trump à BBC, o Facebook, o Twitter, o YouTube e o Google tinham funcionários com escritórios próprios no quartel-general do republicano. “Eles nos ajudaram a utilizar essas plataformas da maneira mais eficaz possível. Quando você está injetando milhões e milhões de dólares nessas plataformas sociais [entre 70 e 85 milhões de dólares no caso do Facebook], recebe tratamento preferencial, com representantes que se certificam em satisfazer todas as nossas necessidades”.

E nisso apareceram os russos

A revelação de que o Facebook permitiu que, a partir de contas falsas ligadas a Moscou, fossem comprados anúncios pró-Trump no valor de 100.000 dólares colocou sobre a mesa o lado negro da plataforma de Zuckerberg. Encurralado pela opinião pública e pelo Congresso dos Estados Unidos, a empresa reconheceu que esses anúncios tinham alcançado 10 milhões de usuários. No entanto, um especialista da Universidade de Columbia, Jonathan Albright, calculou que o número real deve ser pelo menos o dobro, fora que grande parte de sua divulgação teria sido orgânica, ou seja, viralizando de maneira natural e não só por patrocínio. A resposta do Facebook? Apagar todo o rastro. E cortar o fluxo de informações para futuras investigações. “Nunca mais ele ou qualquer outro pesquisador poderá realizar o tipo de análise que fez dias antes”, publicou o The Washington Post há uma semana. “São dados de interesse público”, queixou-se Albright ao descobrir que o Facebook tinha fechado a última fresta pela qual os pesquisadores podiam espiar a realidade do que ocorre dentro da poderosa empresa.

Esteban Moro, que também se dedica a buscar frestas entre as opacas paredes da rede social, critica a decisão da companhia de se fechar em vez de apostar na transparência para demonstrar vontade de mudar. “Por isso tentamos forçar que o Facebook nos permita ver que parte do sistema influi nos resultados problemáticos”, afirma esse pesquisador, que atualmente trabalha no Media Lab do MIT. “Não sabemos até que ponto a plataforma está projetada para reforçar esse tipo de comportamento”, afirma, em referência à divulgação de falsas informações politicamente interessadas.

“Seus algoritmos são otimizados para favorecer a difusão da publicidade. Corrigir isso para evitar a propagação de desinformação vai contra o negócio”, explica Moro

O Facebook anunciou que contará com quase 9.000 funcionários para editar conteúdos, o que muitos consideram um remendo em um problema que é estrutural. “Seus algoritmos estão otimizados para favorecer a difusão de publicidade. Corrigir isso para evitar a propagação de desinformação vai contra o negócio”, explica Moro. A publicidade, principal fonte de rendas do Facebook e do Google, demanda que passemos mais tempos conectados, interagindo e clicando. E para obter isso, essas plataformas desenvolvem algoritmos muito potentes que criaram um campo de batalha perfeito para as mentiras polícias, no qual proliferaram veículos que faturam alto viralizando falsidades e meia-verdades polariza

“É imprescindível haver um processo de supervisão desses algoritmos para mitigar seu impacto. E necessitamos de mais pesquisa para conhecer sua influência”, reivindica Gemma Galdon, especialista no impacto social da tecnologia e diretora da consultoria Eticas. Galdon destaca a coincidência temporal de muitos fenômenos, como o efeito bolha das redes (ao fazer um usuário se isolar de opiniões diferentes da sua), o mal-estar social generalizado, a escala brutal na qual atuam essas plataformas, a opacidade dos algoritmos e o desaparecimento da confiança na imprensa. Juntos, esses fatos geraram “um desastre significativo”. Moro concorda que “muitas das coisas que estão ocorrendo na sociedade têm a ver com o que ocorre nas redes”. E aponta um dado: “São o único lugar em que se informam 40% dos norte-americanos, que passam nelas três horas por dia”.

A propaganda informática é “uma das ferramentas mais poderosas contra a democracia”, segundo especialistas de Oxford, e por isso as redes “precisam se redesenhar para que a democracia sobreviva”

A diretora de operações do Facebook, Sheryl Sandberg, braço direito de Zuckerberg, defendeu a venda de anúncios como os russos, argumentando que se trata de uma questão de “liberdade de expressão”. Segundo a agência de notícias Bloomberg, o Facebook e o Google colaboraram ativamente em uma campanha xenófoba contra refugiados para que fosse vista por eleitores-chave nos estados em disputa. O Google também aceitou dinheiro russo para anúncios no YouTube e no Gmail. Não em vão, o Facebook tem pressionado há anos para que não seja afetado pela legislação que exige que a mídia tradicional seja transparente na contratação de propaganda eleitoral. Agora, o Senado pretende legislar sobre a propaganda digital contra a pressão dessas grandes plataformas tecnológicas, que defendem a autorregulação. Tanto o Twitter quanto o Facebook expressaram recentemente a intenção de serem mais transparentes nesta questão.

A responsabilidade do Twitter

Em meados deste ano, o Instituto de Internet da Universidade de Oxford publicou um relatório devastador, analisando a influência que as plataformas digitais estavam tendo sobre os processos democráticos em todo o mundo. A equipe de pesquisadores estudou o que aconteceu com milhões de publicações nos últimos dois anos em nove países (Brasil, Canadá, China, Alemanha, Polônia, Taiwan, Rússia, Ucrânia e Estados Unidos) e concluiu, entre outras coisas, que “os bots [contas automatizadas] podem influenciar processos políticos de importância mundial”.

Facebook, Twitter, YouTube e Google tinham funcionários com escritório próprio no quartel-general de Trump: “Quando você injeta tantos milhões, tem tratamento preferencial”

Nos EUA, os republicanos e a direita supremacista usaram exércitos de bots para “manipular consensos, dando a ilusão de uma popularidade on-line significativa para construir um verdadeiro apoio político” e para ampliar o alcance de sua propaganda. E concentraram seus esforços nos principais estados em disputa, que foram inundados com notícias de fontes não confiáveis. Em países como a Polônia e a Rússia, grande parte das conversas no Twitter é monopolizada por contas automatizadas. Em estados mais autoritários, as redes são usadas para controlar o debate político, silenciando a oposição e, nos mais democráticos, aparecem as cibertropas para intencionalmente contaminar as discussões. As plataformas não informam nem interferem porque colocariam “sua conta em risco”.

“Os bots utilizados para a manipulação política também são ferramentas eficazes para fortalecer a propaganda on-line e as campanhas de ódio. Uma pessoa, ou um pequeno grupo de pessoas, pode usar um exército de robôs políticos no Twitter para dar a ilusão de um consenso de grande escala”, afirma a equipe da Oxford. E concluem: “A propaganda informática é agora uma das ferramentas mais poderosas contra a democracia” e é por isso que as plataformas digitais “precisam ser significativamente redesenhadas para que a democracia sobreviva às redes sociais”.

Zuckerberg diz que é “loucura” pensar que o Facebook pode definir eleições, mas se gaba de fazer isso em seu próprio site

O Twitter também deletou conteúdo de valor potencialmente insubstituível que ajudaria a identificar a influência russa na eleição de Trump. Mais recentemente, pesquisadores da Universidade do Sul da Califórnia alertaram sobre o desenvolvimento de um mercado paralelo de bots políticos: as mesmas contas que antes apoiaram Trump, tentaram mais tarde envenenar a campanha na França a favor de Le Pen e, depois, produziram material em alemão colaborando com o partido neonazista Afd. Zuckerberg prometeu fazer o possível para “garantir a integridade” das eleições alemãs. Durante a campanha, sete das 10 notícias mais virais sobre a primeira-ministra alemã Angela Merkel no Facebook eram falsas. O portal ProPublica acaba de revelar que a rede social tolerou anúncios ilegais que espalhavam informações tóxicas contra o Partido Verde alemão.

Galdon trabalha com a Comissão Europeia, a qual considera “muito preocupada” nos últimos meses em dar uma resposta a esses fenômenos, pensando em um marco europeu de controle que, atualmente, está muito longe de ser concretizado. “Há quem aposte pela autorregulação, quem acredite que deve haver um órgão de supervisão de algoritmos como o dos medicamentos e até mesmo quem peça que os conteúdos sejam diretamente censurados”, diz a pesquisadora. Mas Galdon destaca um problema maior: “Dizemos às plataformas que precisam atuar melhor, mas não sabemos o que significa melhor. As autoridades europeias estão preocupadas, mas não sabem bem o que está acontecendo, o que mudar ou o que pedir exatamente”.

SAIR DA BOLHA

Tem sido muito discutido o verdadeiro impacto do risco das bolhas de opinião geradas pelas redes, depois do alerta do ativista Eli Pariser. “Esse filtro, que acaba reforçando nossos próprios argumentos, está sendo decisivo”, alerta Galdon. Recentemente, Sheryl Sandberg, do Facebook, disse que a bolha era menor em sua plataforma do que na mídia tradicional (embora tenha negado categoricamente que sua empresa possa ser considerada um meio de comunicação). Cerca de 23% dos amigos de um usuário do Facebook têm opiniões políticas diferentes desse amigo, de acordo com Sandberg.

“Sabemos que as dinâmicas do Facebook favorecem o reforço de opiniões, que tudo é exacerbado porque buscamos a aprovação do grupo, porque podemos silenciar pessoas das quais não gostamos, porque a ferramenta nos dá mais do que nós gostamos. E isso gera maior polaridade”, diz Esteban Moro. Um exemplo: um estudo recente do Pew Research Center mostrou que os políticos mais extremistas têm muito mais seguidores no Facebook do que os moderados. “Vivemos em regiões de redes sociais completamente fechadas, das quais é muito difícil sair”, afirma. E propõe testar o experimento de seus colegas do Media Lab, do MIT, que desenvolveram a ferramenta FlipFeed, que permite entrar na bolha de outro usuário do Twitter, vendo sua timeline: “É como se você fosse levado de helicóptero e lançado no Texas sendo eleitor de Trump. Assim você percebe o quanto vivemos em um ecossistema de pessoas que pensam exatamente como nós”.

Eleições 2018 e George Orwell

Espionagem Eleitoral: “O Grande Irmão” vai escolher o seu próximo presidente

À medida que o tempo passa nos aproximamos do futurístico ano de 1984. Toda a contagem de tempo é uma abstração racional do ser humano para entender a natureza, por isso pouco importa se estamos em 2017, em 5778, em 1438 ou no ano do Galo de Fogo. O que nos interessa neste período histórico é que estamos cada vez mais próximos do controle social antecipado, talvez profetizado, pelo escritor George Orwell em sua famosa obra de ficção científica.

O xadrez político das democracias ganhou uma nova peça que se move com a leveza de uma rainha em meio a peões distraídos. Atuando no caro mercado das campanhas eleitorais desde 2013, a Cambridge Analytica deve chegar com força para operar nas eleições presidenciais brasileiras de 2018. Essa companhia britânica utiliza análise de dados disponíveis na internet para influenciar a comunicação de usuários nas redes sociais para beneficiar o candidato que contratou os seus serviços.

A Cambridge Analytica ganhou notoriedade após ser bem-sucedida na vitoriosa campanha de Donald Trump nos EUA e na causa da saída do Reino Unido da União Europeia. Da mesma forma atua a Stilingue, que lê dados na internet com um aplicativo de inteligência artificial e robôs que identificam o perfil psicológico do eleitorado.

Cada vez que alguém faz login em uma rede social, compartilha, interage, comenta em uma reportagem em um site jornalístico ou na própria rede, essas companhias são munidas com toneladas de informações que são processadas para alimentar bancos de dados para identificar a tendência de pensamento e comportamento do eleitor. A maquiagem na aparência e no discurso dos candidatos, algo que os marqueteiros já sabiam fazer, agora ganha a precisão de uma máquina. É como se trocássemos o artesanato na fabricação de um político por uma linha de montagem automatizada.

Em um cenário confuso em que pessoas que se dizem de direita exigem educação e saúde custeados pelo Estado, e esquerdistas que se sentem pouco representados pelas forças vacantes, o aguçado olhar de Grande Irmão de companhias como a Cambridge Analytica e a Stilingue supera as divisões demográficas, etárias, educacionais e ideológicas para explorar perfis psicológicos de acordo como os medos, os desejos, as ambições e as rejeições do que o cidadão manifesta na internet por meio de uma inteligência artificial que realiza o que a ciência da computação identifica como “processamento de linguagem natural”.

Ou seja, o sistema é capaz de aprender, entender e interpretar um idioma para analisar o que é divulgado na imprensa e nas redes sociais. Munido de dados que leem o desejo da maioria, um político pode saber se deve se vestir de gari, de policial, de taxista ou de garoto de programa para adaptar o seu discurso e agradar a parcela de seu eleitorado que lhe garante a manutenção no poder. Igualmente a ferramenta é útil para convencer os indecisos, pois o que é dito se adapta ao que o cidadão quer ouvir.

O maior exemplo brasileiro do uso de tecnologia para aumentar o seu grau de influência na internet e fora dela é do prefeito de São Paulo João Doria. Desde a sua contestada pré-candidatura nas prévias do PSDB até a disputa pelo poder executivo paulistano, Doria se beneficiou da inteligência artificial para angariar votos e conquistar seguidores. Hoje há cinco softwares que trabalham com o objetivo de avaliar o impacto de tudo o que está relacionado a ele nas redes sociais para torná-lo mais agradável ao cidadão. O serviço da inteligência artificial é realizar uma “análise de sentimento” das redes sociais, algo possível apenas para seres humanos, para reduzir os impactos negativos e potencializar os positivos de cada discurso de Doria.

Em cada vez mais frequentes viagens pelo Brasil para se tornar mais conhecido, João Doria disputa com o governador paulista Geraldo Alckmin o posto de candidato a presidente da república pelo PSDB. Na lista dos possíveis presidenciáveis, João Doria é o que tem mais contato nas redes sociais com os eleitores.

Segundo Daniel Braga, sócio da Social QI, que tem Doria como cliente da empresa, entre os 114 milhões de usuários únicos do Facebook em território nacional, 23,5% já tiveram alguma interação com a página do prefeito de São Paulo. O segundo colocado entre os possíveis candidatos a ocupar a presidência em 2018 é o deputado federal Jair Bolsonaro (PSC-RJ) com 7,1%.

Em 2018, o olho que tudo vê o que fazemos na internet está prestes a atuar nas próximas eleições no Brasil. Os resultados obtidos pela Cambridge Analytica nos EUA e no Reino Unido mostram que a observação do comportamento das pessoas no Facebook, no Twitter, no Instagram e no WhatsApp dá uma grande vantagem aos candidatos municiados por essa tecnologia.

A companhia, diretamente ligada ao bilionário Robert Mercer, um cientista computacional norte-americano, defensor de causas conservadoras e de uma agenda de direita, ao atuar para convencer as pessoas de ideias de um grupo político, põe a inteligência artificial a pautar o tom eleitoral e a influenciar a mudança do discurso dos humanos para agradar outros humanos.

Em uma análise sombria, é como se um robô instrutor ensinasse um projeto de sedutor a se tornar uma espécie de psicopata que está interessado apenas em conseguir o que quer, alimentando a sua ambição e pagando o preço que custar para atingir o seu objetivo.

Depois de uma combativa e rancorosa eleição presidencial em 2014, como se comportará o eleitor brasileiro sob o olhar perscrutador do Grande Irmão manipulador de dados em 2018? Cada opinião pró ou contra um candidato, cada compartilhamento de notícia falsa ou verdadeira, cada meme produzido passará perante o escrutínio de softwares que traçarão os perfis psicológicos de cada um. Em meio a tantos compartilhamentos em que as pessoas não leem mais do que a manchete do que passam adiante, os maiores beneficiados serão sempre os que pagarem mais caro pelo melhor serviço de espionagem eleitoral.

Ainda que o olho que tudo vê que se aproxima de nós não vista as roupas do ditador do livro de George Orwell, estamos cada vez mais confundindo democracia com tirania da maioria. O que falta a alguns dos políticos eleitos é o entendimento de que algumas minorias não têm representatividade no Congresso e nas Assembleias Legislativas, mas isso não significa que devam ser subjugados à força numérica de um grupo.

Nesse sentido, a adequação de discursos para agradar uma parcela maior da população com interesses de perpetuação no poder propicia a possibilidade de se pôr em risco aquelas pessoas que não tem voz ativa no nosso modelo democrático. É compreensível que o cidadão comum não entenda essa diferença, mas um representante do povo, uma autoridade do Estado tem a obrigação de saber que as minorias têm de ser respeitadas e que os seus direitos devem ser garantidos com base na Constituição Federal.

Talvez em um futuro distante (2084?), já nem precisemos eleger vereadores, deputados e senadores em nossa democracia representativa, pois bastará que um aplicativo rastreie o que quer o eleitorado para legislar e estabelecer as prioridades da comunidade; mas, por enquanto, tudo o que você disser poderá ser usado para influenciá-lo nas próximas eleições.

**

Pablo Antunes é escritor e psicólogo.

 

A guerra dos robôs se trava na Wikipédia

Até 4,7 milhões das mudanças da enciclopédia digital são feitas por programas de computador

Captura de tela da página inicial da Wikipédia em seu 15º aniversário.Captura de tela da página inicial da Wikipédia em seu 15º aniversário.

Cada vez são mais os sites da web que incorporam bots, robôs que são programas de computador que se comportam como humanos, para executar tarefas como responder perguntas dos usuários, fazer publicidade ou abrir contas de e-mail. Mas, apesar dos esforços e de seu uso generalizado, ainda estão muito longe de atuar na rede como se fossem uma pessoa. Essa é a conclusão à qual chegou um grupo de engenheiros do Instituto Alan Turing do Reino Unido, que estudou o comportamento desses robôs na Wikipédia e descobriu que até 4,7 milhões das edições dos artigos são correções que os robôs estão fazendo constantemente entre si, caindo em um tipo de edição interminável nada produtiva.

Captura de tela de uma das edições realizada por um bot.
Captura de tela de uma das edições realizada por um bot. WIKIPEDIA

Os robôs que trabalham na Wikipédia são responsáveis por tarefas que podem ser tediosas para as pessoas, como identificar e desfazer casos de vandalismo, adicionar links, verificar a ortografia e cuidar da concordância sintática das orações. O problema surge quando as edições que eles fazem estão condicionadas pelo país e idioma em que foram programados e são influenciadas por alguns aspectos culturais. Por exemplo, algumas dessas reversões são feitas para mudar Palestina por território palestino ou Golfo Pérsico para Golfo Árabe e assim com vários milhões de conceitos que não coincidem nas diferentes regiões do mundo.

Também estão programados para revisar as mudanças feitas cada certo tempo, o que ajuda a aparição de confrontos com outros robôs que fazem exatamente o mesmo e se corrigem entre si quando veem que sua última edição voltou a ser modificada. Nas mudanças que fazem as pessoas não acontecem esse tipo de conflito porque os usuários da Wikipédia raramente voltam a verificar se os dados que corrigiram estão atualizados.

Uma das curiosidades que mostra o estudo é que o número de edições depende do idioma do texto. Os escritos em alemão são os menos modificados, com uma média de 24 por entrada. No lado oposto estão os artigos em português, que acumulam até 185 reversões por artigo. De acordo com especialistas, uma das possíveis soluções para essas intermináveis batalhas é que a Wikipédia permita o uso de robôs cooperativos que podem gerir os desentendimentos e permitir que as tarefas possam ser cumpridas de forma eficiente.

O estudo mostra que os robôs podem trabalhar de forma completamente imprevisível. “O mundo on-line se tornou um ecossistema de robôs e, no entanto, nosso conhecimento sobre como interagem esses agentes automatizados é muito pobre”, reconhece Taha Yasseri, uma das responsáveis pela pesquisa.

Yasseri fala de todo um ecossistema e não exagera: um estudo de 2009 estimou que naquele ano os robôs geraram 24% de todos os tuites publicados; uma empresa de análise de audiências descobriu que 54% dos anúncios exibidos entre 2012 e 2013 foram vistos por robôs em vez de seres humanos; e, segundo uma empresa de segurança da web, os robôs realizaram 48,5% das visitas aos sites de 2015.

O número de incidências causadas por esses programas de computador aumentou de maneira constante nos últimos anos, indicando, de acordo com os pesquisadores, que seus criadores não estão fazendo o suficiente para melhorá-los ou que não conseguiram identificar os problemas que geram.

Alguns conflitos, como os da Wikipédia, podem ser considerados inócuos. Outros são mais problemáticos e virais, como o que aconteceu no Twitter em março deste ano, quando a Microsoft precisou retirar um dos seus robôs por tuitar mensagens com conteúdo racista, sexista e xenófobo. Tinha sido programado para responder perguntas e estabelecer conversas com os mais jovens da web e aprendeu com eles esse comportamento.se tornou um ecossistema de robôs e, no entanto, nosso conhecimento sobre como interagem é muito pobre”

Apesar das falhas e da falta de eficiência demonstrada em muitas ocasiões, os robôs são ainda uma opção muito útil em tarefas de conversação. O exemplo mais claro é Siri, a assistente da Apple que resolve as dúvidas do usuário através de mensagens de voz. Mas também há outros casos, como o criado por um estudante da Universidade de Stanford, que está programado para ajudar as pessoas a recorrer das multas de estacionamento. Em um ano conseguiu cancelar 160.000 multas e já funciona em Londres e Nova York.
Victoria Nadal/ElPais

Sexismo,Inteligência Artificial e Cozinha

Se está na cozinha, é uma mulher: como os algoritmos reforçam preconceitosBancos de imagens provocam viés sexista

Bancos de imagens provocam viés sexista
FotoTRONDHEIM BYARKIV

As máquinas inteligentes consolidam os vieses sexistas, racistas e classistas que prometiam resolver.

Um homem calvo, de uns 60 anos, mexe com suas espátulas de madeira alguns pedaços de carne dentro da frigideira. Usa óculos de acetato, calça jeans e está em frente ao fogão de sua pequena cozinha, decorada com tons claros. Ao ver essa imagem, a inteligência artificial, regida por algoritmos, não tem dúvida e, graças à sua sofisticada aprendizagem, rotula assim: cozinha, espátula, fogão, mulher. Se está numa cozinha, em frente ao fogão, deve ser uma mulher. Uma equipe da Universidade da Virgínia acaba de publicar um estudo que indica, mais uma vez, o que muitos especialistas vêm denunciando: a inteligência artificial não apenas não evita o erro humano derivado de seus preconceitos, como também pode piorar a discriminação. E está reforçando muitos estereótipos.[ad name=”Retangulo – Anuncios – Duplo”]

Em seu trabalho, os cientistas analisaram os dados de dois gigantescos bancos de imagens, usados habitualmente para treinar as máquinas, examinando o que os robôs aprendiam com tais imagens. Inicialmente, os homens protagonizavam 33% das fotos que continham pessoas cozinhando. Após treinar uma máquina com esses dados, o modelo mostrou sua fraqueza: deduziu que 84% da amostra eram mulheres. “Sabe-se que as tecnologias baseadas em big data às vezes pioram inadvertidamente a discriminação por causa de vieses implícitos nos dados”, afirmam os autores. “Mostramos que, ao partirem de uma base enviesada sobre gênero”, acrescentam, os modelos preditivos “amplificam o viés”.

As máquinas se tornam mais sexistas, racistas e classistas porque identificam a tendência subjacente e apostam nela para acertar. Já é bem conhecido o caso de Tay, o robô inteligente projetado pela Microsoft para se integrar nas conversas do Twitter aprendendo com os demais usuários: a empresa precisou retirá-lo em menos de 24 horas porque começou a fazer apologia do nazismo, assediar outros tuiteiros e defender o muro de Trump. A essa altura, são vários os exemplos de algoritmos que exacerbam os preconceitos e discriminações, colocando em questão a grande promessa desses sistema: eliminar o erro humano da equação. Os algoritmos nos condenam a repetir o passado do qual queríamos fugir, ao replicar os preconceitos que nos definiam.

As tecnologias baseadas em big data às vezes pioram inadvertidamente a discriminação por causa de vieses implícitos nos dados

O Google começou a rotular as pessoas negras como gorilas, e o Google Maps situava “a casa do negro” na Casa Branca da era Obama. As fotos dos usuários negros do Flickr são classificadas como “chimpanzés”. A inteligente Siri da Apple, que tem resposta para tudo, não sabe o que dizer quando a dona do celular lhe diz que foi estuprada. O software da Nikon adverte o fotógrafo de que alguém piscou quando o retratado tem traços asiáticos. As webcams da HP não podem identificar e seguir os rostos mais morenos, mas o fazem com os brancos. O primeiro concurso de beleza julgado por um computador colocou uma única pessoa de pele escura entre os 44 vencedores. Nos Estados Unidos, a Amazon deixa fora de suas promoções os bairros de maioria afro-americana (mais pobres). O Facebook permite que os anunciantes excluam minorias étnicas de seu target comercial e, ao mesmo tempo, que incluam pessoas que se identificam explicitamente como antissemitas e também jovens identificados por seus algoritmos como vulneráveis e depressivos.

“Prometendo eficácia e imparcialidade, [os algoritmos] distorcem a educação superior, aumentam a dívida, estimulam o encarceramento em massa, golpeiam os pobres em quase todas as situações e solapam a democracia”, denuncia Cathy O’Neil, especialista em dados e autora do revelador livro Weapons of Math Destruction (armas de destruição matemática), em que examina todos os desastres algorítmicos a partir de sua formação como doutora em Matemática na Universidade Harvard e sua experiência de trabalho como data scientist no mundo financeiro. “Ir à faculdade, pedir dinheiro emprestado, ser condenado à prisão, encontrar e manter um trabalho. Todos esses campos da vida estão cada vez mais controlados por modelos secretos que proporcionam punições arbitrárias”, alerta.

O Google começou a rotular as pessoas negras como gorilas, e o Flickr as classificou como chimpanzés

Como afirma O’Neil, os preconceitos dos algoritmos podem ser ainda muito mais perigosos. A redação da ProPublica, uma ONG sem fins lucrativos que se descreve como independente, comprovou isso meses atrás ao descobrir que um programa usado na Justiça dos EUA para prevenir a reincidência dos presos era notavelmente racista. Os acusados negros eram duas vezes mais propensos a ser mal rotulados como prováveis reincidentes (e tratados de forma mais dura pelo sistema penal), enquanto os acusados brancos que de fato reincidiram foram rotulados como de “baixo risco” com duas vezes mais probabilidade que os negros. Os cidadãos, e certamente os condenados, ignoram que seu futuro está sendo decidido por um programa de informática viciado que será tão racista quanto o juiz mais racista. Fria, enviesada e meticulosamente racista.

Uma pesquisa da Universidade Carnegie Mellon descobriu que as mulheres têm menos chances de receber anúncios de emprego bem remunerado no Google. Os programas usados nos departamentos de contratação de algumas empresas mostram uma inclinação por nomes usados por brancos e rejeitam os dos negros. As autoridades policiais de várias cidades utilizam softwares que ajudam a prever os lugares onde o crime é mais provável; desse modo, comparecem mais a essas zonas, detêm de novo mais pessoas ali e reforçam esse ciclo negativo. E os seguros são mais caros e severos nos bairros pobres de maioria negra. “O resultado é que criminalizamos a pobreza, achando que nossas ferramentas são não apenas científicas, como também justas”, resume a especialista.

Prometendo eficácia e imparcialidade, golpeiam os pobres em quase todas as situações e solapam a democracia

Em alguns casos, afirma O’Neil no livro, os problemas do algoritmo se devem a uma falha na seleção dos dados. Em outros, ao preconceito subjacente na sociedade, que o software simplesmente incorpora para acertar. Mas o maior problema é o modelo econômico. “Quando se elaboram sistemas estatísticos para encontrar clientes ou manipular devedores desesperados, as receitas crescentes parecem mostrar que eles estão no caminho correto. O software está fazendo seu trabalho. O problema é que os lucros acabam servindo como um substituto da verdade”, diz ela. O’Neil denuncia que isso é uma “confusão perigosa” que surge “de maneira reiterada”. O Facebook deixa que seu algoritmo selecione e venda anúncios a “pessoas que odeiam os judeus” e “adolescentes vulneráveis” porque se enriquece desse jeito; se as pessoas lhes pagam por isso, não podem estar erradas.

Um regulador ante a falta de transparência

Muitos desses problemas são descobertos por jornalistas, pesquisadores e instituições. Outros se tornam manifestos e obrigam a empresa a corrigi-los. Mas o que acontece com todos os processos que já estão mecanizados e que desconhecemos como nos afetam? Como uma mulher saberá que foi privada de ver um anúncio de emprego? Como uma comunidade pobre poderá saber que está sendo assediada policialmente por um software? Como se defende um criminoso de uma minoria étnica que ignora que um algoritmo o tem na mira? O Facebook e o Google, por exemplo, são perfeitamente conscientes desse problema e até nos explicam como ocorre, mas são absolutamente opacos e não permitem que ninguém monitore esses vieses de maneira eficiente, critica O’Neil. Há muitos programas desse tipo sendo aplicados no sistema judicial norte-americano, mas seus preconceitos são desconhecidos porque cada empresa mantém seus algoritmos em segredo, como a fórmula da Coca-Cola.

O software está fazendo seu trabalho. O problema é que os lucros acabam servindo como um substituto da verdade

Se o algoritmo foi transformado em lei, deve ser transparente, acessível, discutível e passível de emendas, como a própria lei. É o que exigem cada vez mais especialistas e organismos, como a Liga de Justiça Algorítmica (AJL) e a Inteligência Artificial Agora. Eles afirmam que o problema das máquinas inteligentes são os seus enormes preconceitos sociais, não a possibilidade de que levem a um apocalipse no estilo O Exterminador do Futuro.

E que, portanto, é preciso criar reguladores públicos para revisar seus sistemas. Trata-se de uma crise que só irá crescer: dias atrás, causou escândalo um polêmico algoritmo que pretendia identificar os gays por sua cara. Nos EUA, metade da população já tem seu rosto registrado em bases de dados policiais de reconhecimento facial. E os gigantes da rede já conhecem até nossa orientação sexual, mesmo que não sejamos usuários de seus serviços. “Não podemos contar com o livre mercado para corrigir esses erros”, conclui O’Neil.
ElPais

Empresa do Google contrata especialistas para impedir a chegada da Skynet

De acordo com o Business Insider, a empresa contratou recentemente três especialistas para trabalhar em um grupo de “segurança de inteligência artificial”.

Os especialistas em questão são Viktoriya Krakovna, Jan Leike e Pedro Ortega. Krakovna, que tem título de Ph.D. em estatística pela Harvard, é uma das fundadoras do Future of Life Institute.[ad name=”Retangulo – Anuncios – Duplo”]

Esse instituto, que tem Stephen Hawking e Elon Musk entre seus membros, se dedica a mitigar os riscos existenciais que a humanidade enfrenta, em particular a ameaça por sistemas avançados de inteligência artificial.

Em sua conta do Twitter, Krakovna confirmou que havia sido contratada pela DeepMind justamente para trabalhar com essa finalidade. O tweet da pesquisadora pode ser visto abaixo:

googletecnologia-da-informacaoskynet

 Leike, por sua vez, confirmou a contratação por meio de seu site profissional: no canto superior esquerdo, é possível ver que seu cargo é “Research Cientist” na Google DeepMind.
Em seu site, ele diz que seu trabalho envolve compreender “como podemos desenhar agentes para que eles sejam incentivados a agir no nosso melhor interesse?”.
Além de trabalhar lá, Leike também é pesquisador do Future of Humanity Institute da Universidade de Oxford

Finalmente, Ortega tem Ph.D. em aprendizagem de máquina pela Universidade de Cambridge e já trabalhou na Yahoo antes de ir para a DeepMind.

De acordo com um resumo em seu site profissional, “seu trabalho inclui a aplicação de ideias informação-teóricas e mecânico-estatísticas em processos racionais de tomada de decisão”.

As ameaças

Se há no mundo uma empresa que tem motivos para temer o surgimento de uma rede de inteligências artificiais malignas como a Skynet, essa empresa é a DeepMind.

Os sistemas desenvolvidos pela DeepMind já foram capazes até mesmo de vencer o campeão mundial de Go e de caçar e matar humanos… no jogo Doom.

Recentemente, a empresa desenvolveu um método para que suas inteligências artificiais “sonhem” para aprender mais rapidamente.

De fato, essa não é a primeira vez que a DeepMind toma alguma medida para se precaver contra essa possibilidade.

O Google já realizou pesquisas sobre métodos de evitar (ou suspender) um eventual ataque robótico, e Mustafa Suleyman, um dos cofundadores da DeepMind, chegou a prometer que “Robôs não destruirão a humanidade”.

No entanto, deve-se considerar que, por enquanto, as inteligências artificiais da DeepMind só têm trazido e prometido coisas boas aos humanos.

Soluções da empresa já foram usadas para reduzir drasticamente a conta de luz do Google, ajudar a combater cegueira e auxiliar no tratamento câncer.

Ela também é capaz de imitar vozes humanas e até mesmo alguns estilos musicais.

Afinal, as máquinas vão superar os humanos?

Temor popular sobre desenvolvimento da inteligência artificial coloca em xeque avanços na área. Para pesquisadores, cenário visto em filmes de ficção científica está longe de se tornar real

Robô da companhia sul-coreana Robotis chama a atenção de visitantes da Mobile World Congress, em Barcelona | Lluis Gene/AFP

Robô da companhia sul-coreana Robotis chama a atenção de visitantes da Mobile World Congress, em Barcelona Lluis Gene/AFP

Robôs enviados do futuro para exterminar pessoas, androides dotados de emoções e que se rebelam contra seus criadores, computadores com tendências escravagistas: para muitos filmes, livros e games, a supremacia das máquinas sobre os humanos é apenas uma questão de tempo.
O que poderia ser encarado como mera ficção, no entanto, tem despertado temores bastante reais, conforme pesquisas com inteligência artificial avançam e sistemas cada vez mais inteligentes chegam ao mercado.[ad name=”Retangulo – Anuncios – Direita”]

A apreensão popular com o desenvolvimento de programas e robôs capazes de assumir tarefas complexas e até substituir trabalhadores humanos não é nova, mas foi dimensionada recentemente por uma pesquisa da Associação Britânica de Ciência (BSA, da sigla em inglês) – veja todos os dados do estudo. Segundo levantamento divulgado pela entidade semana passada, 36% dos mais de 2 mil entrevistados disseram acreditar que a evolução da inteligência artificial representa uma ameaça para o desenvolvimento da humanidade no longo prazo – 49% descartaram a ideia e 15% disseram não poder opinar a respeito.

Quase metade das pessoas ouvidas (46%) também se disse contrária à possibilidade de que robôs ou programas sejam “equipados” com emoções ou personalidade. E, questionados sobre como se sentiam em relação aos avanços em inteligência artificial, a maioria dos entrevistados citou que estava “cética” ou “desconfiada”.

Em nota, o presidente da BSA, David Willetts, afirma que não é “surpresa que tantas pessoas estejam apreensivas sobre o futuro quando falamos de inteligência artificial”. Para o cientista, a pesquisa mostra que esses temores precisam ser ouvidos e que o público também precisa ser envolvido nos debates sobre o futuro desta tecnologia – até mesmo para que velhos mitos e medos infundados sejam deixados para trás.

“A inovação é geralmente assustadora. Mas é importante lembrar que a economia e o mundo estão em constante mudança e adaptação. A evolução de uma tecnologia como essa (a inteligência artificial) é simplesmente a próxima invenção a que nos ajustaremos, e somos infinitamente capazes de fazer isso”, escreve Willetts.

Avanço superestimado

Para muitos pesquisadores da área, acreditar que robôs criarão consciência e poderão, num futuro próximo, tomar decisões por conta própria, a ponto de imagens vistas em filmes se tornarem reais, é superestimar os projetos desenvolvidos hoje com inteligência artificial.

A percepção de quem acompanha as pesquisas de perto é que sistemas e máquinas inteligentes se tornarão cada vez mais comuns e presentes em diversas áreas, tanto nas indústrias quanto em aplicativos e celulares – assistentes virtuais como a Siri (Apple) e Cortana (Microsoft) já dão uma mostra do potencial uso para consumidores. Computadores com processadores tão potentes quanto um cérebro humano e capazes de emular sentimentos, no entanto, ainda não estão nos planos.

“Essa preocupação com uma dominação das máquinas é especulação e está mais no campo da ficção científica. Hoje, não é possível enxergar nas técnicas e metodologias de inteligência artificial nada que permita que máquinas algum dia criem consciência, tomem decisões por si só ou comecem a aprender de maneira desenfreada”, relata o professor da Fiap e doutor em Robótica Móvel Antonio Selvatici , que também é pesquisador na área de internet das coisas.

“O que estamos vendo agora é a inteligência artificial sair um pouco da mão dos cientistas para as mãos de engenheiros, que fazem com que esse conhecimento seja aplicado em produtos. O movimento de grandes empresas, como o Google, comprando startups e empresas menores de inteligência artificial é uma mostra disso”, completa Selvatici.

COM O PÉ ATRÁS

Pesquisa da Associação Britânica de Ciência (BSA) mostra que muitas pessoas ainda não estão nada confortáveis ou empolgadas com os recentes avanços da inteligência artificial. Confira como os entrevistados reagiram às questões levantadas pela instituição:

Você concorda com a afirmação de que o desenvolvimento da inteligência artificial representa uma ameaça para a sobrevivência da humanidade no longo prazo?

Como você se sente em relação ao desenvolvimento da inteligência artificial?


É possível confiar em programas e robôs para assumirem as tarefas abaixo no futuro?

Você acha que o uso de programas e robôs com inteligência artificial irá aumentar ou diminuir o número de empregos disponíveis para os humanos nos próximos 10 anos? (%)

Você apoia ou rejeita a ideia de robôs e programas passarem a ter emoções e personalidade? (%)

Fonte: BSA. Metodologia: a pesquisa foi feita de forma online durante o mês de fevereiro e ouviu 2.019 britânicos adultos. Infografia: Gazeta do Povo.