• mqt_for@hotmail.com
  • Brasil
Os fiascos tecnológicos de 2018

Os fiascos tecnológicos de 2018

Os problemas das grandes plataformas marcaram um ano em que a realidade virtual e os carros autônomos não se desenvolveram como esperado

É um ano fácil para encontrar falhas tecnológicas. O Financial Times escolheu “techlash” como a palavra do ano, que define como: “A crescente animosidade pública contra as plataformas tecnológicas do Vale do Silício e seus equivalentes chineses”.

Barack Obama ganhou a presidência dos estados em 2008 graças a “internet”. Em 2007, o Facebok foi o “fenômeno interno ” . Apenas dez anos depois, “internet” são as “redes”. E se Donald Trump ganhou a eleição graças ao Facebook, o significado que ele tem é completamente diferente.

1. Os cinco pontos do Facebook

Em 2017, Mark Zuckerberg viajou pelos Estados Unidos: ordenhando vacas, bebendo chá, dirigindo um trator. Os rumores do presidente Zuckerberg eram comuns. Em 2018, esses rumores desapareceram. Facebook ainda é um produto de sucesso, mas a marca começa a ser tóxico: há engenheiros que vêem a empresa como um menos do que o lugar ideal para trabalhar, outras grandes empresas que têm colaborado com o Facebook agora se distanciar.

Cambridge Analytica , os russos , o seu papel em Mianmar e outros países em desenvolvimento, a perda de dados, a falta de preocupação com a privacidade de seus usuários são cinco grandes manchas que o Facebook leva 2018.

Na Wired contamos 21 escândalos para o Facebook em 2018 e no Buzzfeed , 31 manchetes ruins.

2. Mulheres e China contra o Google

O Google tem sido poupado das críticas públicas por privacidade. Mas houve duas grandes revoltas internas.

Primeiro, contra um projeto chamado Dragonfly para abrir seu mecanismo de busca censurado para o mercado chinês. O Intercept publicou em agosto o projeto interno do Google, que seria lançado entre janeiro e abril de 2019. Em 11 de dezembro, o CEO do Google, Sundar Pichai, disse no Congresso dos EUA que eles não tinham esses planos “agora mesmo”. . O Intercept liberou dias após o projeto ter sido “efetivamente finalizado”.

Em segundo lugar, os protestos dos funcionários na sede mundial pelo tratamento que foi dado aos homens que deixaram a empresa acusados ​​de abuso sexual. O caso que levantou os escândalos foi Andy Rubin, o chamado “pai do Android”. Ele foi demitido por forçar um funcionário a fazer sexo oral, mas ele recebeu 90 milhões de dólares.

O Google também teve que abandonar dois projetos de inteligência artificial com o Pentágono. Seus funcionários não querem ajudar a fabricar armas.

Sem mencionar o Google+.

3. Elon Musk joga sozinho

Elon Musk come separadamente. Procure por novos problemas que são adicionados a todos que você precisa para conseguir carros Tesla suficientes.

Musk afirma ser um presidente executivo peculiar. Sua derrapagem de 2018 foi um tweet onde ele disse que iria privatizar Tesla e que ele já tinha o dinheiro. As ações da empresa dispararam. Isso é ilegal e ele foi sancionado sem poder ser CEO por três anos e com 20 milhões de dólares. “Valeu a pena”, disse ele em novembro.

Enquanto isso, ele ligou para um dos submarinistas britânicos que ajudaram a remover as crianças da gruta tailandesa em julho e que desprezavam sua oferta de um submarino para o resgate como “pedófilo”. Ele o denunciou por difamação.

Musk tem algo de Trump. Ele diz o que ninguém diz em sua posição. Seu grande desafio é tornar a Tesla um fabricante de carros elétricos e autônomos que pode ser melhor do que BMW, Audi, Google ou Uber.

Em dezembro, soube-se que ele dispensava os engenheiros gritando por erros que não cometiam e sem saber o que eram chamados.

4. Amazon teases

Em 2018, a Amazon teve que dar um grande salto em sua organização interna: o estabelecimento de sua segunda sede, depois de sua sede em Seattle. Havia milhares de empregos e prefeitos e governadores de 238 cidades disputavam acordos sobre tratamento tributário, infraestrutura e outros benefícios.

A Amazon ficou em falta e gostou da atenção da mídia. Que lugar remoto aproveitaria a Amazon para crescer? No final, a solução era óbvia. A Amazon foi para Nova York e Washington, os dois centros de poder mais óbvios. Para tanto, não foi necessário tanto concurso.

5. Huawei e Kaspersky, defenestrados

Os Estados Unidos anunciaram que seu governo não trabalharia com componentes da Huawei . Um tribunal federal indeferiu uma reclamação da empresa de antivírus da Kaspersky para poder retornar ao trabalho em redes governamentais. Ambos são acusados ​​de estar próximos demais dos governos de seus países: China e Rússia.

Ambas as empresas negam as acusações. No momento, eles são os maiores exemplos da nova realidade em que a internet global é mais difícil.

6. Carros autônomos não chegaram

A eterna promessa de autonomia real deve esperar até 2019. E será apenas em áreas específicas. Uber passou nove meses sem seus carros sem motorista circulando depois que um deles matou uma pessoa no Arizona. O retorno foi em meados de dezembro e com as condições: em menor velocidade, com dois pilotos no veículo por algum revés.

7. E a realidade virtual? Tão ruim quanto o aumentada

A saída do chefe do Oculus, Brendan Iribe, do Facebook e a falta de emoção com os óculos aumentados de Magic Leap deixaram o ceticismo. O setor aguarda a chegada na primavera da nova Oculus Quest. A eterna promessa da realidade virtual começa a se desgastar.

Fonte: elpais.com

Empresa do Google contrata especialistas para impedir a chegada da Skynet

De acordo com o Business Insider, a empresa contratou recentemente três especialistas para trabalhar em um grupo de “segurança de inteligência artificial”.

Os especialistas em questão são Viktoriya Krakovna, Jan Leike e Pedro Ortega. Krakovna, que tem título de Ph.D. em estatística pela Harvard, é uma das fundadoras do Future of Life Institute.[ad name=”Retangulo – Anuncios – Duplo”]

Esse instituto, que tem Stephen Hawking e Elon Musk entre seus membros, se dedica a mitigar os riscos existenciais que a humanidade enfrenta, em particular a ameaça por sistemas avançados de inteligência artificial.

Em sua conta do Twitter, Krakovna confirmou que havia sido contratada pela DeepMind justamente para trabalhar com essa finalidade. O tweet da pesquisadora pode ser visto abaixo:

googletecnologia-da-informacaoskynet

 Leike, por sua vez, confirmou a contratação por meio de seu site profissional: no canto superior esquerdo, é possível ver que seu cargo é “Research Cientist” na Google DeepMind.
Em seu site, ele diz que seu trabalho envolve compreender “como podemos desenhar agentes para que eles sejam incentivados a agir no nosso melhor interesse?”.
Além de trabalhar lá, Leike também é pesquisador do Future of Humanity Institute da Universidade de Oxford

Finalmente, Ortega tem Ph.D. em aprendizagem de máquina pela Universidade de Cambridge e já trabalhou na Yahoo antes de ir para a DeepMind.

De acordo com um resumo em seu site profissional, “seu trabalho inclui a aplicação de ideias informação-teóricas e mecânico-estatísticas em processos racionais de tomada de decisão”.

As ameaças

Se há no mundo uma empresa que tem motivos para temer o surgimento de uma rede de inteligências artificiais malignas como a Skynet, essa empresa é a DeepMind.

Os sistemas desenvolvidos pela DeepMind já foram capazes até mesmo de vencer o campeão mundial de Go e de caçar e matar humanos… no jogo Doom.

Recentemente, a empresa desenvolveu um método para que suas inteligências artificiais “sonhem” para aprender mais rapidamente.

De fato, essa não é a primeira vez que a DeepMind toma alguma medida para se precaver contra essa possibilidade.

O Google já realizou pesquisas sobre métodos de evitar (ou suspender) um eventual ataque robótico, e Mustafa Suleyman, um dos cofundadores da DeepMind, chegou a prometer que “Robôs não destruirão a humanidade”.

No entanto, deve-se considerar que, por enquanto, as inteligências artificiais da DeepMind só têm trazido e prometido coisas boas aos humanos.

Soluções da empresa já foram usadas para reduzir drasticamente a conta de luz do Google, ajudar a combater cegueira e auxiliar no tratamento câncer.

Ela também é capaz de imitar vozes humanas e até mesmo alguns estilos musicais.

Tecnologia: Cientistas contra robôs armados

A inteligência artificial está atingindo um desenvolvimento tão intenso que inquieta até seus pesquisadores pelo uso indevido que se pode fazer dela.

Robôs,Robótica,Inteligência artificial,Guerras,Blog do Mesquita

Mais de 1.000 cientistas e especialistas em inteligência artificial e outras tecnologias assinaram uma carta aberta contra o desenvolvimento de robôs militares autônomos, que prescindam da intervenção humana para seu funcionamento.

O físico Stephen Hawking, o cofundador da Apple Steve Wozniak, e o do PayPal, Elon Musk, estão entre os signatários do texto, que foi apresentado na terça-feira em Buenos Aires, na Conferência Internacional de Inteligência Artificial, um congresso onde estão sendo apresentados mais de 500 trabalhos dessa especialidade e ao qual comparecem vários signatários do manifesto.

O documento não se refere aos drones nem aos mísseis comandados por humanos, mas a armas autônomas que dentro de poucos anos a tecnologia de inteligência artificial poderá desenvolver e isso significaria uma “terceira revolução nas guerras, depois da pólvora e das armas nucleares”.

Especialistas reconhecem que existem argumentos a favor dos robôs militares, como o fato de que reduziriam as perdas humanas em conflitos bélicos. Ao contrário das armas nucleares, as autônomas não apresentam custos elevados e nem requerem matérias-primas difíceis de obter para sua construção, de acordo com os signatários. Por isso eles advertem que é “apenas uma questão de tempo” para que essa tecnologia apareça no “mercado negro e nas mãos de terroristas, ditadores e senhores da guerra”.

“Elas são ideais para assassinatos, desestabilização de nações, subjugação de populações e crimes seletivos de determinadas etnias”, alertam os cientistas, que propõem que a inteligência artificial seja usada para proteger seres humanos, especialmente civis, nos campos de batalha. “Começar uma carreira militar nas armas de inteligência artificial é uma má ideia”, advertem. Os cientistas comparam essa tecnologia com as bombas químicas ou biológicas.

“Não se trata de limitar a inteligência artificial, mas de introduzir limites éticos nos robôs, torná-los capazes de viver em sociedade e, sim, rejeitar claramente as armas autônomas sem controle humano”, explica Francesca Rossi, presidenta da conferência internacional e uma das signatárias do texto.

“Com a carta queremos tranquilizar as pessoas que a partir de fora deste mundo olham a inteligência artificial com uma preocupação às vezes exagerada. Nós também estamos interessados em limites éticos. Queremos reunir não apenas especialistas no assunto, mas filósofos e psicólogos para conseguir impor limites éticos aos robôs semelhantes aos dos seres humanos”, enfatiza.

O perigo de reprogramar

O argentino Guillermo Simari, da Universidade Nacional del Sur, organizador do congresso, compartilha da filosofia da carta. “As máquinas podem tomar decisões com as quais o ser humano não está de acordo. Os homens têm filtros éticos. É possível programar um filtro ético para a máquina, mas é muito fácil removê-lo”.

Simari acredita que o grande problema é a facilidade com que se pode reprogramar uma máquina. “Para fazer uma bomba atômica é preciso urânio enriquecido, que é muito difícil de conseguir. Para reprogramar uma máquina militar basta alguém com um computador digitando programas”.

No congresso também estão presentes aqueles que são contra a filosofia da carta. “Estão aqui os que acreditam que devemos continuar desenvolvendo a inteligência artificial e que ela pode ser controlada”, diz Ricardo Rodríguez, professor da Universidade de Buenos Aires e organizador do encontro. O debate entre os cientistas está vivo e agora passará para toda a sociedade.
Carlos E. Cuê/A.Rebossio

Inteligencia Artificial: O futuro da humanidade em suas mãos

Precisamos de sabedoria para enfrentar o futuro. Para saber se os avanços tecnológicos caminham na direção certa ou não; se favorecem os seres humanos ou o oposto.

Nick Bostrom, no Instituto do Futuro da Humanidade.
Foto:T. Pilston Getty Images

 Para se ter uma ideia do que fazer caso se apresentem cenários que ameaçam a sobrevivência da espécie, tais como os resultantes da ameaça nuclear, modificação de micróbios letais ou a criação de mentes digitais mais inteligentes do que o homem. Questões como essas são estudadas por um punhado de cérebros localizados na Universidade de Oxford, no chamado Instituto para o Futuro da Humanidade.

Liderando um grupo heterodoxo de filósofos, tecnólogos, físicos, economistas e matemáticos está um filósofo formado em física, neurociência computacional e matemática; um sujeito que, desde sua adolescência, buscava interlocutores para compartilhar suas inquietudes a respeito do filósofo alemão Arthur Schopenhauer; um sueco de 42 anos que passeia pelas instalações do instituto com uma bebida à base de vegetais, proteínas e gorduras que chama de elixir; e que escuta audiolivros com o dobro da velocidade para não perder um segundo do seu precioso tempo.

Estamos falando de Nick Bostrom, autor deSuperinteligência: Caminhos, Perigos, Estratégias (ainda não publicado no Brasil), um livro que causou impacto, uma reflexão sobre como lidar com um futuro no qual a Inteligência Artificial pode superar a humana, um ensaio que foi endossado explicitamente por cérebros do Vale do Silício como Bill Gates e Elon Musk; filósofos como Derek Parfit e Peter Singer; e físicos como Max Tegmark, professor do Instituto de Tecnologia de Massachusetts.

Um trabalho que, além disso, entrou para a lista de best-sellers elaborada pelo The New York Times Book Review. A ONU o convida para dar palestras, assim como institutos de pesquisa como a The Royal Society; uma de suas palestras para a organização TED já conta com mais de 1,7 milhão de visualizações. E Stephen Hawking já alertou o mundo: é preciso ter cuidado com a Inteligência Artificial.

O Instituto para o Futuro da Humanidade — FHI, na sigla em inglês — é um espaço com salas de reuniões batizadas com nomes de heróis anônimos que, com um gesto, salvaram o mundo — como Stanislav Petrov, o tenente-coronel russo que evitou um acidente nuclear durante a Guerra Fria —; onde fluem ideias, trocas de pontos de vista, onde florescem hipóteses e análises. Principalmente, às tardes e noites: o chefe é, como ele mesmo confessa, um corujão; fica no escritório até as 2h da madrugada.

“No momento em que saibamos como fazer máquinas inteligentes, vamos fazê-las”, disse Bostrom, em uma sala do instituto que dirige, “e, até lá, devemos saber como controlá-las. Se você tem um agente artificial com objetivos diferentes dos seus, quando se torna suficientemente inteligente é capaz de antecipar suas ações e fazer planos com base nos seus, o que poderia incluir esconder suas próprias habilidades de forma estratégica”.

Especialistas em Inteligência Artificial citados em seu livro dizem que há uma probabilidade de 90% de que, entre 2075 e 2090, existam máquinas inteligentes como os humanos. Na transição para essa nova era, será preciso tomar decisões. Talvez inocular valores morais às máquinas. Evitar que se voltem contra nós.

É para a análise desse tipo de suposições e cenários que este especialista lê intensivamente sobre machine learning (aprendizagem automática, um segmento da inteligência artificial que explora técnicas para que os computadores possam aprender por si mesmos) e sobre economia da inovação. Para Bostrom, o tempo nunca é suficiente. Ler, ler, ler, consolidar os conhecimentos, aprofundar, escrever. “O tempo é precioso. É um recurso valioso que constantemente desliza por entre os dedos.”

As pessoas parecem que se esquecem da guerra nuclear. Uma mudança para pior na geopolítica poderia se tornar um perigo

Estudar, formular hipóteses, desenvolvê-las, antecipar cenários. É o que se faz neste instituto onde se promove o brainstorming (uma tempestade de ideias) e a videoconferência, um labirinto de salas dominadas por lousas vileda com diagramas e em cuja entrada está pendurado um cartaz que reproduz a capa de Admirável Mundo Novo, a visionária distopia do livro de Aldous Huxley, publicado em 1932. Um total de 16 profissionais trabalha aqui.

Publicam revistas acadêmicas, produzem relatórios de risco para empresas de tecnologia, para Governos (por exemplo, para o finlandês) ou para a ONU, que está se preparando para construir seu primeiro programa de Inteligência Artificial — um dos representantes do programa visitava os escritórios do FHI na semana passada. Niel Bowerman, diretor-adjunto, físico do clima e ex-assessor da equipe política de Energia e Meio Ambiente de Barack Obama, diz que no instituto sempre estudam quão grande é um problema, quantas pessoas trabalham nele e quão fácil é avançar nessa área para determinar os campos de estudo.

Bostrom é quem comanda o instituto, quem decide onde ir, o visionário. Desenvolve seu trabalho graças ao incentivo filantrópico de James Martin, milionário interessado nas questões de riscos existenciais do futuro, que há 10 anos impulsionou o FHI para estudar e refletir sobre coisas que a indústria e Governos, guiados por seus próprios interesses, não têm por que pensar.

O filósofo sueco, que foi incluído em 2009 na lista dos 100 maiores pensadores globais da revista Foreign Policy, está interessado em estudar, em particular, sobre as ameaças distantes, as quais não gosta de colocar datas. “Quanto maior for o prazo”, diz, “maiores são as possibilidades de um cenário de extinção ou de era pós-humana”. Mas existem perigos no curto prazo. Os que mais preocupam Bostrom são aqueles que podem afetar negativamente as pessoas como pragas, vírus da gripe aviária, as pandemias.

Há uma corrida entre nosso progresso tecnológico e nossa sabedoria, que vai muito mais devagar

Em relação à Inteligência Artificial e sua relação com a militar, diz que os riscos mais evidentes são representados por drones e pelas armas letais autônomas. E lembra que a guerra nuclear, embora com poucas probabilidades de acontecer, ainda é um perigo latente. “As pessoas parecem que não se preocupam mais com ela; uma mudança para pior na situação geopolítica poderia se tornar um grande perigo.”

A biotecnologia e, em particular, a possibilidade oferecida pelo sistema de edição genética CRISPR de criar armas biológicas também colocam novos desafios. “A biotecnologia está avançando rapidamente; permitirá manipular a vida, modificar micróbios com grande precisão e potência. Isso abre caminho para habilidades muito destrutivas.” A tecnologia nuclear, destaca, pode ser controlada. A biotecnologia, a nanotecnologia, o que alguém faz em uma garagem com um equipamento de segunda mão, comprado no eBay, nem tanto. Com pouco, é possível fazer muito mal.

Depois de superar sua fase trans-humanista — fundou, em 1998, com David Pearce, a Associação Mundial Trans-humanista, grupo que defende com entusiasmo a expansão das habilidades humanas através do uso de tecnologias—, Bostrom encontrou na Inteligência Artificial o campo perfeito para desenvolver seu trabalho. A corrida nessa área deslanchou; grandes empresas — o Google comprou a empresa de tecnologia DeepMind, em 2014 — e Estados brigam para se apossar de um setor que poderia proporcionar poderes imensos, quase inimagináveis.

Um dos cenários projetados em seu livro é a tomada de poder por uma Inteligência Artificial. Ocorreria uma explosão de inteligência. As máquinas chegariam a um ponto em que superam seus programadores, os humanos. São capazes de melhorar a si mesmas. De desenvolver grandes habilidades de programação, estratégicas, de manipulação social, de hacking. Podem querer controlar o planeta.

Os seres humanos podem ser um obstáculo para seus objetivos. Para assumir o controle, escondem suas cartas. Podem se mostrar inicialmente dóceis. No momento em que desenvolvem todos seus poderes, podem lançar um ataque contra a espécie humana. Hackear drones, armas. Lançar robôs do tamanho de um mosquito desenvolvidos em nanofábricas produtoras de gás mostarda. Isso é apenas a síntese do desenvolvimento de um cenário.

Mas, como dizia a crítica da revista The Economist sobre o livroSuperinteligência, as implicações da introdução de uma segunda espécie inteligente na Terra merecem que alguém pense nelas. “Antes, muitas dessas questões, não apenas aquelas da AI [sigla em inglês de Artificial Intelligence], costumavam estar no campo da ficção científica, da especulação”, diz Bostrom, “para muitas pessoas era difícil entender ser possível fazer trabalho acadêmico com isso, que poderiam produzir avanços intelectuais”.

O livro também apresenta um cenário no qual a Inteligência Artificial se desenvolve em diferentes setores em paralelo e gera uma economia que produz patamares de riqueza inimagináveis, surpreendentes avanços tecnológicos. Os robôs, que não dormem nem pedem férias, produzem sem parar e substituem os seres humanos em vários trabalhos.

— Os robôs nos enriquecerão ou nos substituirão?

— Primeiramente, talvez nos enriqueçam. No longo prazo, vamos ver. O trabalho é caro e não é algo desejado, então é preciso pagar as pessoas para fazê-lo. Automatizá-lo parece benéfico. Isso cria dois desafios: se as pessoas perdem seus salários, como podem se manter? O que se torna uma questão política: planeja-se uma garantia de renda básica? Um Estado de bem-estar? Se esta tecnologia realmente torna o mundo um lugar muito mais rico, com um crescimento mais rápido, o problema deveria ser fácil de resolver, haveria mais dinheiro.

O outro desafio é que muita gente vê seu trabalho como necessário para ter status social e para que sua vida tenha sentido. Hoje, estar desempregado não é ruim só porque você não tem dinheiro, mas também porque muitas pessoas se sentem inúteis. Seria preciso mudar a cultura de modo que não pensemos que trabalhar por dinheiro é algo que dá valor. É possível, há exemplos históricos: os aristocratas não trabalhavam para viver; até pensavam que fazer isso era degradante. Acreditamos que as estruturas de significado social são universais, mas são recentes. A vida das crianças parece fazer muito sentido, mesmo se não fazem nada útil. Sou otimista: a cultura pode mudar.

Alguns segmentos da comunidade científica acusaram Bostrom de ser muito radical. Especialmente em sua fase trans-humanista. “Seus pontos de vista sobre a edição genética ou sobre a melhora do ser humano são controversos”, diz Miquel-Ángel Serra, biólogo que acaba de publicar, em parceria com Albert Cortina, Humanidade: Desafios Éticos das Tecnologias Emergentes (em espanhol). “Somos muito céticos em relação às suas propostas.” Serra, no entanto, deixa claro que Bostrom está agora no centro do debate sobre o futuro da Inteligência Artificial, que é uma referência.

— Você projeta uma visão muito apocalíptica em seu livro do que poderia acontecer com a humanidade?

— Muitas pessoas podem ter a impressão de que sou mais pessimista em relação à ‘AI’ do que realmente sou. Quando o escrevi, parecia mais urgente tentar ver o que poderia dar errado para nos certificar de como evitar isso.

— Mas você é otimista em relação ao futuro?

— Tento não ser pessimista nem otimista. Tento ajustar minhas crenças ao que a evidência aponta; com nosso conhecimento atual, acredito que o resultado final pode ser muito bom ou muito ruim. Embora talvez pudéssemos deslocar a probabilidade para um bom final, se trabalharmos duro para isso.

— Ou seja, há coisas para fazer. Quais?

— Estamos fazendo todo o possível para criar este campo de pesquisa de controle do problema. Devemos manter e cultivar boas relações com a indústria e com os desenvolvedores de Inteligência Artificial. Além disso, há muitas coisas que não vão bem neste mundo: pessoas que estão morrendo de fome, que são picadas por um mosquito e contraem malária, que se enfraquecem devido ao envelhecimento, desigualdade, injustiça, pobreza, e muitas [coisas] podem ser evitadas.

No geral, acredito que há uma corrida entre nossa habilidade de fazer as coisas, de avançar rapidamente nossas habilidades tecnológicas, e nossa sabedoria, que vai muito mais devagar. Precisamos de um certo nível de sabedoria e colaboração para o momento em que alcancemos determinados marcos tecnológicos, para sobreviver a essas transições.
Por: Joseba Elola