Face Book,Tecnologia,Privacidade,Redes Sociais,Internet,Blog do Mesquita

Graças ao face Book, sua operadora de celular te vigia mais de perto

DENTRE AS MEGA CORPORAÇÕES que o vigiam, sua operadora de celular tem sido sempre a mais intensa no monitoramento, em contato constante com o pequeno dispositivo que você mantém na palma da mão quase o tempo todo. Um documento confidencial do Facebook analisado pelo Intercept mostra que a rede social atrai operadoras telefônicas e fabricantes de celulares – cerca de 100 empresas diferentes em 50 países – oferecendo o uso de ainda mais dados de vigilância retirados diretamente do seu smartphone pela rede social.

Oferecidos para um grupo seleto de parceiros do Facebook, os dados incluem não apenas informações técnicas sobre os dispositivos dos usuários da rede social e o uso de redes wi-fi e de celular, mas também suas localizações anteriores, interesses e até mesmo seus grupos sociais. Esses dados são obtidos não apenas dos principais aplicativos iOS e Android da empresa, mas também do Instagram e do Messenger. Os dados têm sido usados por parceiros do Facebook para avaliar sua posição em relação a concorrentes, incluindo clientes perdidos e ganhos, mas também para usos mais controversos, como anúncios segmentados por raça.

Alguns especialistas estão particularmente alarmados com o fato de o Facebook ter comercializado o uso da informação – e parece ter ajudado a facilitar diretamente seu uso, juntamente com outros dados do Facebook – com o objetivo de rastrear os clientes com base em sua probabilidade de obter crédito financeiro. Tal uso poderia entrar em conflito com uma lei federal americana, que regula rigorosamente as avaliações de crédito.

O Facebook disse que não fornece serviços de análise de crédito e que os dados que oferece às operadoras e fabricantes de celulares não vão além dos que já estavam sendo coletados para outros usos.

As parcerias de telefonia celular do Facebook são particularmente preocupantes por conta dos amplos poderes de vigilância já desfrutados por operadoras como a AT&T e a T-Mobile: assim como o seu provedor de serviços de Internet é capaz de observar os dados utilizados entre sua casa e o resto do mundo, as empresas de telecomunicações têm um ponto privilegiado de onde podem coletar muitas informações sobre como, quando e onde você está usando seu telefone.

A AT&T, por exemplo, afirma claramente em sua política de privacidade que coleta e armazena informações “sobre os sites que você visita e os aplicativos móveis que você usa em nossas redes”. Junto com a supervisão de chamadas e mensagens de texto por parte das operadoras, isso representa praticamente tudo o que você faz em seu smartphone.

Por dentro do “Actionable Insights”
Você poderia pensar que esse grau de monitoramento contínuo seria mais do que suficiente para um gigante de comunicações operar seu negócio – e talvez, por algum tempo, realmente tenha sido. Mas a existência do “Actionable Insights” do Facebook, um programa corporativo de compartilhamento de dados, sugere que as empresas de comunicações não estão satisfeitas com o que já conseguem ver das nossas vidas.

O Actionable Insights foi anunciado no ano passado em um post inofensivo e fácil de ignorar no blog de engenharia do Facebook. O artigo, intitulado “Divulgação de ferramentas para ajudar os parceiros a melhorar a conectividade”, sugeria fortemente que o programa visava principalmente a solução de conexões fracas de dados celulares ao redor do mundo. “Para resolver esse problema”, começava o post, “estamos construindo um conjunto diversificado de tecnologias, produtos e parcerias projetados para expandir os limites da qualidade e desempenho de conectividade existentes, catalisar novos segmentos de mercado e proporcionar melhor acesso aos desconectados.” Que tipo de monstro estaria contra um melhor acesso para os desconectados?

O post do blog faz apenas uma breve menção do segundo propósito menos altruísta do Actionable Insights: “possibilitar melhores decisões de negócios” por meio de “ferramentas analíticas”. De acordo com materiais analisados pelo Intercept e uma fonte diretamente familiarizada com o programa, o benefício real do Actionable Insights não está na sua capacidade de consertar conexões instáveis, mas de ajudar corporações específicas a usar seus dados pessoais para comprar publicidade melhor direcionada.

A fonte, que discutiu sobre o Actionable Insights sob condição de anonimato porque não tinha permissão para falar com a imprensa, explicou que o Facebook ofereceu o serviço a operadoras e fabricantes de telefones aparentemente de graça, com acesso ao Actionable Insights concedido para adoçar relações publicitárias. De acordo com a fonte, o valor de conceder acesso gratuito ao Actionable Insights nesses casos não é simplesmente ajudar a atender melhor os clientes de telefonia celular com sinais fracos, mas também garantir que as operadoras de telefonia e os fabricantes continuem comprando mais e mais propagandas direcionadas do Facebook.

É exatamente esse tipo de acesso a dados quase transacionais que se tornou uma marca registrada dos negócios do Facebook, permitindo que a empresa negasse de forma plausível que alguma vez tenha vendido seus dados, enquanto seguia aproveitando-os para obter receita. O Facebook pode não estar “vendendo” dados através do Actionable Insights no sentido mais literal da palavra – não há uma maleta cheia de discos rígidos sendo trocada por outra contendo dinheiro –, mas o relacionamento baseado em gastos e monetização certamente se encaixa no espírito de uma venda. Um porta-voz do Facebook se recusou a responder se a empresa cobra pelo acesso do Actionable Insights.

O Facebook está usando o seu telefone para fornecer não somente dados comportamentais sobre você às operadoras de celular, mas sobre seus amigos também.
O documento confidencial do Facebook fornece uma visão geral do Actionable Insights e defende seus benefícios para possíveis usuários corporativos. Ele mostra como o programa, supostamente criado para ajudar a melhorar a vida de clientes com serviço precário de celular, está pegando muito mais dados do que você está obtendo de sinal em seu aparelho.

De acordo com uma parte da apresentação, o aplicativo móvel do Facebook coleta e empacota oito categorias diferentes de informações para mais de 100 empresas diferentes de telecomunicações em mais de 50 países, incluindo dados de uso de telefones de crianças de até 13 anos. Essas categorias incluem o uso de vídeo, informações demográficas, localização, uso de redes wi-fi e de celular, interesses pessoais, informações sobre dispositivos e “homofilia de amigos”, um jargão acadêmico. Um artigo de 2017 sobre amizade em mídias sociais do Journal of the Society of Multivariate Experimental Psychology definiu “homofilia” neste contexto como “a tendência que os nós têm de formar relações com aqueles que são semelhantes a eles mesmos”. Em outras palavras, o Facebook está usando o seu telefone para fornecer não somente dados comportamentais sobre você às operadoras de celular, mas sobre seus amigos também.

A partir de somente essas oito categorias, um terceiro poderia aprender enormemente sobre os padrões de vida cotidiana dos usuários e, embora o documento alegue que os dados coletados pelo programa são “agregados e tornados anônimos”, os estudos acadêmicos descobriram em diversas ocasiões que os dados de usuários supostamente tornados anônimos podem ser facilmente revertidos em informações que deixam de ser anônimas. Hoje, tais alegações de anonimização e agregação são essencialmente um clichê das empresas que apostam que você se sentirá confortável com elas possuírem um enorme acervo de observações pessoais e previsões comportamentais sobre seu passado e futuro, desde que os dados sejam suficientemente esterilizados e agrupados com os do seu vizinho.

Um porta-voz do Facebook disse ao Intercept que o Actionable Insights não coleta dados de dispositivos de usuários que já não estivessem sendo coletados anteriormente. Em vez disso, segundo o porta-voz, o Actionable Insights reembala os dados de novas maneiras úteis para anunciantes nas indústrias de telecomunicações e smartphones.

O material analisado pelo Intercept mostra informações demográficas apresentadas em uma exibição no estilo de um painel de controle, com mapas mostrando as localizações dos clientes no nível do município e da cidade. Um porta-voz do Facebook disse que “não achava que ia além do código postal”. Mas, armado com dados de localização transmitidos diretamente de seu telefone, o Facebook poderia tecnicamente fornecer a localização do cliente com precisão de vários metros, dentro ou fora de casa.

Segmentação por raça e potencial de crédito
Apesar das repetidas garantias do Facebook de que as informações do usuário são completamente anônimas e agregadas, os materiais do Actionable Insights enfraquecem essa afirmação. Um estudo de caso do Actionable Insights a partir do documento geral promove como uma operadora de telefonia celular norte-americana anônima usou anteriormente seu acesso ao Actionable Insights para segmentar um grupo racial específico e sem nome. A segmentação do Facebook por “grupos de afinidade multicultural”, como a empresa anteriormente se referia à raça, foi descontinuada em 2017 depois que a prática de focalização foi amplamente criticada como potencialmente discriminatória.

Outro estudo de caso descreveu como o Actionable Insights pode ser usado para destacar clientes individuais com base na sua capacidade de obter linhas de crédito. Neste exemplo, o Facebook explicou como um de seus clientes de publicidade, com sede fora dos EUA, queria excluir indivíduos de futuras ofertas promocionais com base em seu crédito. Usando dados fornecidos por meio do Actionable Insights, um estrategista de ciência de dados, uma função para a qual o Facebook continua a contratar, conseguiu gerar perfis de clientes com posições de crédito desejáveis e indesejáveis. O cliente de publicidade usou esses perfis para segmentar ou excluir usuários do Facebook que se pareciam com esses perfis.

“O que eles estão fazendo é filtrar os usuários do Facebook em critérios de credibilidade e, potencialmente, escapar da aplicação do Fair Credit Reporting Act (FCRA) [lei que restringe as formas como as informações de crédito dos clientes podem ser coletadas, usadas e distribuídas]. … Não é diferente do Equifax fornecendo dados ao Chase Bank (como o Serasa fornecendo dados para uma fintech)”

O uso das chamadas “audiências semelhantes” é comum na publicidade digital, permitindo que os profissionais de marketing peguem uma lista de clientes já existente e permitam que o Facebook os combine com usuários que se assemelham à lista original com base em fatores como dados demográficos e interesses declarados na rede. Como o Facebook descreve em um guia on-line para os anunciantes, “um público similar é uma maneira de alcançar novas pessoas que possam estar interessadas em seu negócio, porque elas são semelhantes aos seus melhores clientes atuais”.

Mas esses públicos parecidos não são apenas novos clientes em potencial. Eles também podem ser usados para excluir clientes indesejados no futuro, criando uma espécie de lista negra demográfica de segmentação de anúncios.

O Facebook parece estar permitindo que as empresas cheguem até você com base em uma espécie de pontuação de crédito extraoficial.
Ao promover essa técnica em seu documento confidencial, o Facebook comercializa para futuros clientes corporativos e parece ter trabalhado com o cliente de publicidade para possibilitar o direcionamento de indivíduos elegíveis para crédito, baseado, pelo menos em parte, em dados comportamentais extraídos de seus telefones – em outras palavras, permitir que os anunciantes decidam quem merece ver um anúncio com base apenas em algum mecanismo invisível e totalmente inescrutável.

Não há qualquer indicação de como exatamente os dados do Facebook poderiam ser usados por terceiros para determinar quem é digno de crédito, nem nunca houve qualquer indicação da empresa de que o modo como você usa seus produtos influencia se você será destacado e excluído de certas ofertas no futuro. Talvez seja tão simples quanto o Facebook permitir às empresas dizer “Pessoas com crédito ruim se parecem e agem assim nas redes sociais”, um caso de perfil correlacional bem diferente das nossas noções de boa “higiene financeira” pessoal necessárias para manter uma boa pontuação de crédito. Como se espera que os consumidores naveguem nesse processo invisível e não oficial de pontuação de crédito, uma vez que nunca são informados de sua existência, isso permanece uma questão em aberto.

Esse mecanismo também lembra a chamada “linha vermelha”, a prática histórica (e agora ilegal) de negar hipotecas e outros empréstimos a grupos marginalizados com base em seus dados demográficos, de acordo com Ashkan Sultani, um pesquisador de privacidade e ex-tecnólogo chefe da Comissão Federal do Comércio (FTC, na sigla em inglês).

O pensamento de ver menos anúncios do Facebook pode parecer um bem puro – certamente soa melhor que a alternativa. Mas o relatório de crédito, por mais monótono que possa parecer, é uma prática extremamente sensível, com consequências econômicas profundas, que determina quem pode ou não pode, digamos, possuir ou alugar uma casa, ou obter acesso financeiro fácil a um novo celular. O Facebook parece estar permitindo que as empresas cheguem até você com base em uma espécie de pontuação de crédito extraoficial, uma determinação cinzenta do mercado de se você é um bom consumidor baseado em quanto você e seus hábitos se assemelham a um vasto conjunto de pessoas desconhecidas.

Em uma conversa inicial com um porta-voz do Facebook, ele afirmou que a empresa “não fornece serviços de crédito, nem é esta uma característica do Actionable Insights”. Quando perguntado se o Actionable Insights facilita o direcionamento de anúncios com base na qualidade de crédito, o porta-voz respondeu “Não, não há uma instância em que isso seja usado”. É difícil conciliar essa afirmação com o fato de os materiais promocionais do Facebook mostrarem como o Actionable Insights pode permitir que uma empresa faça exatamente isso.

Questionado sobre essa aparente inconsistência entre o que o Facebook diz aos parceiros publicitários e o que ele disse ao Intercept, a empresa se recusou a discutir o assunto de forma oficial, mas forneceu a seguinte declaração: “Nós não avaliamos – nem nunca avaliamos – a capacidade de crédito das pessoas para o Actionable Insights ou para anúncios, e o Facebook não usa as informações de crédito na forma como exibimos anúncios.”

Essa afirmação não contradiz a prática do Facebook, permitindo que outras pessoas realizem esse tipo de segmentação baseada em crédito usando os dados que ela fornece. O fato de o Facebook promover esse uso de seus dados como uma história de sucesso de marketing certamente enfraquece a ideia de que ele não veicula anúncios segmentados com base em informações de crédito.

“Do ponto de vista funcional, o que eles estão fazendo é filtrar os usuários do Facebook em critérios de credibilidade”.
Um porta-voz do Facebook se recusou a responder se a empresa aceita ou endossa parceiros de publicidade usando dados de usuários do Facebook para esse fim, ou se audita como o Actionable Insights é utilizado por terceiros, mas observou que seus parceiros só têm permissão para usar o Actionable Insights com propósitos “internos” e concorda em não compartilhar mais os dados. O porta-voz não respondeu se a empresa acredita que esta aplicação de dados do Actionable Insights está em conformidade com o Fair Credit Reporting Act.

De acordo com Joel Reidenberg, professor e diretor do Centro de Leis e Política de Informação da Universidade Fordham, o negócio de triagem de crédito do Facebook parece habitar uma zona nebulosa no que diz respeito à FCRA, sem corresponder à definição legal de uma agência de crédito, nem cair fora das atividades a lei deveria regular. “Com certeza isso cheira às disposições de pré-seleção da FCRA”, disse Reidenberg ao Intercept. “Do ponto de vista funcional, o que eles estão fazendo é filtrar os usuários do Facebook em critérios de credibilidade e potencialmente escapar da aplicação do FCRA.”

Reidenberg questionou o potencial do Facebook de incorporar dados sobre raça, sexo ou estado civil em seu processo de triagem, exatamente o tipo de prática que tornou a legislação como a FCRA necessária em primeiro lugar. Reidenberg explicou ainda que existem “todos os tipos de leis de discriminação em termos de concessão de crédito”, e que o Facebook “também pode estar em uma área cinzenta com relação a essas leis porque não estão oferecendo crédito, e sim oferecendo um espaço publicitário”, uma distinção que ele descreveu como algo que pode se tornar “uma bola de neve”. Um estudo acadêmico publicado em abril descobriu que os algoritmos de exibição de anúncios do Facebook eram inerentemente tendenciosos em relação a gênero e raça.

Reidenberg também duvida que o Facebook estaria isento de escrutínio regulatório se estivesse fornecendo dados a terceiros que depois seriam usados indiretamente para excluir pessoas com base em seu crédito, em vez de fazer a própria contagem de créditos, no estilo da Equifax ou da Experian.

“Se o Facebook está fornecendo dados de um consumidor para ser usado para fins de análise de crédito por terceiros, o Facebook seria uma agência de relatórios de crédito”, explicou Reidenberg. “A lei [FCRA] se aplica quando os dados ‘são usados ou se espera que sejam usados ou coletados no todo ou em parte com a finalidade de servir como um fator para estabelecer a elegibilidade do consumidor para […] receber crédito’”. Se o Facebook fornecer dados sobre você e seus amigos que eventualmente acabam em uma operação de triagem de crédito corporativo, “não é diferente da Equifax fornecer dados ao Banco Chase para determinar se este deve ou não emitir um cartão de crédito ao consumidor”, segundo Reidenberg.

Um porta-voz da FTC se recusou a comentar.

Chris Hoofnagle, especialista em privacidade da Faculdade de Direito da Universidade da Califórnia, em Berkeley, disse que esse tipo de esquema de avaliação do consumidor tem implicações preocupantes para assuntos muito mais amplos do que se a T-Mobile ou outra operadora vai lhe vender um telefone com desconto. Para aqueles preocupados com a sua pontuação de crédito, o caminho para a virtude sempre foi uma questão de bom senso com as finanças pessoais.

O salto da sabedoria convencional como “pagar suas contas no prazo” para cálculos completamente inescrutáveis baseados na observação do Facebook sobre o uso de seu smartphone e “homofilia de amigos” não é exatamente intuitivo. “Vamos passar a viver em um mundo onde você não saberá como agir”, disse Hoofnagle. “Se pensarmos no mundo como consumidores racionais engajados na maximização da utilidade no mundo, o que estamos enfrentando é esse sistema de sombras. Como competir?”
The Intercept/Sam Biddle
Tradução: Maíra Santos

Photo illustration: Soohee Cho/The Intercept

Face Book,Internet,Redes Sociais,Tecnologia

As razões que fazem de 2019 um ano chave para o Facebook

Face Book,Internet,Redes Sociais,Tecnologia

Direito de imagemGETTY IMAGES

Facebook está sendo investigado pela principal comissão reguladora do setor na União Europeia
Uma ótima notícia para o Facebook: 2018 acabou. Uma notícia ruim: 2019 está apenas começando.

Neste novo ano, os pedidos de desculpas da empresa darão espaço a sua responsabilização, e multas ou medidas regulatórias talvez sejam colocadas em prática.

Pode ser alvo de uma multa pesada na UE…
A Comissão de Proteção de Dados da Irlanda anunciou em dezembro que, ante “diversas notificações de brechas” no Facebook, iniciou uma investigação sobre a empresa (depois de esta ter informado a correção de um bug que levou à exposição de fotos privadas de 6,8 milhões de usuários). As implicações disso são potencialmente enormes – uma vez que se trata da principal comissão reguladora desse setor na União Europeia. O possível avanço regulatório se sustenta na intenção de punir severamente empresas que não protegem dados pessoais dos usuários.

“O foco será nas medidas de segurança e procedimentos que eles (Facebook) tinham em vigor”, avalia Kate Colleary, líder da IAPP, organização internacional dedicada à proteção de dados privados. “Se estes tiverem sido deficientes, é possível que haja uma ‘descoberta administrativa’.”

“Descoberta administrativa” seria, em outras palavras, uma eventual decisão da Comissão de Proteção de Dados com multas pesadas. Segundo uma regulação em vigor desde maio do ano passado, uma empresa pode ser multada em até 4% de sua receita global – no caso do Facebook, isso equivaleria a mais de US$ 1,5 bilhão.

…E também nos EUAFace Book,Internet,Redes Sociais,TecnologiaPode ser que não pare por aí. Enquanto avançam as investigações na Irlanda, a Comissão Federal de Comércio dos EUA também examina a conduta do Facebook perante um acordo assinado pela empresa em 2011. Em termos gerais, o acordo fez o Facebook prometer que obteria consentimento devido e explícito em casos de coleta e compartilhamento de dados. A empresa já refirmou, diversas vezes, que não descumpriu o acordo, conhecido como “decreto de consentimento”. De qualquer modo, a comissão federal está analisando o caso.

Empresa de Mark Zuckerberg pode ser alvo de mais regulação nos EUA, assim como aconteceu na Europa. Em caso de ser identificada alguma violação nos termos, as punições são, em teoria, astronômicas: o “decreto de consentimento” prevê multas de US$ 40 mil por dia, por violação.

Se uma eventual violação abarcar todos os 80 milhões de usuários do Facebook nos EUA, chega-se à cifra de US$ 3 trilhões.

Mas é improvável que se chegue a isso. O objetivo da comissão não é quebrar empresas americanas, mas sim desencorajar comportamentos inadequados. Em entrevista ao Washington Post, David Vladeck, ex-chefe de proteção ao consumidor da mesma comissão, disse que eventuais multas devem ser na casa de US$ 1 bilhão.

“A agência (em referência à comissão) vai querer enviar a mensagem de que (…) leva muito a sério seu decreto de consentimento”, opinou ele ao jornal.

Pode ser desmembrado
Uma opinião que parece ter apoio multipartidário – em diferentes países ao redor do mundo – é a de que o Facebook se tornou muito grande e muito poderoso.

“Temos muitos concorrentes”, disse Mark Zuckerberg durante sua aparição diante do Senado americano, em abril de 2018. Mas ele não mencionou nenhum desses concorrentes. Com o WhatsApp e o Instagram sendo parte da empresa, não há, de fato, nenhuma alternativa ao Facebook – e, se houvesse, a empresa provavelmente a compraria.

Um grupo ativista específico, o Freedom from Facebook, pede que a empresa seja dividida em quatro: a rede principal de Facebook, o WhatsApp, o Instagram e o Facebook Messenger. Também pede que seja mais fácil para os usuários migrar seus dados de uma rede a outra, caso queira se desconectar de alguma delas.

O Facebook, segundo o periódico New Stateman, está contratando especialistas em leis concorrenciais, preparando-se para fortes conclamações para que seu negócio seja desmembrado em peças menores.

A empresa também contratou, em outubro, um político britânico do alto escalão – Nick Clegg, ex-vice-premiê – como chefe de Comunicações.

Em conversas com jornalistas, Clegg disse que vai focar seus esforços na ideia de “co-regulamentação”, ou seja, em trabalhar em conjunto com governos para criar regulamentações que façam sentido técnica e eticamente.

Mas foi alvo de críticas, uma das de Ahmed Banafa, especialista em privacidade da Universidade Estadual de San Jose, na Califórnia, alegando que as autoridades “devem agir de modo independente (ao Facebook) porque estão cuidando de nós, cidadãos, e não das empresas”.Mark Zuckerberg,Facebook,Blog do MesquitaDireito de imagemGETTY IMAGES
Político britânico Nick Clegg, agora no Facebook, defende “co-regulação”

Pode ser alvo de regulamentação (junto com o restante das empresas de tecnologia)
“Eu não quero votar pela regulação do Facebook”, disse em abril a Mark Zuckerberg o senador americano John Kennedy. “Mas eu o farei. Isso dependerá de você. (…) Seu (termo) de condições dos usuários é péssimo.”

Há uma sensação, em Washington, de que passou do tempo de o Facebook mostrar ser capaz de resolver seus próprios problemas sozinho. E o Facebook já disse diversas vezes estar aberto a regulação, desde que seja a regulação “certa”, que não impacte a habilidade das pessoas de se comunicar livremente online.

E que tipo de regulação pode ser essa? Um relatório do senador democrata Mark Warner – vice-presidente do Comitê de Inteligência do Senador – talvez traga o argumento mais coerente para o que pode vir a ocorrer.

Em termos gerais, o senador quer forçar as redes sociais a se abrirem a uma auditoria de acadêmicos; a oferecerem uma melhor portabilidade de dados, para que as pessoas possam migrar mais facilmente de um serviço a outro; e a terem mais transparência quanto a quais dados pessoais estão sendo armazenados, para o que estão sendo usados e por quem.

Veja que esse tipo de medidas não afetaria apenas o Facebook, mas quaisquer plataformas que usem dados pessoais – Google e companhia também estarão acompanhando o tema bem de perto.

Por enquanto, o Facebook diz apoiar a Lei de Publicidade Honesta, que força os sites a explicitar a origem do financiamento de anúncios publicitários políticos ou correlatos. Isso seria um bom primeiro passo, mas insuficiente. Legisladores nos EUA assistiram à aprovação da Regulação Geral de Proteção de Dados da União Europeia (aprovada em maio e descrita por seus criadores como “a mais importante mudança em regulação de privacidade de dados dos últimos 20 anos”) e pensando: “é possível fazer”.

Pode não receber tanta atenção dos usuários
O Facebook continua a crescer, mas não em regiões onde foi atingido por graves escândalos – estacionou seu crescimento nos EUA e viu seus números caírem na Europa.

Será que isso vai continuar? Pode se aprofundar? Algo anedótico: mais e mais pessoas estão contando – nas redes sociais, naturalmente – como estão se afastando do Facebook, seja deletando a conta ou tirando o app de seu celular.

Mas só teremos as estatísticas oficiais depois de 30 janeiro, quando a empresa anunciar seus próximos planos de receitas.

Uma pesquisa com quase mil usuários de Facebook feita pela empresa de análises Creative Strategies, em abril de 2018 – depois do escândalo da Cambridge Analytica, que teve acesso a diversos dados da plataforma – mas antes de virem à tona outras revelações de brechas de dados. O resultado foi de que 31% disseram que pretendem usar menos o Facebook no futuro. Veremos.
BBC

Empresas buscam imagem ecologicamente correta, mas consomem muita energia

As máquinas de Jeff Rotshchild no Facebook tinham um problema que ele sabia que precisava ser resolvido imediatamente. Estavam a ponto de derreter.Segurança observa servidores em central de processamento de dados em Las Vegas

Segurança observa servidores em central de processamento de dados em Las Vegas

A companhia ocupava um imóvel alugado em Santa Clara, um galpão de 18 por 12 metros, com fileiras de servidores necessários para armazenar e processar as informações sobre as contas de seus membros. A eletricidade que fluía para os computadores estava causando o derretimento de portas de rede e outros componentes cruciais.

Pensando rápido, Rotshchild, o diretor de engenharia da companhia, enviou seus subordinados em uma expedição para comprar todos os ventiladores que pudessem. “Nós esgotamos o estoque de todas as lojas Walgreens da área”, ele disse – para soprar ar frio na direção do equipamento e impedir que o site caísse.

Isso aconteceu no começo de 2006, quando o Facebook tinha modestos 10 milhões de usuários e seus servidores estavam instalados em um só local. Hoje, as informações geradas por mais 1,5 bilhão de pessoas exigem versões maiores dessas instalações, chamadas centrais de dados – Data Centers – , com fileiras e mais fileiras de servidores, espalhadas por áreas de dezenas de milhares de metros quadrados, e tudo com sistemas industriais de refrigeração.

E esses servidores representam apenas uma fração das dezenas de milhares de centrais de processamento de dados que hoje existem para sustentar a explosão generalizada da informação digital. Volumes imensos de dados são movimentados a cada dia, sempre que as pessoas usam o mouse ou suas telas sensíveis ao toque para baixar filmes ou música, verificar os saldos em seus cartões de crédito no site da Visa, enviar e-mails com arquivos anexados via Yahoo!, adquirir produtos na Amazon, postar no Twitter ou ler jornais on-line.

Um estudo conduzido pelo “New York Times” ao longo dos últimos 12 meses revelou que essa fundação da indústria da informação contrasta fortemente com a imagem de esguia eficiência e postura ecologicamente correta que o setor tenta apresentar.

A maioria das centrais de processamento de dados consome vastos montantes de energia, deliberadamente e de maneira perdulária, de acordo com entrevistas e documentos. As companhias de internet operam suas instalações em capacidade máxima, 24 horas por dia, não importa qual seja a demanda. Como resultado, as centrais de processamento de dados podem desperdiçar 90% ou mais da eletricidade que recebem da rede, de acordo com o estudo.

Para se protegerem contra quedas de energia, elas dependem, também, de conjuntos de geradores a diesel, causadores de emissões. A poluição gerada pelas centrais de processamento de dados viola a regulamentação de ar limpo norte-americana, de acordo com documentos oficiais. No Vale do Silício, muitas das centrais de processamento de dados constam do Inventário de Contaminantes Tóxicos do Ar, um documento governamental que lista os principais causadores de poluição em função do uso de diesel, na região.

No restante do mundo, esses armazéns de informação digital utilizam cerca de 30 bilhões de watts de eletricidade, mais ou menos o equivalente a 30 usinas nucleares, de acordo com estimativas compiladas para o estudo por especialistas setoriais. As centrais de processamento de dados norte-americanas respondem por entre um quarto e um terço dessa carga, de acordo com as estimativas.

“A dimensão desses números é espantosa para a maioria das pessoas, mesmo profissionais do setor. O tamanho assusta”, diz Peter Gross, que ajudou a projetar centenas de centrais de processamento de dados. “Uma central de processamento de dados pode consumir mais energia que uma cidade de tamanho médio.”

A eficiência energética varia amplamente de empresa para empresa. Mas, a pedido do “New York Times”, a consultoria McKinsey analisou o uso de energia pelas centrais de processamento de dados e constatou que, em média, elas empregavam na realização de computações apenas entre 6% e 12% da eletricidade que seus servidores recebem. O restante da energia é usado essencialmente para manter ligados servidores ociosos, em caso de um pico de atividade que possa desacelerar as operações do sistema ou causar quedas.

Um servidor é uma espécie de computador desktop bem reforçado, sem tela ou teclado, com chips para processar dados. O estudo examinou como amostra 20 mil servidores instalados em 70 grandes centrais de processamento de dados, em ampla gama de organizações: companhias farmacêuticas, fabricantes de equipamento bélico, bancos, empresas de mídia e agências do governo.

“Esse é o segredinho sujo do setor, e ninguém quer ser o primeiro a admitir culpa”, disse um importante executivo do setor que pediu que seu nome não fosse revelado, a fim de proteger a reputação de sua empresa. “Se fôssemos um setor industrial, estaríamos rapidamente fora do negócio”, afirmou.

As realidades físicas do processamento de dados ficam bem distantes da mitologia da internet, onde as vidas são vividas em um mundo “virtual” e a memória fica armazenada “na nuvem”.

O uso ineficiente de energia é propelido em larga medida pelo relacionamento simbiótico entre os usuários que exigem resposta imediata ao clicar o mouse e as empresas que correm o risco de quebra caso não cumpram essas expectativas.

Nem mesmo o uso intensivo de eletricidade da rede parece suficiente para satisfazer o setor. Alem dos geradores, a maior parte das centrais de processamento de dados abriga bancadas de imensos volantes de inércia ou milhares de baterias elétricas –muitas das quais parecidas com as dos automóveis– a fim manter os computadores em ação em caso de queda da rede elétrica nem que por apenas alguns milésimos de segundo, já que uma interrupção dessa ordem poderia bastar para derrubar os servidores.

“É um desperdício”, diz Dennis Symanski, pesquisador sênior no Instituto de Pesquisa da Energia Elétrica, uma organização setorial de pesquisa sem fins lucrativos. “É ter número exagerado de apólices de seguro.”

Pelo menos uma dúzia de grandes centrais de processamento de dados foram autuadas por violações dos códigos de qualidade do ar só nos Estados da Virgínia e Illinois, de acordo com registros dos governos estaduais. A Amazon foi autuada por mais de 24 violações em um período de três anos, no norte da Virgínia, o que inclui operar alguns de seus geradores sem licença ambiental.

Algumas poucas empresas dizem que estão usando sistemas de software e refrigeração fortemente modificados para reduzir o desperdício de energia. Entre elas estão o Facebook e o Google, que também alteraram seu hardware. Ainda assim, dados revelados recentemente apontam que as centrais de processamento de dados do Google consomem quase 300 milhões de watts, e as do Facebook, 60 milhões de watts.

Há muitas soluções como essas facilmente disponíveis, mas, em um setor avesso a riscos, a maior parte das empresas reluta em conduzir mudanças amplas, de acordo com especialistas setoriais.

Melhorar o setor, ou mesmo avaliá-lo, é um processo complicado pela natureza sigilosa de uma indústria criada basicamente em torno do acesso a dados de terceiros.Central de processamento de dados em Ashburn, Virgínia, atrás de uma subestação de energiaCentral de processamento de dados em Ashburn, Virgínia, atrás de uma subestação de energia
Brendan Smialowski/The New York Times

Por motivos de segurança, as empresas tipicamente não revelam a localização de suas centrais de processamento de dados, que ficam abrigadas em edifícios anônimos e fortemente protegidos. As empresas também protegem sua tecnologia por razões de concorrência, diz Michael Manos, um veterano executivo do setor. “Todas essas coisas se influenciam mutuamente para fomentar a existência de um grupo fechado, que só recebe bem aqueles que já são membros”, disse.

O sigilo muitas vezes se estende ao uso de energia. Para complicar ainda mais qualquer avaliação, não há uma agência governamental específica cujo trabalho seja fiscalizar o setor. Na verdade, o governo federal norte-americano nem mesmo sabe quanta energia as suas próprias centrais de processamento de dados consomem, de acordo com funcionários envolvidos em uma pesquisa completada no ano passado.

A pesquisa constatou que o número de centrais de processamento de dados federais cresceu de 432 em 1998 a 2.094 em 2010.

Para investigar o setor, o “New York Times” obteve milhares de páginas de documentos municipais, estaduais e federais sobre instalações que consomem grande volume de energia, alguns por recurso às leis de acesso à informação. Cópias das licenças para instalação de geradores e informações sobre seu nível de emissão de poluentes foram obtidas junto a agências ambientais, que ajudaram a estabelecer a localização de algumas centrais de processamento de dados e a obter detalhes sobre suas operações.

Além de revisar dados de uso de eletricidade, repórteres do “New York Times” também visitaram centrais de processamento de dados em todo o território dos Estados Unidos e conduziram centenas de entrevistas com trabalhadores e prestadores de serviço do setor, atuais e passados.

Alguns analistas alertam que à medida que continuam a crescer o volume de dados e o uso de energia, as companhias que não alterarem suas práticas poderão se ver sujeitas a uma reacomodação, em um setor propenso a grandes viradas, como por exemplo o estouro da primeira bolha da internet, no final dos anos 1990.

“Não é sustentável”, diz Mark Bramfitt, ex-executivo do setor de eletricidade e hoje consultor para os setores de energia e tecnologia da informação. “Eles vão colidir contra uma muralha.”

BYTES AOS BILHÕES

Usando uma camisa do Barcelona e bermudas, Andre Tran caminhava pela central de processamento de dados do Yahoo! em Santa Clara, Califórnia, da qual ele é gerente de operações. O domínio de Tran –que abriga entre outras coisas servidores dedicados a bolões de esportes (fantasy sports) e compartilhamento de fotos– serve como boa amostra das incontáveis salas de computadores onde as marés mundiais de dados vêm repousar.

Fileiras e mais fileiras de servidores, com luzes amarelas, azuis e verdes piscando silenciosamente, se estendiam por um piso branco repleto de pequenos orifícios redondos que expelem ar frio. Dentro de cada servidor estão instalados discos rígidos que armazenam os dados. O único indício de que a central serve ao Yahoo!, cujo nome não estava visível em parte alguma, era um emaranhado de cabos nas cores da empresa, púrpura e amarelo.

“Pode haver milhares de e-mails de usuários nessas máquinas”, diz Tran, apontando para uma fileira de servidores. “As pessoas guardam seus velhos e-mails e anexos para sempre, e por isso é necessário muito espaço.”

Estamos diante do dia a dia da informação digital –estatísticas de desempenho de atletas fluindo para servidores que calculam resultados de bolão e a classificação dos participantes, fotos de férias no exterior quase esquecidas em dispositivos de armazenagem. É só quando a repetição dessas e de outras transações semelhantes é adicionada que o total começa a se tornar impressionante.

Os servidores se tornam mais velozes a cada ano, e os dispositivos de armazenagem avançam em densidade e caem de preço, mas o índice furioso de produção de dados avança ainda mais rápido.

Jeremy Burton, especialista em armazenagem de dados, diz que, quando trabalhava para uma empresa de tecnologia de computadores, dez anos atrás, seu cliente que requeria mais dados tinha 50 mil gigabytes em seus servidores. (A armazenagem de dados é medida em bytes. A letra N, por exemplo, requer um byte para armazenagem. Um gigabyte equivale a 1 bilhão de bytes de informação.)

Hoje, cerca de um milhão de gigabytes são processados e armazenados em uma central de processamento de dados para a criação de um desenho animado em 3D, diz Burton, agora executivo da EMC, uma empresa cuja especialidade é a gestão e armazenagem de dados.

A bolsa de valores de Nova York, um dos clientes da empresa, produz, só ela, 2.000 gigabytes de dados ao dia, e é preciso manter essas informações armazenadas durante anos, ele acrescenta.

A EMC e a IDC estimam que mais de 1,8 trilhão de gigabytes de informações digitais foram criados no planeta no ano passado.

“É uma corrida entre nossa capacidade de criar dados e nossa capacidade de armazená-los e administrá-los”, diz Burton.

Cerca de três quartos desses dados, estima a EMC, foram criados por consumidores comuns.

Sem o senso de que os dados são físicos e de que armazená-los exige espaço e energia, os consumidores desenvolveram o hábito de enviar grandes pacotes de dados, tais como vídeos ou e-mails coletivos com fotos anexadas, uns aos outros. Mesmo ações aparentemente corriqueiras, como executar um aplicativo que encontre um restaurante italiano em Manhattan ou permita chamar um táxi em Dallas, requerem que servidores sejam ativados e estejam prontos para processar a informação instantaneamente.

A complexidade de uma transação básica é um mistério para a maioria dos usuários. Enviar uma mensagem com uma foto anexa para um vizinho pode envolver um percurso de centenas ou milhares de quilômetros por cabos de internet e múltiplas centrais de processamento de dados, antes que o e-mail chegue ao outro lado da rua.

“Se você disser a alguém que essa pessoa não pode acessar o YouTube ou baixar filmes do Netflix, ela responderá que esse é um direito essencial”, diz Bruce Taylor, vice-presidente do Instituto Uptime, uma organização profissional que atende a companhias que utilizam centrais de processamento de dados.

Para sustentar toda essa atividade digital, hoje existem mais de 3 milhões de centrais de processamento de dados em atividade no planeta, com dimensões muito variadas, de acordo com dados da IDC.

Nos Estados Unidos, as centrais de processamento de dados consumiram 76 bilhões de kilowatts-hora em 2010, ou cerca de 2% da eletricidade utilizada no país naquele ano, de acordo com análise de Jonathan Koomey, pesquisador da Universidade Stanford que vem estudando o uso de energia nas centrais de processamento de dados há mais de uma década. A DatacenterDynamics, uma companhia de Londres, calculou números semelhantes.

O setor vem argumentando há muito que digitalizar as transações de negócios e tarefas cotidianas como ir ao banco ou ler livros retirados em uma biblioteca significaria economia de energia e recursos, em termos finais. Mas a indústria do papel, que muita gente previa viria a ser destruída pelos computadores, consumiu 67 bilhões de kilowatts-hora da rede elétrica norte-americana em 2010, de acordo com dados do Serviço de Recenseamento revisados para o “New York Times” pelo Instituto de Pesquisa da Energia Elétrica.

Chris Crosby, presidente-executivo da Compass Datacenters, de Dallas, disse que a proliferação da infraestrutura digital não está revelando sinais de desaquecimento.

“Existem novas tecnologias e melhoras”, disse Crosby, “mas tudo continua a depender de uma tomada elétrica”.

DESPERDÍCIO ‘COMATOSO’ DE ENERGIA

Os engenheiros da Viridity Software, uma empresa iniciante que ajuda companhias a administrar seus recursos energéticos, não se surpreenderam com aquilo que descobriram in loco em uma grande central de processamento de dados perto de Atlanta.

A Viridity foi contratada para realizar testes de diagnóstico básicos. Seus engenheiros constataram que a central, como dezenas de outras que pesquisaram, consumia a maior parte de sua energia mantendo ativos servidores que faziam pouco mais que desperdiçar eletricidade, diz Michael Rowan, então vice-presidente de tecnologia da Viridity.Geradores dentro de caixas brancas em central de processamento de dados do Facebook em Prineville, OregonGeradores dentro de caixas brancas em central de processamento de dados do Facebook em Prineville, Oregon Steve Dykes/The New York Times

Um executivo importante da central de processamento já suspeitava que houvesse algo de errado. Ele havia conduzido uma pesquisa informal, anteriormente, colando etiquetas vermelhas nos servidores “comatosos”, um termo empregado por engenheiros para definir servidores que estão conectados e usando energia ainda que seus processadores estejam realizando poucas, se alguma, tarefas de computação.

“No final do processo, parecia que a central estava sofrendo de sarampo”, disse Martin Stephens, esse executivo, em um seminário do qual participou com Rowan. “Havia um número inacreditável de etiquetas vermelhas.”

Os testes da Viridity confirmaram as suspeitas de Stephens: em uma amostra de 333 servidores monitorados em 2010, mais de metade estavam comatosos. No total, quase três quartos dos servidores da amostra estavam usando menos de 10% de seu poder de processamento, em média, para processar dados.

A operadora da central de dados não era uma companhia precária, ou um serviço de jogos de azar on-line, mas a LexisNexis, uma gigante do setor de banco de dados. E a situação estava longe de constituir exceção.

Em muitas instalações, os servidores têm instalados os aplicativos que usarão e são mantidos em atividade por prazo indefinido, mesmo que a maioria dos usuários esteja inativa ou novas versões do mesmo programa estejam rodando em outra parte da rede.

“É preciso levar em conta que a explosão do uso de dados é o que causa isso”, disse Taylor, do Uptime. “Chega um ponto em que ninguém mais é responsável, porque não há quem se disponha a entrar naquela sala e desligar um servidor.”

Kenneth Brill, engenheiro que fundou o Uptime em 1993, diz que o baixo aproveitamento da capacidade começou com o “pecado original” do ramo de processamento de dados.

No começo dos anos 90, explica Brill, sistemas operacionais de software que hoje seriam considerados primitivos costumavam travar quando solicitados a fazer coisas demais, ou mesmo se fossem ligados e desligados com rapidez. Em resposta, os técnicos de computador raramente executavam mais de um aplicativo em cada servidor, e mantinham as máquinas ligadas o dia todo, não importa a frequência com que o aplicativo fosse utilizado.

Assim, no momento mesmo em que as agências de energia do governo iniciaram campanhas para convencer os consumidores a desligar seus computadores caso não os estivessem usando, nas centrais de processamento de dados a diretriz era a de manter os computadores ligados a todo custo.

Uma queda ou desaceleração podia significar fim de carreira, conta Michael Tresh, antigo executivo da Viridity. E um ramo nascido da inteligência e audácia passou a ser regido por algo mais: o medo do fracasso.

“Os operadores de centrais de processamento de dados temem perder seus empregos, dia após dia”, diz Tresh. “E isso acontece porque o setor não os apoia caso aconteça uma falha.”

Em termos técnicos, a fração do poder de processamento de um computador que esteja sendo utilizado para processamento de dados é definida como “índice de utilização”.

A consultoria McKinsey, que analisou os índices de utilização a pedido do “New York Times”, vem monitorando essa questão pelo menos desde 2008, quando publicou um relatório que não foi muito noticiado fora do setor. Os números continuam persistentemente baixos. Os níveis atuais, de entre 6% e 12%, são pouco melhores que os de 2008. Devido a acordos de confidencialidade, a McKinsey não está autorizada a revelar os nomes das empresas cujos servidores foram incluídos em sua amostragem.

David Cappuccio, vice-presidente executivo de pesquisa no Gartner, um grupo de pesquisa sobre tecnologia, diz que sua pesquisa recente sobre uma grande amostra de centrais de processamento de dados demonstra que o índice de utilização típico é da ordem de 7% a 12%.

“É dessa forma que superdimensionamos e operamos nossas centrais de processamento de dados, há anos”, diz Cappuccio. “Vamos superdimensionar caso precisemos de capacidade adicional, um nível de conforto que custa muito dinheiro. E custa muita energia.”

Os servidores não são os únicos componentes de uma central de processamento de dados que consomem energia. Sistemas industriais de refrigeração, circuitos para manter carregadas as baterias de reserva e a simples dissipação nas extensas redes de cabos elétricos respondem cada qual por certa proporção de desperdício.

Em uma central de processamento de dados típica, essas perdas, combinadas à baixa utilização, significam que a energia desperdiçada pode ser 30 vezes maior que a utilizada para realizar a tarefa básica da instalação.

Algumas empresas, organizações acadêmicas e grupos de pesquisa demonstraram que práticas imensamente mais eficientes são possíveis, ainda que comparar os diferentes tipos de tarefa seja difícil.

O Centro de Computação Científica do Instituto Nacional de Pesquisa da Energia, que consiste de agrupamentos de servidores e mainframes no Laboratório Nacional Lawrence Berkeley, na Califórnia, registrou índice de utilização de 96,4% em julho, diz Jeff Broughton, o diretor de operações do centro. Essa eficiência foi obtida pela criação de uma cronograma de tarefas que as ordena de forma a permitir que as máquinas operem com poder praticamente pleno 24 horas por dia.

Uma empresa chamada Power Assure, de Santa Clara, comercializa uma tecnologia que permite que centrais de processamento de dados comerciais desliguem servidores de maneira segura, quando seu uso não é necessário –de madrugada, por exemplo.

Mas, mesmo com programas agressivos para convencer seus maiores clientes a poupar energia, a Silicon Valley Power não foi capaz de persuadir nem mesmo uma central de processamento a utilizar essa técnica em Santa Clara, diz Mary Medeiros McEnroe, gerente de programas de eficiência energética da companhia.

“É o nervosismo da comunidade da tecnologia de informações quanto à possibilidade de que algo não esteja disponível quando precisarem disso”, diz McEnroe.

Mas os ganhos de eficiência promovidos por Stephens na LexisNexis ilustram a economia que poderia ser realizada.

No primeiro estágio do projeto, ele disse que, ao consolidar o trabalho em número menor de servidores e atualizar o hardware, pôde reduzir o espaço utilizado de 2.250 metros quadrados para 900 metros quadrados.

As centrais de processamento de dados evidentemente precisam de capacidade de reserva disponível constantemente, e obter um índice de utilização de 100% não seria possível. Elas têm de estar preparadas para lidar com picos de tráfego.

Symanski diz que essa baixa eficiência faz sentido apenas sob a lógica obscura da infraestrutura digital.

“Você estuda a situação e pensa que é absurdo operar um negócio desse jeito”, diz. E a resposta é muitas vezes a mesma, acrescenta: “Ninguém ganha bonificações por reduzir a conta de eletricidade. As bonificações vêm para os engenheiros que conseguem manter a central de processamento de dados em operação 99,999% do tempo”.

OS MELHORES PLANOS

Em Manassas, Virgínia, a gigante do varejo Amazon opera servidores para seu serviço de computação em nuvem, entre uma garagem de caminhões, um silo de grãos inativo, uma madeireira e um depósito de lixo no qual máquinas comprimem cargas de resíduos para reciclagem.

Os servidores ficam em duas centrais de processamento de dados, abrigadas em três edificações com cara de armazém, com paredes corrugadas verdes. Nos telhados, grandes dutos, capazes de abrigar sistemas de refrigeração de capacidade industrial, são visíveis, e fileiras de geradores a diesel estão instaladas do lado de fora.Um dos seis geradores a diesel em uma grande central de processamento de dadosUm dos seis geradores a diesel em uma grande central de processamento de dados – Richard Perry/The New York Times

O termo “nuvem” em geral é utilizado para descrever as funções de uma central de processamento de dados. De forma mas específica, se refere a um serviço que alugue capacidade de computação para uso por terceiros. As instalações usadas para isso são abastecidas primordialmente pela rede nacional de eletricidade, mas quase sempre utilizam geradores e baterias para prover eletricidade em caso de quedas de energia.

As centrais de Manassas estão entre as pelo menos oito centrais de processamento de dados que a Amazon opera no norte da Virgínia, de acordo com os registros do Departamento de Qualidade Ambiental daquele Estado.

O departamento conhece bem a Amazon. Como resultado de quatro inspeções, a partir de outubro de 2010, a companhia foi informada pelas autoridades de que seria multada em US$ 554.476, por instalar e operar geradores diesel repetidamente sem obter as licenças ambientais necessárias para tanto na Virgínia.

Mesmo que não haja quedas de energia, os geradores continuam a emitir gases, porque precisam ser testados regularmente.

Depois de meses de negociações, a penalidade foi reduzida a US$ 261.638. Em uma avaliação de “grau de culpabilidade”, todas as 24 violações constatadas foram classificadas como “graves”.

Drew Herdener, porta-voz da Amazon, admitiu que a empresa “não obteve as devidas licenças” antes que os geradores fossem ativados. “Todos os geradores foram subsequentemente aprovados e licenciados”, afirmou.

As violações vieram se somar a uma série de infrações menores em uma das centrais de processamento de dados da Amazon, em Ashburn, Virgínia, que em 2009 valeram multa de US$ 3.496 à companhia, de acordo com os registros do departamento.

De todas as coisas que a internet deveria se tornar, é seguro dizer que ninguém antecipava que ela resultaria na proliferação de geradores auxiliares.

Terry Darton, antigo executivo na agência ambiental da Virgínia, diz que, na região de 14 condados em que trabalhava no Estado, foram concedidas a centrais de processamento de dados licenças para operar geradores de capacidade próxima à de uma usina nuclear, se somados.

“É chocante saber que tanta energia está disponível”, disse Darton, que se aposentou em agosto.

Não há dados nacionais sobre violações ambientais relacionadas a centrais de processamento de dados, mas uma verificação em diversos departamentos de proteção ecológica sugere que elas estão começando a atrair a atenção das autoridades regulatórias de todo o país.

Nos últimos cinco anos, na área de Chicago, por exemplo, a Savvis e a Equinix, duas importantes empresas de internet, receberam autuações por violações, de acordo com os registros da Agência de Proteção Ambiental do Illinois. Além da Amazon, as autoridades da Virgínia também autuaram centrais de processamento de dados operadas por Owest, Savvis, VeriSign e NTT America.

A despeito de todas as precauções –o enorme fluxo de eletricidade, as bancadas de baterias e os geradores a diesel–, as centrais de processamento de dados continuam a cair.

A Amazon, especialmente, sofreu uma série de defeitos no norte da Virgínia, nos últimos anos. Um deles, em maio de 2010 em uma central em Chantilly, tirou do ar por mais de uma hora companhias que dependem da nuvem da Amazon –uma eternidade, no ramo de dados.

Determinar a causa do defeito resultou em mais um problema de informação.
A Amazon anunciou que a falha havia sido causada “quando um veículo colidiu contra um poste de alta voltagem em uma estrada perto de uma de nossas centrais de processamento de dados”.

Na verdade, esse acidente de carro era um mito, uma informação equivocada que um operário local da empresa de energia transmitiu à sede da Amazon. A Amazon mais tarde informou que sua rede elétrica sobressalente havia desativado parte da central de processamento de dados por engano depois de o que a Dominion Virginia Power definiu como curto-circuito em um poste elétrico que causou duas quedas temporárias de energia.

Herdener, da Amazon, informou que o sistema sobressalente havia sido reformulado e que “não antecipamos que essa situação venha a se repetir”.

A FONTE DO PROBLEMA

No ano passado, em 11 de novembro, um ramal de US$ 1 bilhão que abastece a rede nacional de energia entrou em operação, estendendo-se por cerca de 345 quilômetros do sudoeste da Pensilvânia ao condado de Loudon, Virgínia, passando pelas montanhas Allegheny, da Virgínia Ocidental.

O trabalho foi financiado com o uso de dinheiro dos contribuintes. Steven Herling, executivo de primeiro escalão da PJM Interconnection, a agência interestadual que controla essa rede elétrica, disse que a necessidade de abastecer as muitas centrais de processamento de dados que estão surgindo no norte da Virgínia havia “ajudado a decidir” em favor do projeto, em meio a uma situação econômica deprimida.

As centrais de processamento de dados da área hoje consomem quase 500 milhões de watts de eletricidade, disse Jim Norvelle, porta-voz da Dominion Virginia Power, a grande geradora local de energia. A Dominion estima que essa carga possa subir a mais de 1 bilhão de watts em cinco anos.

As centrais de processamento de dados estão entre os clientes prediletos das empresas de energia. Muitas destas, em diversas regiões dos Estados Unidos, se esforçam por atrair clientes desse tipo, devido às cargas de uso constante, 24 horas por dia. Consumo grande e firme é lucrativo para as distribuidoras de energia porque permitem que planejem suas compras de energia com antecedência e que faturem mais à noite, quando cai a demanda de outros clientes.

Bramfitt diz temer que essa dinâmica esteja encorajando um setor perdulário a perpetuar seus hábitos de desperdício. Mesmo com toda a energia e o hardware que estão sendo dedicados a esse campo, há também quem acredite que será um desafio acompanhar o tsunami digital, se os métodos atuais de processamento e armazenagem de dados continuarem em uso.Fileiras de servidores em uma grande central de processamento de dadosFileiras de servidores em uma grande central de processamento de dados – Richard Perry/The New York Times

Alguns especialistas setoriais acreditam que a solução esteja na nuvem: centralizar a computação em um conjunto de centrais de processamento de dados grandes e bem operadas. Essas centrais dependeriam pesadamente de uma tecnologia conhecida como virtualização, que na prática permite que servidores aglutinem suas identidades na forma de recursos de computação grandes e flexíveis que podem ser distribuídos aos usuários conforme a necessidade, onde quer que estejam.

Um defensor dessa abordagem é Koomey, de Stanford. Mas ele diz que muitas empresas que tentam gerir centrais de processamento de dados próximas, em suas sedes ou espaços alugados, continuam pouco familiarizadas com a nova tecnologia da nuvem ou não confiam nela. Infelizmente, essas empresas respondem pela grande maioria da energia consumida por centrais de processamento de dados, segundo ele.

Outros expressam grande ceticismo quanto à nuvem, dizendo que ela às vezes parece uma crença mística em possibilidades negadas pela infraestrutura física que a sustenta.

Usar a nuvem “só muda o local em que os aplicativos são executados”, diz Hank Seader, diretor de pesquisa e educação do Instituto Uptime. “Mas tudo passa por uma central de processamento de dados em algum lugar.”

Há quem pergunte se a linguagem usada na internet não constitui barreira para a compreensão das suas realidades físicas, que não devem mudar. Um exemplo é a questão da armazenagem de dados, diz Randall Victora, professor de engenharia elétrica na Universidade de Minnesota que pesquisa sobre diversos dispositivos de armazenagem magnética.

“Quando alguém diz ‘vou armazenar alguma coisa na nuvem e não preciso mais de disco rígido’ –bem, a nuvem está armazenada em discos rígidos”, diz Victora. “Continuaremos a precisar deles. Só passaremos a ignorar o fato.”

Não importa o que aconteça com as companhias, está claro que, entre os consumidores, expectativas já bem assentadas propelem a necessidade de uma infraestrutura tão grandiosa.

“É isso que propele o imenso crescimento – a expectativa do usuário final de que terá acesso a tudo, a qualquer hora, em qualquer lugar”, disse Cappuccio, do Gartner. “Somos nós que causamos o problema.”
JAMES GLANZ
DO “NEW YORK TIMES”, EM SANTA CLARA, CALIFÓRNIA
Tradução de PAULO MIGLIACCI

Facebook muda sua ferramenta de anúncios para dificultar discriminação

A rede social permitia que anunciantes optassem por excluir pessoas com “afinidade étnica” a pessoas hispânicas, negras ou asiáticas, e foi processada por isso.

Segundo o anúncio, o Facebook não permitirá mais que a ferramenta de “afinidade étnica” seja usada em anúncios de imóveis, empregos ou crédito.[ad name=”Retangulo – Anuncios – Direita”]

“Há muitos usos não discriminatórios da nossa solução de afinidade étnica nessas áreas, mas nós decidimos que podemos nos defender de discriminação da melhor maneira suspendendo anúncios desse tipo”.

Em outros produtos, essa ferramenta seguirá funcionando normalmente.

A rede social ainda anunciou que atualizará suas políticas de publicidade para “ser ainda mais explítica e exigir que publicitários afirmemque não farão publicidade discriminatória no Facebook”.

Além disso, o site ainda “oferecerá novos materiais educativos para ajudar publicitários a entender suas obrigações” com relação a discriminação.

Infração federal

Como o VentureBeat lembra, o motivo da disputa com relação à ferramenta de publicidade do Facebook é, especificamente, o uso do recurso de “afinidade étnica” para anúncios de emprego e habitação.

Isso porque uma lei federal dos Estados Unidos de 1968 permite que anúncios de habitação excluam um grupo étnico – que é exatamente o que o recurso do Facebook permite fazer.

De acordo com a rede social, esse recurso foi incluído para dar às marcas e empresas uma maneira de “chegar a públicos multiculturais com publicidade mais relevante”.

A postura do Facebook parece ser de culpar os anunciantes por usar uma ferramenta que eles disponibilizam de uma maneira com a qual eles não concordam.

Internet. Como aparecer bem nas ferramentas de buscas

Redes Sociais Marketing Blog do MesquitaÉ sabido, e pesquisas apuradas indicam isso, que 95% das pessoas chegam pela primeira vez a um site através das ferramentas de buscas (Google,Yahoo, Bing).

Fica patente que para que o site de sua empresa ou seu blog sejam acessados, eles precisam aparecer na primeira página das buscas.

E é aí que entram os profissionais especializados em otimizar a programação dos sites.
O Editor


Sites devem ser formulados para figurar em mecanismos de busca.

Um dos grandes desafios das pequenas e médias empresas é colocar seus sites em evidência nos mecanismos de busca.

Figurar entre os primeiros links que sites como o Google mostram em uma busca pode ser a diferença para aumentar as vendas.

Segundo levantamento da consultoria WBI Brasil, feito neste ano com 4.431 pessoas, 64% dos internautas clicam somente nos três primeiros resultados ao pesquisar produtos e serviços.

“Só os que fazem uso correto de títulos e descrições ganham visibilidade nas páginas do Google ou do Yahoo!”, aponta Paulo Floriano, consultor da TerraForum, especializada em portais corporativos.

Por falta de conhecimento técnico, o representante da loja de artigos esportivos Gorilaz Paintball, Douglas Wilhelm, 22, não nomeou, no endereço virtual da empresa, os produtos vendidos pela companhia. “Isso impediu que os internautas nos localizassem por palavras-chave”, avalia.

[ad#Retangulo – Anuncios – Esquerda]Wilhelm só reverteu o problema ao contratar um otimizador, profissional que interfere na arquitetura de sites a fim de melhorar sua posição nas pesquisas on-line. “Saltamos da quinta para a primeira página do Google e registramos um aumento de 20% nas vendas.”

Há dez anos, Luis Fornasiari, 42, batizou sua empresa de ADL Traduções, para que figurasse no início das listas telefônicas, que são organizadas em ordem alfabética. Ele também se diz satisfeito com os resultados da otimização feita em sua página da internet.

“Após chegarmos ao terceiro lugar na busca de páginas brasileiras do Google [pela palavra-chave “traduções’], a procura por nossos serviços duplicou”, relata o empresário.

Soluções

Empresas de marketing e profissionais autônomos oferecem pacotes variados para colocar páginas virtuais no topo das buscas. É preciso, no entanto, pesquisar preços.

O especialista em otimização Ruy Miranda cobra no mínimo R$ 200 para aprimorar detalhes básicos, enquanto Anlipolmar Centivilli, dono da consultoria OSC Internet, informa que a liderança nas pesquisas pode custar R$ 20 mil por ano.

“Faço cálculos para atender a centenas de critérios que demonstrem aos bancos de dados que o site tem conteúdo útil e idôneo e, portanto, merece estar na frente dos concorrentes”, explica Miranda.

Segundo Floriano, da TerraForum, quanto mais links a página receber de outros endereços, melhor será a sua hierarquia em buscadores.

Para o consultor, o ideal é que a empresa faça o planejamento da colocação nas pesquisas antes mesmo de criar o seu site. “Imagens e vídeos devem ser bem descritos, e o conteúdo, facilmente localizável.”
Folha de São Paulo – Taís Laporta

O termo Dilma nas redes sociais: o fim da bipolaridade política e o desejo de radicalizar mudanças.

Rede de RTs sobre Dilma mostra o fim da bipolaridade no Brasil. Um grande grupo altamente relacionado (mancha verde claro) é o elemento surpresa do debate público, disputando o sentido do que seja a Dilma.

Rede de RTs sobre Dilma mostra o fim da bipolaridade no Brasil. Um grande grupo altamente relacionado (mancha verde claro) é o elemento surpresa do debate público, disputando o sentido do que seja a Dilma.

A imprensa soltou uma nota afirmando que a Abin (órgão de inteligência do governo federal) passa a estar de olho nas conversações dos perfis das redes sociais. Pelo que vejo, através da análise de rede que faço aqui, a Abin deve estar trabalhando 24 horas sem parar, com todo o seu pessoal mais o triplo de “voluntários”. Isso porque a densidade da rede de tweets, com recorrência da palavra Dilma, publicados no Twitter, só aumenta.

Coletei, nos dias 16 e 17 de junho, esses tweets. Eles somam 170 mil. Destes, 50 mil são de RTs (republicações). Peguei o arquivo e plotei-o no Gephi, buscando saber quem são os Hubs dessa Rede.

Grandes hubs são aqueles que possuem ótimas qualidades de conexões. Autoridades são aqueles que possuem ótimos conteúdos. O poder do segundo reside na credibilidade e na difusão.

O primeiro, nisso e no fato de obter e circular informações de qualidade, para tantas outras autoridades. Resultado já sabido: Hubs são os ativistas. Autoridades, os perfis mais noticiosos.
Para quem quiser visualizar no detalhe, é 
clicar aqui e baixar o pdf.

Explicado isso, vamos aos verdadeiros resultados: a rede “Dilma” no Twitter possui uma densidade enorme. Isso significa que quanto mais conexões (linhas) existirem nessa rede, mais densa ela vai ficando (e isso não pára de acontecer). Uma alerta aí para a Abin (rs) e uma má notícia: o trabalho de vocês vai ser impossível se o crescimento continuar nesse nível. Essa densidade significa, em linguagem de “humanidades”, que há muitas relações sendo produzidas. E essas relações criam, neste momento, componentes (grupos) fortemente conectados. E os grupos estão na rua. Para se ter uma ideia, a rede da figura acima possui 48481 componentes fortemente conectados. E somente 5475 fracamente conectados. É um evento múltiplo de grandes proporções.

Os três grandes grupos

Rede da Perspectiva Anti-Dilma no Twitter.

Rede da Perspectiva Anti-Dilma no Twitter.

Trocando em miúdos. De olho, o que é possível ver? Que há três mega componentes fortemente conectados (dentro desses 48 mil). O primeiro é o azul claro. Nele encontramos o grupo de oposição a Dilma há anos. É uma rede cuja presença podemos visualizar: @robertofreire, @faxinanopoder, @joapaulom, @blogdonoblat, mirandasa_, blogolhonamira, @lidpsdbsenado, @rede45.

Importante salientar que esses perfis ficam juntos porque se retuitam. O caso do Noblat é interessante. Ele é retuitado por muitos perfis, mas, de modo, mais recorrente por essa rede azul. Assim ele é “atraído” para essa rede. Noblat pode dizer que não, mas a sua perspectiva acaba sendo construída, e muito, por esse grupo.

Grupo de Defesa da Perspectiva Dilmista na Rede.

Grupo de Defesa da Perspectiva Dilmista na Rede.

A rede vermelha é o tradicional grupo que blinda a Dilma na rede e constrói pontos de vista alternativos. Um grupo que a própria Dilma passou a se manter com certa distância (em função da aproximação da presidenta com os grupos tradicionais de mídia). O grupo é formado por perfis tais como @zedeabreu, @stanleyburburin, @ptnacional, @blogdilmabr, @emirsader, @rogeriocorrea. É hoje uma rede política consolidada. E é quem está segurando o rojão da presidenta na rede. Veja: o que acontece com a jornalista Mônica Bergamo é o mesmo que ocorre com o Noblat. Bergamo é uma jornalista cuja perspectiva acaba sendo atraída pela rede de temas dilmistas.

Nem azul, nem vermelho, novos atores da opinião pública em rede apresentam pontos de vistas mais conectados com os das ruas.

Nem azul, nem vermelho, novos atores da opinião pública em rede apresentam pontos de vistas mais conectados com os das ruas.

Toda rede ligada a algum político possui um certo padrão:a bipolaridade. Mas a grande novidade dessa rede acima é a mancha verde do grafo. Compostos com grandes centralidades tais como @iavelar, @helenapalm, @teclologoexisto, @semfimlucrativo, @matheusrg, @personalescrito, @tsavkko, @cadulorena.

Essa é uma rede que narra fatos que nenhuma das duas outras gostam muito de discutir: a relação entre gastos públicos e Copa, a questão indígena, a crítica do que é esquerda e direita (são inúmeros temas). Ela tem perfil mais independente. E ganha relevância na conversação na rede. Possui alta conexão com as redes que circundam o centro do grafo. Isso significa que são perfis muito conectados com as ruas.

E a velha mídia, onde está?

Jornal de maior destaque na cobertura dos protestos, o Estadão ver seus tweets serem replicados, no lado esquerdo da tela, pelos seu  seguidores (desconectados com o resto da rede) e por perfis (à direita) de múltiplas matizes, múltiplas perspectivas.

Jornal de maior destaque na cobertura dos protestos, o Estadão ver seus tweets serem replicados, no lado esquerdo da tela, pelos seu seguidores (desconectados com o resto da rede) e por perfis (à direita) de múltiplas matizes, múltiplas perspectivas.

A velha mídia são os nós de forte difusão. Como mostra a figura acima, que mostra o @estadao, o padrão é de ser perfis muito retuitados pelos seus seguidores (desconectados com o resto da rede) e por por usuários de diferentes perpsectivas (à direita da imagem). São autoridades, muito em função, dessa enorme difusão de tweets.

Contudo, por que Folha, Estadão, Marcelo Tas, Rafinha Bastos – perfis muito retuitados – não criam grandes clusteres (grupões)? Simples, porque são retuitados, mas não retuitam. Os jornais, por exemplo, possui uma deontologia jornalística, cujo valor reside no problemático “ver tudo de longe”. Ou seja, esses perfis não são ativos DENTRO da conversação/manifestação, porque não criam relações. E quem não cria relação não tem perspectiva.

Já as celebridades possuem outro ingrediente. Quem é Rafinha Bastos ou Marcelo Tas? Uma autoridade igual ao Estadão, do ponto de vista estrutural de rede: uma mega árvore nesse rizoma. A força deles deriva da escala de seguidores que possuem. Se Rafinha ou Tas assumem o risco de replicar continuamente outros perfis,eles assumirão uma causa política do Outro.

E conectar mensagens escritas por seus seguidores permitem que discursos considerados menores sejam mega visualizados. Aqui reside um egoísmo enorme, que também é o núcleo duro do valor capitalista desses perfis: replicar vozes minoritários ou não? O Marcelo Tas retuitaria – continuamente – os fãns ou não? Por um lado, esses perfis têm tanta audiência, que não conseguem administrar as interações via menções ao mesmo tempo que possuem poucos seguidores (o recado é que eles filtram as pessoas que querem estar atentos – logo, se mantêm longe do que é notícia dentro do ativismo).

Por um outro lado, há uma questão estratégica em torno da “imagem midiática” dessas grandes autoridades. Se retuitam pessoas nos protestos, entram na causa e perdem “valor de mercado”. A opção é tuitar algo original, próprio, para ser muito retuitado: é o oportunismo do surfar no “assunto do momento”. O que percebo é que as autoridades, como o Marcelo Tas. que vivem do “assunto do momento”, para obter muitos RTs e serem mais vistos, acabam por fazer ironia sobre a dimensão ativista, sem criar grandes musculaturas coletivas na dinâmica da rede. E, com isso, acabam por serem simpáticos (ou antipático) ao movimento, legitimando-o de alguma forma, mesmo que seja através de um “tirar uma casquinha para aparecer”. É complexo, mas vejo por aí. PS: sigo ambos no Twitter. E gosto dos dois.

A riqueza dessa rede Dilma está nesse fim da bipolaridade e na intensidade de subgrupos que resolveram debater se o governo da Dilma faz concessão demais ou não, é chanteado por grupo econômicos e políticos ou não, se o governo apoia as ruas ou não, se o governo vai manter as mudanças radicais abertas desde 2003 ou não. A questão na rede passa muito por aí, para além da factualidade das notícias que se difundem.
por /LABIC – Laboratório de Estudos sobre Imagem e CiberCultura

Rejeição e solidão digital.

Incomoda-me o silêncio da ciência, e dos “zilhões de ólogos” em “zilhões” de “talk shows” televisivos, sobre a rejeição ou a solidão digital.

O que tenho visto publicado, e debatido, é muito pouco ante o tamanho da questão.

Penso ser uma falácia entender, ou considerar, as redes sociais, Face Book mais diretamente, como um reflexo da vida cotidiana.

Há, aqui, uma perigosa simbiose, perversa no âmbito das relações sociais, entre quantidade e qualidade.
A explosão das redes sociais exige uma análise mais acurada.


[ad#Retangulo – Anuncios – Duplo]

Primeiro ministro da Inglaterra, redes sociais e o complexo de vira lata

David Cameron Inglaterra Blog do MesquitaNão há lugar na web onde mais se propaguem fatos distorcidos, interpretações equivocadas inverdades e absurdos, e mais se exercite o complexo de vira-latas, como criou Nelson Rodrigues, do que nas redes sociais.

Não sei se tudo é conseqüência de má fé, ignorância – no sentido etimológico da palavra – ou tudo junto e misturado.

Agora circula uma foto do primeiro ministro da Inglaterra, David Cameron, “indo para o trabalho de trem”, com a legenda que enquanto isso os maganos Tapuias usam helicópteros e outras mordomias para ir ao trabalho.

Informo que endereço “10 Downing Street” é a residência oficial e o escritório do primeiro-ministro do Reino Unido. Ele pode até andar de jumento ou plantando bananeira. Esse não é o caso. O fato é que ele não vai ao trabalho de trem.

Assim o súdito da Beth II não precisa pegar nenhum transporte para ir ao trabalho.

Basta descer um par de lances de escadas para se deslocar de onde mora para o escritório onde trabalha.

Assim também é Mr. Barack que mora e trabalha na Casa Branca.

Poupem-me!

Ps. Continuam insistindo na mentira. Que seja. O primeiro ministro vai pro trabalho de trem – construíram um dentro da casa dele só pra isso – e soube também que a rainha usa jornal no lugar de papel higiênico, enquanto aqui as autoridades usam papel de arroz perfumado trazido pelo Gianecchini.
São mesmo uma porcaria essas autoridades Tupiniquins. Né não?


[ad#Retangulo – Anuncios – Duplo]