Arquivo

A inteligência artificial como mito e fetiche – Thomas Meyer

A inteligência artificial como mito e fetiche. Thomas Meye O progresso e o desenvolvimento sempre estiveram entre os principais artigos de fé do capitalismo. Os sucessos (muitas vezes duvidosos) da transformação técnica e da utilização da natureza e dos seres humanos não podem ser ignorados. Mas estes desenvolvimentos também podem ter consequências psicossociais e ecológicas fatais. Não se pode dizer que o progresso técnico seja uma boa ideia em si mesmo, ou que conduza efectivamente a uma maior prosperidade, como muitas vezes se afirma. Os desenvolvimentos técnicos, ou melhor, os paradigmas de desenvolvimento técnico, situam-se no contexto do movimento de valorização do capital. Se uma nova tecnologia promete uma vantagem em termos de custos ou abre novas possibilidades de acumulação sob a forma de inovação de processos de produção ou de (alargado) consumo maciço de mercadorias, ela é desenvolvida e produzida, ao mesmo tempo que se afirma a sua necessidade e inevitabilidade (embora também possa ser mais barato desgastar os trabalhadores do que racionalizar o seu uso através da tecnologia). A automatização não é implementada em todos os lugares onde é teoricamente possível, uma automatização nem sempre é viável na prática (ver Becker 2017 e Moody 2019). A ideologia capitalista do progresso e do desenvolvimento vem sempre acompanhada de um certo optimismo e de numerosas promessas de felicidade. E, inversamente, com um pessimismo em relação ao habitual e a ameaça implícita ou explícita de que temos de aceitar o progresso como destino, somos levados a adaptarmo-nos e a reinventarmo-nos com “autodeterminação”. Caso contrário, seremos simplesmente um dos “perdedores”, para os quais se encontram, sem dúvida, racionalizações biologistas que fornecem uma “explicação” genética ou neurológica para a pobreza, o conservadorismo etc. Não é por acaso que estas promessas se baseiam numa pretensão ideológica ou completamente exagerada, muitas vezes insustentável e assente em pressupostos e antropologias materialistas ou utilitaristas vulgares que não são objecto de maior tematização (ver Schnetker 2019). Ao mesmo tempo, o desenvolvimento tecnológico, com as suas promessas por vezes insanas, está ligado à correspondente música de fundo legitimadora. É repetidamente enfatizado como o desenvolvimento tecnológico é imparável, como é desejável e inevitável e que oportunidades, mas também riscos, ele acarreta. Quando se diz que “o desenvolvimento já não pode ser travado”, então este desenvolvimento parece imparável para os optimistas/apocalípticos e também para os “realistas”, uma vez que as dinâmicas sociais subjacentes a este desenvolvimento não são escrutinadas nem questionadas enquanto tais. Não se trata aqui de uma lei natural que se impõe (como no caso de uma iminente erupção vulcânica, que não poderia de facto ser travada), mas é o movimento de valorização fetichista do capital que aparece aos sujeitos a ele submetidos como tal, embora não o seja (cf. Kurz 2012). Seja qual for a questão, o “progresso” é a solução, que muitas vezes mais não significa que digitalizar e reduzir custos. O crítico da digitalização Evgeny Morozov chamou a esta forma de pensar, de só ver pregos em todo o lado e ter sempre apenas um martelo pronto para cada problema, “solucionismo” (Morozov 2013). Os discípulos particularmente ávidos do solucionismo são os ideólogos de Silicon Valley e, em especial, os representantes da ideologia transumanista, que nem se coíbem de considerar a racionalização dos seres humanos como tais e até consideram desejável que o ser humano desapareça ou se transforme num “ciborgue” (cf. Wagner 2016). O transumanismo é assim um culto tecnocrático da morte (cf. Konicz 2018 e Meyer 2020) que actualiza o darwinismo social e a eugenia (cf. Jansen 2018). Estas ideologias legitimadoras e os seus “profetas” têm, de facto, aspectos que se encontram habitualmente nos fundamentalistas religiosos. Não foi por acaso que surgiu o termo “evangelista da tecnologia”. Os ideólogos da IA acreditam que os seres humanos, devido à sua falibilidade, precisam de uma inteligência artificial criada pelo homem para lidar com as alterações climáticas, por exemplo. Os transumanistas lutam pela salvação através da tecnologia, mas isso pode incluir a destruição dos seres humanos. Para além dos big data e da digitalização (Meyer 2018), há um entusiasmo quase omnipresente no actual regime capitalista (ao qual pertence naturalmente o “socialismo de estilo chinês”) com a chamada inteligência artificial (cf., por exemplo, Simanowski 2020). A inteligência artificial tem estado na boca de todos pelo menos desde que o ChatGPT foi lançado, no final de 2022. O que é que podemos pensar do entusiasmo em torno da inteligência artificial? Estão a ser previstas grandes rupturas na economia (Indústria 4.0, Internet das Coisas) e a IA irá ultrapassar e substituir os seres humanos. Os seres humanos são mais ou menos um modelo descontinuado. A IA pode e vai ser utilizada na educação, na medicina, na logística, na indústria cultural, no jornalismo, nas forças armadas, na arte etc., em todo o lado. A perspectiva é que muitos empregos ou trabalhos desapareçam por completo, estando as consequências sociais mais uma vez a ser banalizadas. As pessoas tendem a entorpecer-se com a ignorância ou com o optimismo de que serão criadas inúmeras novas oportunidades de emprego, havendo sempre uma ameaça latente contra aqueles que ficam pelo caminho na “viagem para Jerusalém” e não se mostram suficientemente flexíveis ou resistentes. No entanto, a IA não está a criar um paraíso de alta tecnologia, como nos querem fazer crer os pregadores fundamentalistas da IA, mas sobretudo trabalho precário. A IA como “inteligência capitalista” (ver wildcat n.º 112, 42ss. e Seppmann 2017) serve para racionalizar o capital, ou seja, para reduzir custos, acelerar a logística, comprimir o trabalho, acelerar e manter o processo de valorização e continuar a concorrência a todos os níveis. Como mostram os desenvolvimentos actuais ou “iminentes”, os sistemas de IA são ideais para gerir a crise (ver Konicz 2024). Estão predestinados a subjugar o “material humano” capitalista através da análise de enormes quantidades de dados (big data) e a avaliá-lo e seleccioná-lo de acordo com a sua utilidade ou “viabilidade futura” (acção penal, seguros, saúde, vigilância etc.). Quando os sistemas de IA fazem previsões, fazem-no sempre com base numa avaliação estatística

Leia mais »

Noan Chomsky – Inteligência Artificial

Noam Chomsky diz que inteligência artificial “A mente humana não é como o ChatGPT e os seus colegas uma máquina estatística que engole centenas de terabytes de dados para obter a resposta mais plausível para uma conversa ou a resposta mais provável para uma pergunta científica. ” “ Pelo contrário… “A mente humana é um sistema surpreendentemente eficiente e elegante que funciona com uma quantidade limitada de informação. ” Ele não está tentando se correlacionar a partir de dados, ele está tentando criar explicações. [… ] Então vamos parar de chamá-la de “inteligência artificial” e chamar-lhe o que é e faz “software de plágio” porque “não cria nada além de copia obras existentes de artistas existentes e modifica-as na medida em que evade as leis de direitos autorais do autor. “ É o maior roubo de propriedade intelectual desde a chegada dos colonos europeus em terras nativas americanas. ” Noam Chomsky, New York Times – 8. Março de 2023

Leia mais »

Inteligência Artificial

Para Max Fisher, autor do livro “A máquina do caos”, a inteligência artificial “não vai mudar tudo no mundo, porque é controlada só por três ou quatro empresas”. “E essas empresas só querem nos vender mais anúncios, já que são empresas de publicidade. O uso vai ser esse”, afirma.

Leia mais »

O obscuro uso do Facebook e do Twitter como armas de manipulação política

As manobras nas redes se tornam uma ameaça que os governos querem controlar A manipulação das redes sociais está afetando os processos políticos.Tudo mudou para sempre em 2 de novembro de 2010, sem que ninguém percebesse. O Facebook introduziu uma simples mensagem que surgia no feed de notícias de seus usuários. Uma janelinha que anunciava que seus amigos já tinham ido votar. Estavam em curso as eleições legislativas dos Estados Unidos e 60 milhões de eleitores vieram aquele teaser do Facebook. Cruzando dados de seus usuários com o registro eleitoral, a rede social calculou que acabaram indo votar 340.000 pessoas que teriam ficado em casa se não tivessem visto em suas páginas que seus amigos tinham passado pelas urnas.  Dois anos depois, quando Barack Obama tentava a reeleição, os cientistas do Facebook publicaram os resultados desse experimento político na revista Nature. Era a maneira de exibir os músculos diante dos potenciais anunciantes, o único modelo de negócio da empresa de Mark Zuckerberg, e que lhe rende mais de 9 bilhões de dólares por trimestre. É fácil imaginar o quanto devem ter crescido os bíceps do Facebook desde que mandou para as ruas centenas de milhares de eleitores há sete anos, quando nem sequer havia histórias patrocinadas. Há algumas semanas, o co-fundador do Twitter, Ev Williams, se desculpou pelo papel determinante que essa plataforma desempenhou na eleição de Donald Trump, ao ajudar a criar um “ecossistema de veículos de comunicação que se sustenta e prospera com base na atenção”. “Isso é o que nos torna mais burros e Donald Trump é um sintoma disso”, afirmou. “Citar os tuítes de Trump ou a última e mais estúpida coisa dita por qualquer candidato político ou por qualquer pessoa é uma maneira eficiente de explorar os instintos mais baixos das pessoas. E isso está contaminando o mundo inteiro”, declarou Williams. “Citar a coisa mais estúpida que qualquer político diga é uma maneira de explorar os instintos mais baixos das pessoas. Isso está contaminando o mundo inteiro”, declarou o fundador do Twitter Quando perguntaram a Zuckerberg se o Facebook tinha sido determinante na eleição de Trump, ele recusou a ideia dizendo ser uma “loucura” e algo “extremamente improvável”. No entanto, a própria rede social que ele dirige se vangloria de ser uma ferramenta política decisiva em seus “casos de sucesso” publicitários, atribuindo a si mesma um papel essencial nas vitórias de deputados norte-americanas ou na maioria absoluta dos conservadores britânicos em 2015. O certo é que é a própria equipe de Trump quem reconhece que cavalgou para a Casa Branca nas costas das redes sociais, aproveitando sua enorme capacidade de alcançar usuários tremendamente específicos com mensagens quase personalizadas. Como revelou uma representante da equipe digital de Trump à BBC, o Facebook, o Twitter, o YouTube e o Google tinham funcionários com escritórios próprios no quartel-general do republicano. “Eles nos ajudaram a utilizar essas plataformas da maneira mais eficaz possível. Quando você está injetando milhões e milhões de dólares nessas plataformas sociais [entre 70 e 85 milhões de dólares no caso do Facebook], recebe tratamento preferencial, com representantes que se certificam em satisfazer todas as nossas necessidades”. E nisso apareceram os russos A revelação de que o Facebook permitiu que, a partir de contas falsas ligadas a Moscou, fossem comprados anúncios pró-Trump no valor de 100.000 dólares colocou sobre a mesa o lado negro da plataforma de Zuckerberg. Encurralado pela opinião pública e pelo Congresso dos Estados Unidos, a empresa reconheceu que esses anúncios tinham alcançado 10 milhões de usuários. No entanto, um especialista da Universidade de Columbia, Jonathan Albright, calculou que o número real deve ser pelo menos o dobro, fora que grande parte de sua divulgação teria sido orgânica, ou seja, viralizando de maneira natural e não só por patrocínio. A resposta do Facebook? Apagar todo o rastro. E cortar o fluxo de informações para futuras investigações. “Nunca mais ele ou qualquer outro pesquisador poderá realizar o tipo de análise que fez dias antes”, publicou o The Washington Post há uma semana. “São dados de interesse público”, queixou-se Albright ao descobrir que o Facebook tinha fechado a última fresta pela qual os pesquisadores podiam espiar a realidade do que ocorre dentro da poderosa empresa. Esteban Moro, que também se dedica a buscar frestas entre as opacas paredes da rede social, critica a decisão da companhia de se fechar em vez de apostar na transparência para demonstrar vontade de mudar. “Por isso tentamos forçar que o Facebook nos permita ver que parte do sistema influi nos resultados problemáticos”, afirma esse pesquisador, que atualmente trabalha no Media Lab do MIT. “Não sabemos até que ponto a plataforma está projetada para reforçar esse tipo de comportamento”, afirma, em referência à divulgação de falsas informações politicamente interessadas. “Seus algoritmos são otimizados para favorecer a difusão da publicidade. Corrigir isso para evitar a propagação de desinformação vai contra o negócio”, explica Moro O Facebook anunciou que contará com quase 9.000 funcionários para editar conteúdos, o que muitos consideram um remendo em um problema que é estrutural. “Seus algoritmos estão otimizados para favorecer a difusão de publicidade. Corrigir isso para evitar a propagação de desinformação vai contra o negócio”, explica Moro. A publicidade, principal fonte de rendas do Facebook e do Google, demanda que passemos mais tempos conectados, interagindo e clicando. E para obter isso, essas plataformas desenvolvem algoritmos muito potentes que criaram um campo de batalha perfeito para as mentiras polícias, no qual proliferaram veículos que faturam alto viralizando falsidades e meia-verdades polariza “É imprescindível haver um processo de supervisão desses algoritmos para mitigar seu impacto. E necessitamos de mais pesquisa para conhecer sua influência”, reivindica Gemma Galdon, especialista no impacto social da tecnologia e diretora da consultoria Eticas. Galdon destaca a coincidência temporal de muitos fenômenos, como o efeito bolha das redes (ao fazer um usuário se isolar de opiniões diferentes da sua), o mal-estar social generalizado, a escala brutal na qual atuam essas plataformas, a opacidade dos algoritmos e o desaparecimento da confiança na imprensa. Juntos, esses fatos geraram “um desastre significativo”. Moro concorda que “muitas das coisas que estão ocorrendo na sociedade têm a ver com o que ocorre nas redes”. E

Leia mais »

Eleições 2018 e George Orwell

Espionagem Eleitoral: “O Grande Irmão” vai escolher o seu próximo presidente À medida que o tempo passa nos aproximamos do futurístico ano de 1984. Toda a contagem de tempo é uma abstração racional do ser humano para entender a natureza, por isso pouco importa se estamos em 2017, em 5778, em 1438 ou no ano do Galo de Fogo. O que nos interessa neste período histórico é que estamos cada vez mais próximos do controle social antecipado, talvez profetizado, pelo escritor George Orwell em sua famosa obra de ficção científica. O xadrez político das democracias ganhou uma nova peça que se move com a leveza de uma rainha em meio a peões distraídos. Atuando no caro mercado das campanhas eleitorais desde 2013, a Cambridge Analytica deve chegar com força para operar nas eleições presidenciais brasileiras de 2018. Essa companhia britânica utiliza análise de dados disponíveis na internet para influenciar a comunicação de usuários nas redes sociais para beneficiar o candidato que contratou os seus serviços. A Cambridge Analytica ganhou notoriedade após ser bem-sucedida na vitoriosa campanha de Donald Trump nos EUA e na causa da saída do Reino Unido da União Europeia. Da mesma forma atua a Stilingue, que lê dados na internet com um aplicativo de inteligência artificial e robôs que identificam o perfil psicológico do eleitorado. Cada vez que alguém faz login em uma rede social, compartilha, interage, comenta em uma reportagem em um site jornalístico ou na própria rede, essas companhias são munidas com toneladas de informações que são processadas para alimentar bancos de dados para identificar a tendência de pensamento e comportamento do eleitor. A maquiagem na aparência e no discurso dos candidatos, algo que os marqueteiros já sabiam fazer, agora ganha a precisão de uma máquina. É como se trocássemos o artesanato na fabricação de um político por uma linha de montagem automatizada. Em um cenário confuso em que pessoas que se dizem de direita exigem educação e saúde custeados pelo Estado, e esquerdistas que se sentem pouco representados pelas forças vacantes, o aguçado olhar de Grande Irmão de companhias como a Cambridge Analytica e a Stilingue supera as divisões demográficas, etárias, educacionais e ideológicas para explorar perfis psicológicos de acordo como os medos, os desejos, as ambições e as rejeições do que o cidadão manifesta na internet por meio de uma inteligência artificial que realiza o que a ciência da computação identifica como “processamento de linguagem natural”. Ou seja, o sistema é capaz de aprender, entender e interpretar um idioma para analisar o que é divulgado na imprensa e nas redes sociais. Munido de dados que leem o desejo da maioria, um político pode saber se deve se vestir de gari, de policial, de taxista ou de garoto de programa para adaptar o seu discurso e agradar a parcela de seu eleitorado que lhe garante a manutenção no poder. Igualmente a ferramenta é útil para convencer os indecisos, pois o que é dito se adapta ao que o cidadão quer ouvir. O maior exemplo brasileiro do uso de tecnologia para aumentar o seu grau de influência na internet e fora dela é do prefeito de São Paulo João Doria. Desde a sua contestada pré-candidatura nas prévias do PSDB até a disputa pelo poder executivo paulistano, Doria se beneficiou da inteligência artificial para angariar votos e conquistar seguidores. Hoje há cinco softwares que trabalham com o objetivo de avaliar o impacto de tudo o que está relacionado a ele nas redes sociais para torná-lo mais agradável ao cidadão. O serviço da inteligência artificial é realizar uma “análise de sentimento” das redes sociais, algo possível apenas para seres humanos, para reduzir os impactos negativos e potencializar os positivos de cada discurso de Doria. Em cada vez mais frequentes viagens pelo Brasil para se tornar mais conhecido, João Doria disputa com o governador paulista Geraldo Alckmin o posto de candidato a presidente da república pelo PSDB. Na lista dos possíveis presidenciáveis, João Doria é o que tem mais contato nas redes sociais com os eleitores. Segundo Daniel Braga, sócio da Social QI, que tem Doria como cliente da empresa, entre os 114 milhões de usuários únicos do Facebook em território nacional, 23,5% já tiveram alguma interação com a página do prefeito de São Paulo. O segundo colocado entre os possíveis candidatos a ocupar a presidência em 2018 é o deputado federal Jair Bolsonaro (PSC-RJ) com 7,1%. Em 2018, o olho que tudo vê o que fazemos na internet está prestes a atuar nas próximas eleições no Brasil. Os resultados obtidos pela Cambridge Analytica nos EUA e no Reino Unido mostram que a observação do comportamento das pessoas no Facebook, no Twitter, no Instagram e no WhatsApp dá uma grande vantagem aos candidatos municiados por essa tecnologia. A companhia, diretamente ligada ao bilionário Robert Mercer, um cientista computacional norte-americano, defensor de causas conservadoras e de uma agenda de direita, ao atuar para convencer as pessoas de ideias de um grupo político, põe a inteligência artificial a pautar o tom eleitoral e a influenciar a mudança do discurso dos humanos para agradar outros humanos. Em uma análise sombria, é como se um robô instrutor ensinasse um projeto de sedutor a se tornar uma espécie de psicopata que está interessado apenas em conseguir o que quer, alimentando a sua ambição e pagando o preço que custar para atingir o seu objetivo. Depois de uma combativa e rancorosa eleição presidencial em 2014, como se comportará o eleitor brasileiro sob o olhar perscrutador do Grande Irmão manipulador de dados em 2018? Cada opinião pró ou contra um candidato, cada compartilhamento de notícia falsa ou verdadeira, cada meme produzido passará perante o escrutínio de softwares que traçarão os perfis psicológicos de cada um. Em meio a tantos compartilhamentos em que as pessoas não leem mais do que a manchete do que passam adiante, os maiores beneficiados serão sempre os que pagarem mais caro pelo melhor serviço de espionagem eleitoral. Ainda que o olho que tudo vê que se aproxima de nós não vista

Leia mais »

A guerra dos robôs se trava na Wikipédia

Até 4,7 milhões das mudanças da enciclopédia digital são feitas por programas de computador Captura de tela da página inicial da Wikipédia em seu 15º aniversário. Cada vez são mais os sites da web que incorporam bots, robôs que são programas de computador que se comportam como humanos, para executar tarefas como responder perguntas dos usuários, fazer publicidade ou abrir contas de e-mail. Mas, apesar dos esforços e de seu uso generalizado, ainda estão muito longe de atuar na rede como se fossem uma pessoa. Essa é a conclusão à qual chegou um grupo de engenheiros do Instituto Alan Turing do Reino Unido, que estudou o comportamento desses robôs na Wikipédia e descobriu que até 4,7 milhões das edições dos artigos são correções que os robôs estão fazendo constantemente entre si, caindo em um tipo de edição interminável nada produtiva. Captura de tela de uma das edições realizada por um bot. WIKIPEDIA Os robôs que trabalham na Wikipédia são responsáveis por tarefas que podem ser tediosas para as pessoas, como identificar e desfazer casos de vandalismo, adicionar links, verificar a ortografia e cuidar da concordância sintática das orações. O problema surge quando as edições que eles fazem estão condicionadas pelo país e idioma em que foram programados e são influenciadas por alguns aspectos culturais. Por exemplo, algumas dessas reversões são feitas para mudar Palestina por território palestino ou Golfo Pérsico para Golfo Árabe e assim com vários milhões de conceitos que não coincidem nas diferentes regiões do mundo. Também estão programados para revisar as mudanças feitas cada certo tempo, o que ajuda a aparição de confrontos com outros robôs que fazem exatamente o mesmo e se corrigem entre si quando veem que sua última edição voltou a ser modificada. Nas mudanças que fazem as pessoas não acontecem esse tipo de conflito porque os usuários da Wikipédia raramente voltam a verificar se os dados que corrigiram estão atualizados. Uma das curiosidades que mostra o estudo é que o número de edições depende do idioma do texto. Os escritos em alemão são os menos modificados, com uma média de 24 por entrada. No lado oposto estão os artigos em português, que acumulam até 185 reversões por artigo. De acordo com especialistas, uma das possíveis soluções para essas intermináveis batalhas é que a Wikipédia permita o uso de robôs cooperativos que podem gerir os desentendimentos e permitir que as tarefas possam ser cumpridas de forma eficiente. O estudo mostra que os robôs podem trabalhar de forma completamente imprevisível. “O mundo on-line se tornou um ecossistema de robôs e, no entanto, nosso conhecimento sobre como interagem esses agentes automatizados é muito pobre”, reconhece Taha Yasseri, uma das responsáveis pela pesquisa. Yasseri fala de todo um ecossistema e não exagera: um estudo de 2009 estimou que naquele ano os robôs geraram 24% de todos os tuites publicados; uma empresa de análise de audiências descobriu que 54% dos anúncios exibidos entre 2012 e 2013 foram vistos por robôs em vez de seres humanos; e, segundo uma empresa de segurança da web, os robôs realizaram 48,5% das visitas aos sites de 2015. O número de incidências causadas por esses programas de computador aumentou de maneira constante nos últimos anos, indicando, de acordo com os pesquisadores, que seus criadores não estão fazendo o suficiente para melhorá-los ou que não conseguiram identificar os problemas que geram. Alguns conflitos, como os da Wikipédia, podem ser considerados inócuos. Outros são mais problemáticos e virais, como o que aconteceu no Twitter em março deste ano, quando a Microsoft precisou retirar um dos seus robôs por tuitar mensagens com conteúdo racista, sexista e xenófobo. Tinha sido programado para responder perguntas e estabelecer conversas com os mais jovens da web e aprendeu com eles esse comportamento.se tornou um ecossistema de robôs e, no entanto, nosso conhecimento sobre como interagem é muito pobre” Apesar das falhas e da falta de eficiência demonstrada em muitas ocasiões, os robôs são ainda uma opção muito útil em tarefas de conversação. O exemplo mais claro é Siri, a assistente da Apple que resolve as dúvidas do usuário através de mensagens de voz. Mas também há outros casos, como o criado por um estudante da Universidade de Stanford, que está programado para ajudar as pessoas a recorrer das multas de estacionamento. Em um ano conseguiu cancelar 160.000 multas e já funciona em Londres e Nova York. Victoria Nadal/ElPais

Leia mais »

Sexismo,Inteligência Artificial e Cozinha

Se está na cozinha, é uma mulher: como os algoritmos reforçam preconceitos Bancos de imagens provocam viés sexista FotoTRONDHEIM BYARKIV As máquinas inteligentes consolidam os vieses sexistas, racistas e classistas que prometiam resolver. Um homem calvo, de uns 60 anos, mexe com suas espátulas de madeira alguns pedaços de carne dentro da frigideira. Usa óculos de acetato, calça jeans e está em frente ao fogão de sua pequena cozinha, decorada com tons claros. Ao ver essa imagem, a inteligência artificial, regida por algoritmos, não tem dúvida e, graças à sua sofisticada aprendizagem, rotula assim: cozinha, espátula, fogão, mulher. Se está numa cozinha, em frente ao fogão, deve ser uma mulher. Uma equipe da Universidade da Virgínia acaba de publicar um estudo que indica, mais uma vez, o que muitos especialistas vêm denunciando: a inteligência artificial não apenas não evita o erro humano derivado de seus preconceitos, como também pode piorar a discriminação. E está reforçando muitos estereótipos.[ad name=”Retangulo – Anuncios – Duplo”] Em seu trabalho, os cientistas analisaram os dados de dois gigantescos bancos de imagens, usados habitualmente para treinar as máquinas, examinando o que os robôs aprendiam com tais imagens. Inicialmente, os homens protagonizavam 33% das fotos que continham pessoas cozinhando. Após treinar uma máquina com esses dados, o modelo mostrou sua fraqueza: deduziu que 84% da amostra eram mulheres. “Sabe-se que as tecnologias baseadas em big data às vezes pioram inadvertidamente a discriminação por causa de vieses implícitos nos dados”, afirmam os autores. “Mostramos que, ao partirem de uma base enviesada sobre gênero”, acrescentam, os modelos preditivos “amplificam o viés”. As máquinas se tornam mais sexistas, racistas e classistas porque identificam a tendência subjacente e apostam nela para acertar. Já é bem conhecido o caso de Tay, o robô inteligente projetado pela Microsoft para se integrar nas conversas do Twitter aprendendo com os demais usuários: a empresa precisou retirá-lo em menos de 24 horas porque começou a fazer apologia do nazismo, assediar outros tuiteiros e defender o muro de Trump. A essa altura, são vários os exemplos de algoritmos que exacerbam os preconceitos e discriminações, colocando em questão a grande promessa desses sistema: eliminar o erro humano da equação. Os algoritmos nos condenam a repetir o passado do qual queríamos fugir, ao replicar os preconceitos que nos definiam. As tecnologias baseadas em big data às vezes pioram inadvertidamente a discriminação por causa de vieses implícitos nos dados O Google começou a rotular as pessoas negras como gorilas, e o Google Maps situava “a casa do negro” na Casa Branca da era Obama. As fotos dos usuários negros do Flickr são classificadas como “chimpanzés”. A inteligente Siri da Apple, que tem resposta para tudo, não sabe o que dizer quando a dona do celular lhe diz que foi estuprada. O software da Nikon adverte o fotógrafo de que alguém piscou quando o retratado tem traços asiáticos. As webcams da HP não podem identificar e seguir os rostos mais morenos, mas o fazem com os brancos. O primeiro concurso de beleza julgado por um computador colocou uma única pessoa de pele escura entre os 44 vencedores. Nos Estados Unidos, a Amazon deixa fora de suas promoções os bairros de maioria afro-americana (mais pobres). O Facebook permite que os anunciantes excluam minorias étnicas de seu target comercial e, ao mesmo tempo, que incluam pessoas que se identificam explicitamente como antissemitas e também jovens identificados por seus algoritmos como vulneráveis e depressivos. “Prometendo eficácia e imparcialidade, [os algoritmos] distorcem a educação superior, aumentam a dívida, estimulam o encarceramento em massa, golpeiam os pobres em quase todas as situações e solapam a democracia”, denuncia Cathy O’Neil, especialista em dados e autora do revelador livro Weapons of Math Destruction (armas de destruição matemática), em que examina todos os desastres algorítmicos a partir de sua formação como doutora em Matemática na Universidade Harvard e sua experiência de trabalho como data scientist no mundo financeiro. “Ir à faculdade, pedir dinheiro emprestado, ser condenado à prisão, encontrar e manter um trabalho. Todos esses campos da vida estão cada vez mais controlados por modelos secretos que proporcionam punições arbitrárias”, alerta. O Google começou a rotular as pessoas negras como gorilas, e o Flickr as classificou como chimpanzés Como afirma O’Neil, os preconceitos dos algoritmos podem ser ainda muito mais perigosos. A redação da ProPublica, uma ONG sem fins lucrativos que se descreve como independente, comprovou isso meses atrás ao descobrir que um programa usado na Justiça dos EUA para prevenir a reincidência dos presos era notavelmente racista. Os acusados negros eram duas vezes mais propensos a ser mal rotulados como prováveis reincidentes (e tratados de forma mais dura pelo sistema penal), enquanto os acusados brancos que de fato reincidiram foram rotulados como de “baixo risco” com duas vezes mais probabilidade que os negros. Os cidadãos, e certamente os condenados, ignoram que seu futuro está sendo decidido por um programa de informática viciado que será tão racista quanto o juiz mais racista. Fria, enviesada e meticulosamente racista. Uma pesquisa da Universidade Carnegie Mellon descobriu que as mulheres têm menos chances de receber anúncios de emprego bem remunerado no Google. Os programas usados nos departamentos de contratação de algumas empresas mostram uma inclinação por nomes usados por brancos e rejeitam os dos negros. As autoridades policiais de várias cidades utilizam softwares que ajudam a prever os lugares onde o crime é mais provável; desse modo, comparecem mais a essas zonas, detêm de novo mais pessoas ali e reforçam esse ciclo negativo. E os seguros são mais caros e severos nos bairros pobres de maioria negra. “O resultado é que criminalizamos a pobreza, achando que nossas ferramentas são não apenas científicas, como também justas”, resume a especialista. Prometendo eficácia e imparcialidade, golpeiam os pobres em quase todas as situações e solapam a democracia Em alguns casos, afirma O’Neil no livro, os problemas do algoritmo se devem a uma falha na seleção dos dados. Em outros, ao preconceito subjacente na sociedade, que o software simplesmente incorpora para acertar. Mas o maior problema é o modelo econômico. “Quando se elaboram sistemas estatísticos para encontrar clientes ou manipular devedores desesperados, as receitas crescentes parecem

Leia mais »