Bugatti Vision Gran Turismo Must See 2017
José Mesquita Banda de Jazz, 1987 Acrílica sobre tela – 200 x 140 cm
Se está na cozinha, é uma mulher: como os algoritmos reforçam preconceitos Bancos de imagens provocam viés sexista FotoTRONDHEIM BYARKIV As máquinas inteligentes consolidam os vieses sexistas, racistas e classistas que prometiam resolver. Um homem calvo, de uns 60 anos, mexe com suas espátulas de madeira alguns pedaços de carne dentro da frigideira. Usa óculos de acetato, calça jeans e está em frente ao fogão de sua pequena cozinha, decorada com tons claros. Ao ver essa imagem, a inteligência artificial, regida por algoritmos, não tem dúvida e, graças à sua sofisticada aprendizagem, rotula assim: cozinha, espátula, fogão, mulher. Se está numa cozinha, em frente ao fogão, deve ser uma mulher. Uma equipe da Universidade da Virgínia acaba de publicar um estudo que indica, mais uma vez, o que muitos especialistas vêm denunciando: a inteligência artificial não apenas não evita o erro humano derivado de seus preconceitos, como também pode piorar a discriminação. E está reforçando muitos estereótipos.[ad name=”Retangulo – Anuncios – Duplo”] Em seu trabalho, os cientistas analisaram os dados de dois gigantescos bancos de imagens, usados habitualmente para treinar as máquinas, examinando o que os robôs aprendiam com tais imagens. Inicialmente, os homens protagonizavam 33% das fotos que continham pessoas cozinhando. Após treinar uma máquina com esses dados, o modelo mostrou sua fraqueza: deduziu que 84% da amostra eram mulheres. “Sabe-se que as tecnologias baseadas em big data às vezes pioram inadvertidamente a discriminação por causa de vieses implícitos nos dados”, afirmam os autores. “Mostramos que, ao partirem de uma base enviesada sobre gênero”, acrescentam, os modelos preditivos “amplificam o viés”. As máquinas se tornam mais sexistas, racistas e classistas porque identificam a tendência subjacente e apostam nela para acertar. Já é bem conhecido o caso de Tay, o robô inteligente projetado pela Microsoft para se integrar nas conversas do Twitter aprendendo com os demais usuários: a empresa precisou retirá-lo em menos de 24 horas porque começou a fazer apologia do nazismo, assediar outros tuiteiros e defender o muro de Trump. A essa altura, são vários os exemplos de algoritmos que exacerbam os preconceitos e discriminações, colocando em questão a grande promessa desses sistema: eliminar o erro humano da equação. Os algoritmos nos condenam a repetir o passado do qual queríamos fugir, ao replicar os preconceitos que nos definiam. As tecnologias baseadas em big data às vezes pioram inadvertidamente a discriminação por causa de vieses implícitos nos dados O Google começou a rotular as pessoas negras como gorilas, e o Google Maps situava “a casa do negro” na Casa Branca da era Obama. As fotos dos usuários negros do Flickr são classificadas como “chimpanzés”. A inteligente Siri da Apple, que tem resposta para tudo, não sabe o que dizer quando a dona do celular lhe diz que foi estuprada. O software da Nikon adverte o fotógrafo de que alguém piscou quando o retratado tem traços asiáticos. As webcams da HP não podem identificar e seguir os rostos mais morenos, mas o fazem com os brancos. O primeiro concurso de beleza julgado por um computador colocou uma única pessoa de pele escura entre os 44 vencedores. Nos Estados Unidos, a Amazon deixa fora de suas promoções os bairros de maioria afro-americana (mais pobres). O Facebook permite que os anunciantes excluam minorias étnicas de seu target comercial e, ao mesmo tempo, que incluam pessoas que se identificam explicitamente como antissemitas e também jovens identificados por seus algoritmos como vulneráveis e depressivos. “Prometendo eficácia e imparcialidade, [os algoritmos] distorcem a educação superior, aumentam a dívida, estimulam o encarceramento em massa, golpeiam os pobres em quase todas as situações e solapam a democracia”, denuncia Cathy O’Neil, especialista em dados e autora do revelador livro Weapons of Math Destruction (armas de destruição matemática), em que examina todos os desastres algorítmicos a partir de sua formação como doutora em Matemática na Universidade Harvard e sua experiência de trabalho como data scientist no mundo financeiro. “Ir à faculdade, pedir dinheiro emprestado, ser condenado à prisão, encontrar e manter um trabalho. Todos esses campos da vida estão cada vez mais controlados por modelos secretos que proporcionam punições arbitrárias”, alerta. O Google começou a rotular as pessoas negras como gorilas, e o Flickr as classificou como chimpanzés Como afirma O’Neil, os preconceitos dos algoritmos podem ser ainda muito mais perigosos. A redação da ProPublica, uma ONG sem fins lucrativos que se descreve como independente, comprovou isso meses atrás ao descobrir que um programa usado na Justiça dos EUA para prevenir a reincidência dos presos era notavelmente racista. Os acusados negros eram duas vezes mais propensos a ser mal rotulados como prováveis reincidentes (e tratados de forma mais dura pelo sistema penal), enquanto os acusados brancos que de fato reincidiram foram rotulados como de “baixo risco” com duas vezes mais probabilidade que os negros. Os cidadãos, e certamente os condenados, ignoram que seu futuro está sendo decidido por um programa de informática viciado que será tão racista quanto o juiz mais racista. Fria, enviesada e meticulosamente racista. Uma pesquisa da Universidade Carnegie Mellon descobriu que as mulheres têm menos chances de receber anúncios de emprego bem remunerado no Google. Os programas usados nos departamentos de contratação de algumas empresas mostram uma inclinação por nomes usados por brancos e rejeitam os dos negros. As autoridades policiais de várias cidades utilizam softwares que ajudam a prever os lugares onde o crime é mais provável; desse modo, comparecem mais a essas zonas, detêm de novo mais pessoas ali e reforçam esse ciclo negativo. E os seguros são mais caros e severos nos bairros pobres de maioria negra. “O resultado é que criminalizamos a pobreza, achando que nossas ferramentas são não apenas científicas, como também justas”, resume a especialista. Prometendo eficácia e imparcialidade, golpeiam os pobres em quase todas as situações e solapam a democracia Em alguns casos, afirma O’Neil no livro, os problemas do algoritmo se devem a uma falha na seleção dos dados. Em outros, ao preconceito subjacente na sociedade, que o software simplesmente incorpora para acertar. Mas o maior problema é o modelo econômico. “Quando se elaboram sistemas estatísticos para encontrar clientes ou manipular devedores desesperados, as receitas crescentes parecem
Roberta Sá e Ney Matogrosso – “Peito Vazio” Composição de de Cartola e Elton Medeiros
“A moral é a ciência por excelência; é a arte de ser feliz.” Blaise Pascal [ad name=”Retangulo – Anuncios – Duplo”]