A inteligência artificial como mito e fetiche – Thomas Meyer

A inteligência artificial como mito e fetiche.

Thomas Meye

O progresso e o desenvolvimento sempre estiveram entre os principais artigos de fé do capitalismo. Os sucessos (muitas vezes duvidosos) da transformação técnica e da utilização da natureza e dos seres humanos não podem ser ignorados. Mas estes desenvolvimentos também podem ter consequências psicossociais e ecológicas fatais. Não se pode dizer que o progresso técnico seja uma boa ideia em si mesmo, ou que conduza efectivamente a uma maior prosperidade, como muitas vezes se afirma. Os desenvolvimentos técnicos, ou melhor, os paradigmas de desenvolvimento técnico, situam-se no contexto do movimento de valorização do capital. Se uma nova tecnologia promete uma vantagem em termos de custos ou abre novas possibilidades de acumulação sob a forma de inovação de processos de produção ou de (alargado) consumo maciço de mercadorias, ela é desenvolvida e produzida, ao mesmo tempo que se afirma a sua necessidade e inevitabilidade (embora também possa ser mais barato desgastar os trabalhadores do que racionalizar o seu uso através da tecnologia). A automatização não é implementada em todos os lugares onde é teoricamente possível, uma automatização nem sempre é viável na prática (ver Becker 2017 e Moody 2019). A ideologia capitalista do progresso e do desenvolvimento vem sempre acompanhada de um certo optimismo e de numerosas promessas de felicidade. E, inversamente, com um pessimismo em relação ao habitual e a ameaça implícita ou explícita de que temos de aceitar o progresso como destino, somos levados a adaptarmo-nos e a reinventarmo-nos com “autodeterminação”. Caso contrário, seremos simplesmente um dos “perdedores”, para os quais se encontram, sem dúvida, racionalizações biologistas que fornecem uma “explicação” genética ou neurológica para a pobreza, o conservadorismo etc. Não é por acaso que estas promessas se baseiam numa pretensão ideológica ou completamente exagerada, muitas vezes insustentável e assente em pressupostos e antropologias materialistas ou utilitaristas vulgares que não são objecto de maior tematização (ver Schnetker 2019). Ao mesmo tempo, o desenvolvimento tecnológico, com as suas promessas por vezes insanas, está ligado à correspondente música de fundo legitimadora. É repetidamente enfatizado como o desenvolvimento tecnológico é imparável, como é desejável e inevitável e que oportunidades, mas também riscos, ele acarreta. Quando se diz que “o desenvolvimento já não pode ser travado”, então este desenvolvimento parece imparável para os optimistas/apocalípticos e também para os “realistas”, uma vez que as dinâmicas sociais subjacentes a este desenvolvimento não são escrutinadas nem questionadas enquanto tais. Não se trata aqui de uma lei natural que se impõe (como no caso de uma iminente erupção vulcânica, que não poderia de facto ser travada), mas é o movimento de valorização fetichista do capital que aparece aos sujeitos a ele submetidos como tal, embora não o seja (cf. Kurz 2012).

Seja qual for a questão, o “progresso” é a solução, que muitas vezes mais não significa que digitalizar e reduzir custos. O crítico da digitalização Evgeny Morozov chamou a esta forma de pensar, de só ver pregos em todo o lado e ter sempre apenas um martelo pronto para cada problema, “solucionismo” (Morozov 2013). Os discípulos particularmente ávidos do solucionismo são os ideólogos de Silicon Valley e, em especial, os representantes da ideologia transumanista, que nem se coíbem de considerar a racionalização dos seres humanos como tais e até consideram desejável que o ser humano desapareça ou se transforme num “ciborgue” (cf. Wagner 2016). O transumanismo é assim um culto tecnocrático da morte (cf. Konicz 2018 e Meyer 2020) que actualiza o darwinismo social e a eugenia (cf. Jansen 2018). Estas ideologias legitimadoras e os seus “profetas” têm, de facto, aspectos que se encontram habitualmente nos fundamentalistas religiosos. Não foi por acaso que surgiu o termo “evangelista da tecnologia”. Os ideólogos da IA acreditam que os seres humanos, devido à sua falibilidade, precisam de uma inteligência artificial criada pelo homem para lidar com as alterações climáticas, por exemplo. Os transumanistas lutam pela salvação através da tecnologia, mas isso pode incluir a destruição dos seres humanos. Para além dos big data e da digitalização (Meyer 2018), há um entusiasmo quase omnipresente no actual regime capitalista (ao qual pertence naturalmente o “socialismo de estilo chinês”) com a chamada inteligência artificial (cf., por exemplo, Simanowski 2020). A inteligência artificial tem estado na boca de todos pelo menos desde que o ChatGPT foi lançado, no final de 2022.

O que é que podemos pensar do entusiasmo em torno da inteligência artificial? Estão a ser previstas grandes rupturas na economia (Indústria 4.0, Internet das Coisas) e a IA irá ultrapassar e substituir os seres humanos. Os seres humanos são mais ou menos um modelo descontinuado. A IA pode e vai ser utilizada na educação, na medicina, na logística, na indústria cultural, no jornalismo, nas forças armadas, na arte etc., em todo o lado. A perspectiva é que muitos empregos ou trabalhos desapareçam por completo, estando as consequências sociais mais uma vez a ser banalizadas. As pessoas tendem a entorpecer-se com a ignorância ou com o optimismo de que serão criadas inúmeras novas oportunidades de emprego, havendo sempre uma ameaça latente contra aqueles que ficam pelo caminho na “viagem para Jerusalém” e não se mostram suficientemente flexíveis ou resistentes. No entanto, a IA não está a criar um paraíso de alta tecnologia, como nos querem fazer crer os pregadores fundamentalistas da IA, mas sobretudo trabalho precário. A IA como “inteligência capitalista” (ver wildcat n.º 112, 42ss. e Seppmann 2017) serve para racionalizar o capital, ou seja, para reduzir custos, acelerar a logística, comprimir o trabalho, acelerar e manter o processo de valorização e continuar a concorrência a todos os níveis.

Como mostram os desenvolvimentos actuais ou “iminentes”, os sistemas de IA são ideais para gerir a crise (ver Konicz 2024). Estão predestinados a subjugar o “material humano” capitalista através da análise de enormes quantidades de dados (big data) e a avaliá-lo e seleccioná-lo de acordo com a sua utilidade ou “viabilidade futura” (acção penal, seguros, saúde, vigilância etc.). Quando os sistemas de IA fazem previsões, fazem-no sempre com base numa avaliação estatística “do que já existe”. Isto leva a ciclos de feedback positivo fatais: por exemplo, alguém não consegue um emprego ou um empréstimo porque vem de um “ponto social quente”, ou presumivelmente de um “meio criminoso”, como comprova o “trabalho policial” correspondente, que por sua vez é mobilizado para rastrear esses meios, uma vez que o crime também é susceptível de ocorrer lá no futuro, como o trabalho policial já demonstrou no passado e irá demonstrar novamente devido à IA e aos algoritmos (procurar e encontrar!). E assim se “confirma” que o meio criminoso é um meio criminoso e que os negros ou os estrangeiros estão mais “inclinados” a cometer crimes do que aqueles que têm menos probabilidades de serem apanhados na mira da polícia e do sistema judicial (cf. O’Neil 2016). Uma realidade racista é assim perpetuada algoritmicamente.

Se se cair nos “tentáculos” de um sistema ou algoritmo de IA devido a um erro de avaliação, normalmente não é possível “objectar” (e os próprios utilizadores de um sistema de IA não sabem por que razão a IA “decidiu” desta maneira e não de outra num caso específico – mesmo que o “segredo comercial” fosse abolido, a “tomada de decisão” da IA permaneceria opaca). O facto de os sistemas de IA cometerem erros (ou seja, erros na perspetiva do utilizador e das pessoas afectadas) deve-se fundamentalmente ao facto de a realidade não poder ser claramente classificada e de os sistemas de IA não poderem compreender o contexto (social e situacional) (razão pela qual os programas de linguagem têm problemas com o sarcasmo e a ironia). As análises estatísticas da frequência das palavras ou das combinações de palavras não produzem qualquer significado. As análises estatísticas dos dados não conduzem a uma compreensão da génese desses mesmos dados (ou dos fenómenos sociais que se reflectem nos dados). O que é fatal é que é impossível saber em quê e quando os sistemas de IA (irão) cometer erros e como é que esses erros surgem exactamente. Os erros que as IA, como os programas de reconhecimento de voz e imagem, cometem mostram que não compreendem o que “aprenderam” (cf. Lenzen 2023, 48ss., 133ss.). Se os sistemas de IA produzem resultados disparatados, é muito difícil “repará-los” através de um novo treino (ao contrário dos programas de computador “normais”, que podem ser reparados encontrando os erros no código do programa).

A inteligência artificial e o “pensamento computacional” em geral têm uma longa história e a IA já passou por vários entusiasmos (ver Weizenbaum 1982, Dreyfus 1985, Irrgang; Klawitter 1990, Larson 2021). O facto de esse entusiasmo regressar a um “nível superior”, apesar de todas as críticas, tem obviamente a ver com a sua “utilidade” capitalista e com as promessas optimistas e os receios apocalípticos que lhe estão sempre associados, que acompanham frequentemente os desenvolvimentos tecnológicos e são repetidos vezes sem conta. Podem ter sido repetidamente desiludidos ou desmentidos, mas não podem ser considerados mortos. O facto de a investigação em IA e o interesse em financiá-la terem tido um “inverno” em várias ocasiões deve-se a uma subestimação da complexidade do desenvolvimento da inteligência artificial e ao facto de a tecnologia informática ter sido desenvolvida de forma insuficiente durante muito tempo (e à quantidade insuficiente de dados digitalizados para poder treinar “redes neuronais artificiais”).

Independentemente das aplicações repressivas e da utilização capitalista dos sistemas de IA, são formuladas objecções pertinentes contra o conceito de inteligência habitualmente utilizado na “cena da IA”.

No mundo mediático gostava-se de noticiar de modo “sensacionalista” quando uma IA conseguia jogar xadrez ou Go melhor do que qualquer humano, o que alguns interpretavam como significando que os humanos se tornariam em breve um “modelo descontinuado”. A inteligência artificial é, de facto, muito superior à inteligência humana quando se trata de armazenar grandes quantidades de dados e de os analisar estatisticamente (com determinadas ponderações e pressupostos de modelo). No entanto, a conceptualização e o julgamento não são o mesmo que memorizar uma lista telefónica ou todos os dados de um seguro. Não há dúvida de que os sistemas de IA podem reconhecer padrões a partir de enormes quantidades de dados que de outro modo teriam sido ignorados, uma vez um ser humano nunca teria sido capaz de lidar com tal quantidade de dados durante a sua vida, pois que os volumes de dados são simplesmente demasiado grandes, razão pela qual os sistemas de IA deveriam ser mais correctamente referidos como programas de reconhecimento de padrões. Note-se que as correlações, ou seja, os padrões detectados, estão longe de provar as causalidades, o que se aplica à estatística em geral, algo que parecem não considerar aqueles que acreditam que mais e mais dados aumentarão o conhecimento (de modo que consequentemente se poderia renunciar à teoria)! De facto, estes programas podem ser sensatamente utilizados como ferramenta científica (e não como substituto do pensamento teórico) (por exemplo, na astrofísica, na medicina, na biologia molecular, na física do estado sólido etc., cf. Bischoff 2022, 109ss.) e não se prestam apenas à repressão ou à selecção de pessoas.

O facto de um programa de computador vencer um campeão mundial de xadrez tem a ver essencialmente com o facto de esse programa ter memorizado milhares de milhões de combinações de jogadas (e poder estimar as jogadas seguintes mais vantajosas utilizando uma heurística programada, ou seja, sem ter de as memorizar todas). O que normalmente não é mencionado é que estes programas são hiperespecialistas. Um programa de xadrez (no sentido de uma “rede neuronal artificial”) não pode também aprender a jogar Go. Um ser humano pode aprender ambas as coisas sem simultaneamente desaprender algo previamente aprendido (cf. Larson 2021, 28ss.). Esta é também a razão pela qual algumas pessoas, quando falam de IA, não se referem a tais hiperespecialistas (IA fraca), mas reservam o termo “inteligência artificial” para uma inteligência artificial geral, ou seja, uma inteligência que possa potencialmente fazer “tudo” e que, em última análise, seja capaz de desenvolver a consciência (seja lá isso o que for exatamente) (e que também é chamada IA forte), mas a qual é (e presumivelmente permanece) pura ficção, não existindo fora do mundo da ficção científica e do mundo delirante dos transumanistas (Schnetker 2019) ou da “retórica milenarista da redenção” dos ideólogos de Silicon Valley (Nida-Rümelin; Wiedenfeld 2023, 252). Não se deve esquecer que “inteligência artificial” é também um termo de marketing; é utilizado para descrever várias coisas que muitas vezes não têm nada a ver com IA, mas mais com banais programas estatísticos ou bases de dados. É por isso que não se encontra uma reflexão teórica muito aprofundada quando este termo é utilizado habitualmente na imprensa (há sempre excepções). Isto aplica-se ainda mais à propaganda dos gigantes da tecnologia (por exemplo, o chatbot LaMDA, desenvolvido pela Google, teria desenvolvido capacidade de sentir e consciência).

Uma objecção central ao “pensamento de computador” ou à inteligência artificial é a equiparação da inteligência ao cálculo ou a instruções baseadas em regras. O cientista informático Erik J. Larson sublinha que os programas de computador (independentemente do nome que lhes seja dado) só podem proceder dedutivamente (IA simbólica) ou indutivamente (IA sub-simbólica) (treinar uma IA com dados não é outra coisa senão indução). No entanto, segundo Charles Sanders Peirce (1839-1914), a quem Larson se refere, o que é típico do pensamento humano é a abdução, que combina elementos indutivos e dedutivos sem ser redutível a eles. O pensamento humano não pode ser limitado nem à dedução (lógica, ou seja, a derivação de um concreto a partir de um geral) nem à indução (a recolha de factos ou dados e a generalização que daí pode resultar). A abdução é antes algo que pode ser descrito como formação de hipóteses. A formação de hipóteses implica ignorar inicialmente certos factos ou interpretações para permitir que apareçam sob uma nova luz num contexto diferente, no quadro de um novo “paradigma”. Larson ilustra esta situação com Copérnico: “When Copernicus posited that the earth revolved around the sun and not vice versa, he ignored mountains of evidence and data accumulated over the centuries by astronomers working with the older, Ptolemaic model. He redrew everything with the sun at the center, and worked out a usuable heliocentric model. Importantly, the initial Copernican model was actually less predictive despite its being correct. It was initially only a framework that, if completed, could offer elegant explanations to repalce the increasingly convoluted ones, such as planetary retrograde motion, plaguing the Ptolemaic model. Only by first ignoring all the data or reconceptualizing it could Copernicus reject the geocentric model and infer a radical new structure to the solar system (And note that this raises the question: How would ›big data‹ have helped? The data was all fit to the wrong model.)”. (Larson 2021, 104).

A figura de pensamento “diferença entre essência e aparência” permanece estranha ao raciocínio lógico e à estatística. Só com a indução e a dedução, sem que sejam mediadas por algo terceiro, não se consegue explicar nem a “novidade” nem a “criatividade”. As inteligências artificiais não passam, portanto, de “papagaios estocásticos” (Emily M. Bender) (1) Se treinássemos uma IA apenas com círculos, ela nunca começaria subitamente a desenhar quadrados. No fundo, as inteligências artificiais só podem interpolar, ou seja, operar com valores conhecidos, isto é, com “o que já foi”, e não extrapolar (Otte 2023, 60ss.). Só esta última produziria algo novo, uma vez que o novo ou criativo não pode ser formalizado. Em princípio, os computadores e, portanto, as inteligências artificiais, ou seja, os “dispositivos de IA” (Ralf Otte), só podem resolver problemas que possam ser algoritmizados (um algoritmo é um cálculo ou uma regra de acção que pode ser formalizada e traduzida em números binários, que chega a um resultado após um número finito de passos), ou seja, que possam ser traduzidos numa linguagem formal. Por conseguinte, as IA só funcionam basicamente num mundo matemático (e mesmo este não pode ser completamente formalizado e há também problemas matemáticos que não têm solução, para os quais não é possível encontrar um algoritmo) e os aspectos da realidade que não podem ser algoritmizados permanecem estranhos à IA. É aqui que um dispositivo de IA tem os seus limites fundamentais, por mais inteligente que possa parecer. É por isso que a condução autónoma, por exemplo, é provavelmente uma ilusão, como afirma o especialista em IA Ralf Otte. A única forma de realizar a condução autónoma seria matematizar o ambiente, ou seja, “transformar o ambiente natural […] num ambiente determinístico”. A condução autónoma tem lugar num ambiente natural e não é possível transferir a realidade enquanto tal para algoritmos ou “enriquecer artificialmente o mundo inteiro com endereços [IP] ou câmaras, mesmo com a utilização em massa da tecnologia 5G, apenas para o tornar mais previsível para os carros-robô” (ibid., 342).

Segundo a filósofa Manuela Lenzen, outra objecção ao conceito de inteligência no discurso dominante sobre a IA é a limitação da inteligência à inteligência humana (cf. Lenzen 2023). Em vez de reconhecerem a inteligência artificial como uma qualidade em si mesma, as pessoas comparam-na demasiado depressa com a inteligência humana. Isto leva a avaliações irrealistas e a uma apreciação errada da inteligência humana. As pessoas tendem a ficar presas a disparates e a ignorar o que as IA podem e não podem efectivamente fazer. Lenzen defende que se pode falar de inteligência artificial sem desvalorizar os seres humanos e sem cair na mitologia (a IA em breve ultrapassará os seres humanos em tudo e dominará o mundo etc.). Pelo contrário, a inteligência deve ser entendida como um fenómeno mais geral que também ocorre na natureza e que não é, de modo nenhum, um monopólio do homo sapiens (sendo que o homo sapiens tem uma capacidade de abstracção que ultrapassa de longe a dos “animais não humanos” e é, portanto, de facto, um “caso único” na natureza). A inteligência é a propriedade de um organismo de fazer parte de um ambiente e de ser capaz de agir nesse ambiente de uma forma “bem pensada”, ou seja, em última análise, de sobreviver; assim, como explica Lenzen, a inteligência não é de modo nenhum apenas algo “mental”, puramente cognitivo, mas está ligada a um corpo que age num ambiente. Isto pode ser descrito como cognição/inteligência incorporada. A abordagem da robótica consiste em “ensinar” uma máquina física a actuar num determinado ambiente através de tentativa e erro (ou seja, não tanto através da introdução de grandes quantidades de dados). Tal como uma criança pequena aprende a agarrar ou a andar (aprende fazendo), um robô é treinado para ser capaz de fazer o mesmo. É claro que estamos infinitamente longe de poder criar inteligência artificial no sentido de inteligência artificial geral.

Por conseguinte, pode dizer-se – e isto tem sido repetidamente afirmado (cf., por exemplo, Weizenbaum 1982, 268ss. e Larson 2021) – que o discurso da IA reduz a ideia de inteligência humana a uma imagem demasiado simples. Muitos teóricos da IA movem-se aqui numa tautologia: a inteligência é definida como algo calculável (pensamento/acção baseado em regras), ou seja, algo que pode ser traduzido num algoritmo, e os computadores podem fazer exactamente isso. E então apercebemo-nos com espanto que os computadores têm inteligência (ou pelo menos parecem inteligentes, de modo que estariam em pé de igualdade com os humanos se estes já não conseguissem distinguir se era um computador ou um humano que estava a falar ou a escrever para eles; isto é conhecido como o teste de Turing), e logo terão mais poder computacional do que o cérebro humano (o que pressupõe que o cérebro é essencialmente um computador). O facto de esta redução parecer plausível e credível para muitos deve-se provavelmente à real redução da inteligência humana aos imperativos do processo de valorização capitalista (ver Seppmann 2017). O pânico de que a IA nos substitua e escravize é precisamente o eco da imposição do capitalismo em geral de uma pessoa ter sempre de se provar e racionalizar, e da ameaça de fracasso, o que no entanto raramente é expresso. A humanização das máquinas faz sentido precisamente quando o ser humano tende a ser reduzido a uma máquina ou sabe reduzir-se “autodeterminadamente” a uma máquina e pode, consequentemente, sentir-se pouco mais do que um aparelho executor de algoritmos (sem dúvida com as correspondentes consequências psicológicas, dissonâncias cognitivas e repressões). Emil Post, um teórico da computação (menos conhecido) ao lado de Alan Turing, utilizou um operário de linha de montagem como modelo para compreender teoricamente um computador e o que ele pode ou deve ser capaz de fazer (cf. Heintz 1993, 166ss.). O computador faz essencialmente o que o ser humano faz (ou deveria fazer!) como operário de linha de montagem, ou seja, executa acções idênticas com base em regras. Por conseguinte, não é de todo surpreendente que uma máquina possa, em princípio, realizar acções muito melhores e mais eficazes do que um ser humano reduzido a um comportamento semelhante ao de uma máquina. O facto de a inteligência artificial poder ultrapassar a inteligência humana e vir quase inevitavelmente a escravizar a humanidade sugere que aqueles que propagam e acreditam seriamente nisso têm um horizonte bastante limitado. Veja-se, por exemplo, o “professor de filosofia” Nick Bostrom, que passa centenas de páginas do seu livro Superintelligence a sonhar com todo o tipo de cenários de terror e a preocupar-se com a forma de os evitar – sem, evidentemente, questionar o capitalismo em momento algum. Assim, quando se fala do ser humano como um “modelo descontinuado”, isso significa que o ser humano, reduzido a capital variável, é, de facto, cada vez mais um modelo descontinuado e com ele o próprio capitalismo (cf. Konicz 2024a). No entanto, nem os optimistas nem os apocalípticos querem saber nada sobre uma crise da sociedade capitalista, sobre um limite interno da valorização do capital (cf. e.g. Ortlieb 2009 e Kurz 2012).

Share the Post:

Artigos relacionados