Só acredito em você se você disser o que eu quero ouvir

Quando os dados contradizem nossas convicções, tendemos a ignorá-los ou manipulá-los.

cambiar de opinión

Suposto OVNI avistado em Westall (Austrália) em 1966.Universal history ArchiveUIG (Getty) 

Assim fazem criacionistas, ativistas antivacina e ‘conspiranoicos’ do 11 de setembro 

Já reparou como as pessoas sempre mudam de opinião quando confrontadas com dados que contradizem suas convicções mais profundas? Pois é, eu também nunca vi isso acontecer. E tem mais: a impressão que dá é que, ao ouvir provas esmagadoras contra aquilo que acredita, o indivíduo reafirma as suas opiniões. O motivo é que esses dados colocam em risco sua visão de mundo. 

Os criacionistas, por exemplo, rejeitam as provas da evolução oferecidas por fósseis e pelo DNA, porque temem que os poderes laicos estejam avançando sobre o terreno da fé religiosa. Os inimigos das vacinas desconfiam dos grandes laboratórios farmacêuticos e acham que o dinheiro corrompe a medicina. Isso os leva a defender que as vacinas causam autismo, embora o único estudo que relacionava essas duas coisas tenha sido desmentido há bastante tempo, e seu autor tenha sido acusado de fraude. Quem defende as teorias da conspiração em torno dos atentados de 11 de setembro de 2001 nos Estados Unidos se fixam em minúcias como o ponto de fusão do aço nos edifícios do World Trade Center, porque acreditam que o Governo mentia e realizou operações secretas a fim de criar uma nova ordem mundial. Os negacionistas da mudança climática estudam os anéis das árvores, os núcleos do gelo e as ppm (partes por milhão) dos gases de efeito estufa porque defendem com paixão a liberdade, em especial a dos mercados e empresas, de agirem sem precisar se ater às rigorosas normas governamentais.

Quem jurava que Barack Obama não nasceu nos Estados Unidos dissecava desesperadamente sua certidão de nascimento em busca de mentiras, porque estava convencido de que o primeiro presidente afro-americano dos EUA era um socialista empenhado em destruir seu país. Os defensores dessas teorias têm em comum a convicção de que seus adversários céticos colocam em risco sua visão de mundo. E rejeitam os dados contrários às suas posturas por considerarem que provêm do lado inimigo.

O fato de as convicções serem mais fortes que as provas se deve a dois fatores: a dissonância cognitiva e o chamado efeito contraproducente. No clássico When Prophecy Fails (“quando a profecia falha”), o psicólogo Leon Festinger e seus coautores escreviam, já em 1956, a respeito da reação dos membros de uma seita que acreditava em OVNIs quando a espaçonave que esperavam não chegou na hora prevista. Em vez de reconhecerem seu erro, “continuaram tentando convencer o mundo inteiro” e, “numa tentativa desesperada de eliminar sua dissonância, dedicaram-se a fazer uma previsão atrás da outra, na esperança de acertar alguma delas”. Festinger chamou de dissonância cognitiva a incômoda tensão que surge quando duas coisas contraditórias são pensadas ao mesmo tempo. 

Em seu livro Mistakes Were Made, But Not By Me (“foram cometidos erros, mas não fui eu”, 2007), dois psicólogos sociais, Carol Tavris e Elliot Aronson (aluno de Festinger), documentam milhares de experimentos que demonstram que as pessoas manipulam os fatos para adaptá-los às suas ideias preconcebidas a fim de reduzirem a dissonância. Sua metáfora da “pirâmide da escolha” situa dois indivíduos juntos no vértice da pirâmide e mostra como, ao adotarem e defenderem posições diferentes, começam a se distanciar rapidamente, até que acabam em extremos opostos da base da pirâmide.

Em outras experiências, os professores Brendan Nyhan, do Dartmouth College (EUA), e Jason Reifler, da Universidade de Exeter (Reino Unido), identificaram um fator relacionado a essa situação: o que chamaram de efeito contraproducente, “pelo qual, ao tentar corrigir as percepções equivocadas, estas se reforçam no grupo”. Por quê? “Porque colocam em perigo sua visão de mundo ou de si mesmos.” 

Por exemplo, os participantes do estudo foram apresentados a falsos artigos de imprensa que confirmavam ideias errôneas, porém muito difundidas, como a de que havia armas de destruição em massa no Iraque antes da invasão norte-americana de 2003. Quando confrontados posteriormente com um artigo que explicava que na verdade essas armas nunca haviam sido encontradas, os que se opunham à guerra aceitaram o novo artigo e rejeitaram o anterior.

Entretanto, os partidários do conflito bélico argumentaram que o novo artigo os deixava ainda mais convictos da existência das armas de destruição em massa, pois seria uma prova de que o ex-ditador Saddam Hussein havia escondido ou destruído seu arsenal. Na verdade, dizem Nyhan e Reifler, entre muitos destes últimos participantes “a ideia de que o Iraque tinha armas de destruição em massa antes da invasão encabeçada pelos Estados Unidos persistiu até bem depois de que o próprio Governo de George W. Bush chegasse à conclusão de que não era assim”.

Se os dados que deveriam corrigir uma opinião só servem para piorar as coisas, o que podemos fazer para convencer o público sobre seus equívocos? Pela minha experiência, aconselho manter as emoções à margem; discutir sem criticar (nada de ataques pessoais e nada de citar Hitler); ouvir com atenção e tentar expressar detalhadamente a outra postura; mostrar respeito; reconhecer que é compreensível que alguém possa pensar dessa forma; tentar demonstrar que, embora os fatos sejam diferentes do que seu interlocutor imaginava, isso não significa necessariamente uma alteração da sua visão de mundo.

Talvez essas estratégias nem sempre sirvam para levar as pessoas a mudarem de opinião, mas é possível que ajudem a que não haja tantas divisões desnecessárias.

Michael Shermer é fundador e diretor da revista ‘Skeptic’. Este artigo foi publicado em 2017 na ‘Scientific American’

Share the Post:

Artigos relacionados