por Rob Bensinger
Não é um segredo. No entanto, por alguma razão, é raramente mencionado nas conversas e poucas pessoas perguntam o que podemos fazer a respeito. Trata-se de um padrão, invisível, escondido por trás de todos os nossos triunfos e fracassos, por trás de nossos olhos. Qual é esse padrão?
Imagine que você coloque o braço em uma urna contendo setenta bolas brancas e trinta bolas vermelhas, e retire dez bolas de forma aleatória. Suponha que, por acaso, três das dez bolas são vermelhas e você tenta adivinhar corretamente quantas esferas vermelhas estavam na urna. Ou talvez você retire quatro bolas vermelhas, ou outro número qualquer. Nesse caso, você erraria provavelmente a quantidade total de bolas vermelhas.
Este erro aleatório é o preço a ser pago pelo conhecimento incompleto e, para um erro, não é tão ruim assim. Em média, suas estimativas não serão incorretas, e quanto mais você aprender, o erro tenderá a ser menor, menor tenderá a ser o erro.
Por outro lado, suponhamos que as bolas brancas sejam mais pesadas e afundem para o fundo da urna. Nesse caso, sua amostra pode não ser representativa o suficiente e tende a seguir em uma direção específica.
Esse tipo de erro é conhecido como “viés estatístico”. Quando o método utilizado para aprender sobre o mundo é tendencioso, obter mais informações pode não ser útil. Na verdade, coletar mais dados pode piorar consistentemente uma previsão tendenciosa.
Se você valoriza o conhecimento e a pesquisa, essa perspectiva pode ser assustadora. Se queremos ter certeza de que aprender mais nos ajudará, em vez de nos deixar em uma situação pior do que antes, precisamos identificar e corrigir os vieses em nossos dados.
Na psicologia, a ideia de viés cognitivo funciona semelhantemente. O viés cognitivo é um erro sistemático na forma como pensamos, em contraste com um erro aleatório ou um erro causado apenas por nossa ignorância. Enquanto um viés estatístico distorce uma amostra, tornando-a menos representativa de uma população maior, os vieses cognitivos distorcem nossas crenças e fazem com que elas representem com menos precisão os fatos, além de afetar nossa tomada de decisão, tornando-a menos confiável para alcançar nossos objetivos.
Pode ser que você tenha um viés de otimismo e descubra que as bolas vermelhas podem ser usadas para tratar uma doença tropical rara que afeta seu irmão. Nesse cenário, você pode superestimar o número de bolas vermelhas contidas na urna porque deseja que a maioria delas seja vermelha. Nesse caso, não é a amostra que está enviesada, mas sim você. No entanto, ao falar de pessoas enviesadas, é preciso ter cuidado.
Geralmente, quando rotulamos indivíduos ou grupos como “tendenciosos” ou “enviesados”, fazemos isso para condená-los por serem injustos ou parciais. No entanto, um viés cognitivo é algo completamente diferente. Vieses cognitivos são uma parte fundamental da maneira como os seres humanos pensam, não um tipo de defeito resultante de uma má educação ou de uma personalidade ruim. [1]
Um viés cognitivo é uma maneira sistemática pela qual seus padrões de pensamento inatos podem falhar em alcançar a verdade (ou algum outro objetivo alcançável, como a felicidade). Os vieses cognitivos, assim como os vieses estatísticos, podem distorcer nossa visão da realidade, não podendo ser facilmente corrigidos apenas recolhendo mais dados, e seus efeitos podem se acumular ao longo do tempo. No entanto, quando o instrumento de medição descalibrado que você está tentando corrigir é você mesmo, eliminar o viés se torna um desafio único.
Ainda assim, este é um ponto de partida evidente. Afinal, se você não pode confiar em seu próprio cérebro, como pode confiar em qualquer outra coisa?
Seria útil atribuir um nome a este projeto de superação de vieses cognitivos e à superação de todos os tipos de erros que nossa mente possa cometer e que possam prejudicá-la.
Podemos dar qualquer nome que desejarmos a este projeto. No entanto, por enquanto, acredito que “racionalidade” seja um nome tão adequado quanto qualquer outro.
Sentimento racional
Nos filmes de Hollywood, ser “racional” é geralmente retratado como ser uma pessoa estóica, severa e hiper intelectual. Pense no personagem Spock de Jornada nas Estrelas, que “racionalmente” suprime suas emoções, “racionalmente” se recusa a confiar em intuições ou impulsos e é facilmente confundido e enganado ao enfrentar um oponente errático ou “irracional”.[2]
Existe uma compreensão completamente diferente de “racionalidade” estudada por matemáticos, psicólogos e cientistas sociais. Basicamente, trata-se da ideia de fazer o melhor possível com o que se tem. Uma pessoa racional, mesmo que esteja confusa e perdida, forma as melhores crenças possíveis com base nas evidências que possui. Uma pessoa racional, mesmo em uma situação terrível, faz as melhores escolhas possíveis para melhorar suas chances de sucesso.
A racionalidade no mundo real não consiste em ignorar suas emoções e intuições. Para um ser humano, a racionalidade muitas vezes significa tornar-se mais autoconsciente sobre seus sentimentos, de modo que possa considerá-los em suas decisões.
A racionalidade pode significar saber quando não pensar demais. Em experimentos nos quais os participantes escolheram um cartaz para colocar em sua parede ou prever o resultado de um jogo de basquete, descobriu-se que aqueles que analisaram cuidadosamente as suas razões apresentavam um desempenho pior [3][4]. Existem alguns problemas sobre os quais a deliberação consciente nos serve melhor, enquanto outros são melhor resolvidos por julgamentos momentâneos. Os psicólogos que estudam teorias de processamento duplo traçam uma distinção entre os processos cerebrais do “Sistema 1” (cognição rápida, implícita, associativa, automática) e os do “Sistema” 2 (cognição lenta, explícita, intelectual, controlada) [5]. O estereótipo é que os racionalistas confiam inteiramente no Sistema 2, desconsiderando seus sentimentos e impulsos. Olhando além do estereótipo, alguém que estivesse sendo realmente racional — realmente alcançando seus objetivos, mitigando realmente os danos de seus vieses cognitivos — dependeria fortemente dos hábitos e intuições do Sistema 1, nos casos em que eles fossem confiáveis.
Infelizmente, confiar apenas no Sistema 1 parece um mau guia para decidir “quando devo confiar no Sistema 1?” Nossas intuições sem treino não nos alertam quando devemos parar de confiar nelas. O sentimento de estar enviesado ou não é o mesmo [6].
Em compensação, como observa o economista comportamental Dan Ariely, somos previsivelmente irracionais. Cometemos erros sempre da mesma forma, de maneira repetida e sistemática.
Embora não seja possível usar nossa intuição para descobrir quando estamos caindo em um viés cognitivo, talvez possamos recorrer às ciências da mente.
As diversas faces do viés
Para solucionar problemas, nossos cérebros evoluíram para utilizar heurísticas cognitivas — atalhos rudimentares que frequentemente resultam na resposta correta, mas nem sempre. Vieses cognitivos ocorrem quando as abordagens utilizadas por essas heurísticas produzem um erro relativamente consistente e bem definido.
Por exemplo, a heurística da representatividade é a nossa tendência a avaliar fenômenos com base em quão representativos eles são de várias categorias. Isso pode levar a vieses, como a falácia da conjunção. Tversky e Kahneman descobriram que os participantes de um experimento consideravam menos provável que um jogador de tênis habilidoso “perdesse o primeiro set” do que “perdesse o primeiro set, mas ganhasse o jogo” [7]. Ganhar de virada parece mais típico de um jogador habilidoso, por isso superestimamos a probabilidade dessa narrativa complicada, mas que parece razoável, em comparação com a probabilidade de um cenário estritamente mais simples.
A heurística da representatividade também pode contribuir para negligenciarmos a frequência basal (ou taxa-base), onde tomamos decisões baseadas em quão intuitivamente “normal” uma combinação de atributos é, ignorando o quão comum esses atributos são na população em geral [8]. É mais provável que Steve seja um bibliotecário tímido ou um vendedor tímido? A maioria das pessoas responde a esse tipo de pergunta pensando se “tímido” corresponde aos estereótipos dessas profissões. Elas não consideram que os vendedores são setenta e cinco vezes mais comuns que os bibliotecários nos Estados Unidos [9].
Outros exemplos de viés incluem a negligência da duração (avaliar experiências sem considerar o tempo durado), a falácia do custo afundado (sentir-se comprometido com coisas em que você investiu recursos no passado, quando deveria limitar suas perdas e seguir em frente) e o viés de confirmação (dar mais peso às evidências que confirmam o que já acreditamos) [10] [11].
No entanto, saber sobre um viés é raramente suficiente para proteger-se dele. Em um estudo sobre cegueira para vieses, participantes previram que, se soubessem que uma pintura era obra de um artista famoso, teriam mais dificuldade em avaliar objetivamente a qualidade dela. E, de fato, aqueles informados sobre o autor da pintura e solicitados a avaliar a qualidade, exibiram o viés que eles mesmos haviam previsto, em comparação com um grupo de controle. Posteriormente, no entanto, esses mesmos indivíduos afirmaram que suas avaliações das pinturas haviam sido objetivas e não afetadas pelo viés — em todos os grupos! [12] [13]
Temos uma aversão especial em pensar que nossas opiniões são imprecisas em comparação com as dos outros. Mesmo quando identificamos corretamente os vieses dos outros, temos um ponto cego especial para nossas próprias falhas de viés [14]. Não conseguimos detectar quaisquer “pensamentos enviesados” quando refletimos internamente e, assim, concluímos que somos mais objetivos do que todas as outras pessoas [15].
De fato, estudar vieses pode torná-lo mais vulnerável ao excesso de confiança e ao viés de confirmação, porque você começa a ver a influência dos vieses cognitivos em todos ao seu redor — em todos, exceto em si mesmo. E o ponto cego, ao contrário de muitos vieses, é especialmente grave entre pessoas que são especialmente inteligentes, atenciosas e de mente aberta [16] [17].
Isso é motivo para se preocupar.
No entanto, ainda é possível melhorar. É sabido que podemos reduzir a negligência da frequência basal ao pensar em probabilidades como frequências de objetos ou eventos. Podemos minimizar a negligência da duração, prestando mais atenção à duração e representando-a graficamente [18]. As pessoas variam em quão fortemente exibem diferentes vieses, então deve haver uma série de maneiras ainda desconhecidas de influenciar o quanto somos enviesados.
No entanto, se quisermos realmente melhorar, não basta apenas estudar as listas de vieses cognitivos. A abordagem para superar esses vieses em “Racionalidade: De IA A a Z” é comunicar uma compreensão sistemática de por que o raciocínio correto funciona e como o cérebro falha nesse processo. Enquanto este livro alcança esse objetivo, sua abordagem pode ser comparada à descrita por Serfas, que observa que “anos de experiência de trabalho em finanças” não afetam a suscetibilidade das pessoas ao viés do custo afundado, enquanto “o número de cursos de contabilidade frequentados” ajuda.
Consequentemente, pode ser necessário distinguir entre experiência e perícia, sendo que perícia significa “o desenvolvimento de um princípio esquemático que envolve a compreensão conceitual do problema”, o que, por sua vez, permite que o tomador de decisões reconheça determinados vieses. No entanto, usar a perícia como contramedida exige mais do que simplesmente estar familiarizado com o conteúdo da situação ou ser um especialista em um domínio específico. É preciso que a pessoa entenda completamente a lógica subjacente do respectivo viés, consiga detectá-lo no ambiente específico e também tenha à mão as ferramentas adequadas para combater o viés [19].
Este livro tem o objetivo de estabelecer as bases para criar uma “expertise” em racionalidade. Isso significa obter uma compreensão profunda da estrutura de um problema muito geral: o viés humano, a autoilusão e as muitas maneiras pelas quais o pensamento sofisticado pode se autossabotar.
Uma palavra sobre este texto
“Racionalidade: De A a Z” teve origem como uma série de ensaios escritos por Eliezer Yudkowsky, publicados entre 2006 e 2009 nos blogs de economia Overcoming Bias e Less Wrong, este último derivado do primeiro. Durante o último ano, trabalhei com Yudkowsky no Machine Intelligence Research Institute (MIRI), uma organização sem fins lucrativos fundada por ele em 2000 visando estudar os requisitos teóricos para uma inteligência artificial mais inteligente do que a humana.
Ler as postagens do seu blog despertou meu interesse pelo seu trabalho. Fiquei impressionado com a sua habilidade de comunicar concisamente insights que me levaram anos de estudo em filosofia analítica para assimilar. Na tentativa de conciliar o espírito anárquico e cético da ciência com uma abordagem rigorosa e sistemática para investigação, Yudkowsky não apenas refuta, mas também tenta entender os muitos erros e becos sem saída que a má filosofia (e a falta de filosofia) podem produzir. Ao ajudar a organizar esses ensaios em um livro, minha esperança é torná-los mais acessíveis e apreciá-los na totalidade coerente.
O manual de racionalidade resultante é frequentemente pessoal e irreverente, utilizando como ponto de partida as experiências de Yudkowsky com sua mãe (uma psiquiatra) e seu pai (um físico), ambos judeus ortodoxos, assim como conversas em salas de chat e listas de discussão. Os leitores familiarizados com Yudkowsky através de “Harry Potter e os Métodos da Racionalidade”, sua abordagem cientificamente orientada da série de J.K. Rowling, vão reconhecer a mesma irreverência iconoclasta e muitos dos mesmos conceitos fundamentais.
Do ponto de vista estilístico, os ensaios presentes neste livro abrangem toda a gama de um “livro didático divertido” até um “compêndio de vinhetas inteligentes” e um “manifesto rebelde”. O conteúdo é igualmente variado e abrange diversos temas. “Racionalidade: De A a Z” compila centenas de posts de Yudkowsky, organizados em vinte e seis “sequências” que tratam de temas semelhantes e funcionam como capítulos do livro. Essas sequências são agrupadas em seis livros que abrangem os seguintes tópicos:
Livro 1 – Mapa e Território: aborda a natureza das crenças e o que faz algumas delas funcionarem melhor do que outras. As quatro sequências presentes explicam conceitos bayesianos de racionalidade, crença e evidência. Um tema comum nas sequências é que o que chamamos de “explicações” ou “teorias” nem sempre funcionam como mapas precisos do mundo, o que pode levar à confusão e ao misturar nossas ideias com outras ferramentas em nossa caixa mental.
Livro 2 – Como realmente mudar sua mente: aborda a importância da verdade e questiona por que muitas vezes tiramos conclusões precipitadas e nos apegamos a nossos erros. O livro explora o motivo pelo qual é difícil adquirir crenças precisas e como podemos melhorar nesse aspecto. As sete sequências presentes discutem o raciocínio motivado e o viés de confirmação, com ênfase em como nos autoenganamos sem perceber e na armadilha de usar argumentos como soldados.
Livro 3 – A Máquina no Fantasma: questiona por que não evoluímos para ser mais racionais, mesmo com as evidências disponíveis. Apesar das limitações de recursos, parece que poderíamos estar adquirindo mais conhecimento. Para entender como e por que nossas mentes executam suas funções biológicas, precisamos examinar a evolução e o funcionamento de nossos cérebros com mais precisão. As três sequências presentes esclarecem como até filósofos e cientistas podem cometer erros quando confiam em noções evolutivas ou psicológicas intuitivas em vez de técnicas. Ao situar nossas mentes num espaço maior de sistemas guiados por objetivos, podemos identificar algumas peculiaridades do raciocínio humano e entender como tais sistemas podem “perder seu propósito”.
Livro 4 – Mera Realidade: aborda a natureza do mundo em que vivemos e nosso lugar nele. Com base nos exemplos de sequências anteriores sobre como modelos evolutivos e cognitivos funcionam, as seis sequências presentes exploram a natureza da mente e das leis da física. Além de aplicar e generalizar as lições aprendidas anteriormente sobre mistérios científicos e parcimônia, esses ensaios levantam novas questões sobre o papel que a ciência deve desempenhar na promoção da racionalidade individual.
Livro 5 – Mera Bondade: Este livro explora o que confere valor — moral, estética ou prudencialmente. Essas três sequências nos convidam a refletir sobre como justificar, revisar e naturalizar nossos valores e desejos. O objetivo é encontrar uma maneira de compreender nossos objetivos sem comprometer nossos esforços para alcançá-los efetivamente. Aqui, o maior desafio reside em saber quando confiar em nossos impulsos confusos e complexos sobre o que é certo e errado em cada situação, e quando os substituir por princípios simples e sem exceção.
Livro 6 – Tornando-se mais forte: este livro aborda como indivíduos e comunidades podem colocar tudo isso em prática. Essas três sequências iniciam com um relato autobiográfico dos maiores equívocos filosóficos do próprio Yudkowsky, acompanhados de conselhos sobre como ele acredita que os outros possam fazer melhor. O livro conclui com recomendações para o desenvolvimento de currículos baseados em evidências, voltados à racionalidade aplicada, bem como para a criação de grupos e instituições que apoiem estudantes interessados, educadores, pesquisadores e amigos.
As sequências são complementadas por “interlúdios”, ensaios extraídos do website pessoal de Yudkowsky. Esses ensaios se conectam às sequências de várias maneiras. Por exemplo, “As Doze Virtudes da Racionalidade” resume poeticamente muitas das lições abordadas em “Racionalidade: De A a Z” e é frequentemente citado em outros ensaios.
Ao final de cada ensaio, você encontrará um asterisco. Clicando nele, você será direcionado para sua versão original no Less Wrong (onde é possível deixar comentários) ou no site de Yudkowsky. Além disso, você pode encontrar um glossário online com terminologia relacionada à “Racionalidade: de A a Z” em http://wiki.lesswrong.com/wiki/RAZ_Glossary.
Mapa e território
Este primeiro livro inicia com uma sequência sobre vieses cognitivos intitulada “Previsivelmente Errado”. No entanto, o escopo do livro é mais amplo. Maus hábitos e ideias equivocadas são igualmente importantes, mesmo quando originados do conteúdo de nossas mentes e não da estrutura em si. Assim, tanto erros evoluídos como aqueles inventados serão abordados nessas sequências. O livro começa explorando, em “Crenças falsas”, como as expectativas de uma pessoa podem se distanciar das crenças que ela professa.
Um relato abrangente sobre irracionalidade seria incompleto sem uma teoria sobre como a racionalidade funciona. Afinal, não bastaria uma teoria composta apenas de obviedades vagas, sem mecanismos explicativos precisos. Por isso, a sequência intitulada “Percebendo Confusão” explora por que é vantajoso fundamentar o comportamento em expectativas “racionais” e qual é a sensação de agir dessa maneira.
A seguir, a sequência “Respostas Misteriosas” questiona se a ciência resolve esses problemas para nós. Os cientistas baseiam seus modelos em experimentos reproduzíveis, e não em especulações ou boatos. A ciência tem um histórico excelente quando comparada a anedotas, religião e praticamente tudo o mais. Entretanto, mesmo com essas características, ainda precisamos nos preocupar com crenças “falsas”, viés de confirmação, viés de retrospectiva e similares, especialmente ao lidar com uma comunidade de pessoas que buscam explicar fenômenos em vez de apenas contar histórias atraentes.
Esta sequência é seguida por “A simples verdade”, uma alegoria independente sobre a natureza do conhecimento e da crença.
Contudo, é o viés cognitivo que oferece a visão mais clara e direta sobre a natureza de nossa psicologia, manifestando-se por meio de nossas heurísticas e das limitações de nossa lógica. Por isso, é com o viés que começaremos nossa exploração.
Há uma passagem no Zhuangzi, um texto filosófico proto-taoísta, que diz: “A armadilha para peixes existe devido ao peixe; uma vez que você tenha obtido o peixe, você pode esquecer a armadilha.” [20]
Convido-o a abordar este livro com essa mentalidade. Use-o da mesma forma que usamos uma armadilha para peixes, mantendo sempre em mente o objetivo que você tem para ele. Leve consigo aquilo que possa ser útil, enquanto for relevante; descarte o que não for necessário. Que o propósito do livro o sirva bem ao longo de sua jornada.
Para ver a seção de agradecimentos, notas e bibliografia, consulte o texto original.
Agradecimentos
Sou imensamente grato a Nate Soares, Elizabeth Tarleton, Paul Crowley, Brienne Strohl, Adam Freese, Helen Toner e dezenas de voluntários que revisaram partes deste livro.
Gostaria de expressar meus mais sinceros agradecimentos a Alex Vermeer, que supervisionou a produção deste livro do início ao fim, e a Tsvi Benson-Tilsen, que revisou minuciosamente cada página para garantir sua legibilidade e consistência.
Notas
1. A ideia do viés pessoal, viés da imprensa, e assim por diante, assemelha-se ao viés estatístico por ser um erro. Outras maneiras de generalizar a ideia de “viés” focam em sua associação com a não aleatoriedade. No contexto do aprendizado de máquina, por exemplo, um viés indutivo é simplesmente o conjunto de suposições que um agente utiliza para fazer previsões com base em um conjunto de dados. Nesse caso, o agente está “enviesado” no sentido de que é direcionado em uma direção específica. No entanto, uma vez que essa direção pode representar a verdade, não é necessariamente negativo para um agente ter um viés indutivo. Isso pode ser valioso e necessário. Essa característica distingue claramente o viés indutivo dos outros tipos de viés.
2. Uma triste coincidência ocorreu: Leonard Nimoy, o ator que interpretou Spock, faleceu poucos dias antes do lançamento deste livro. Embora tenhamos mencionado seu personagem como um exemplo clássico da falsa ‘racionalidade de Hollywood’, queremos deixar claro que não temos a intenção de desrespeitar, de forma alguma, a memória de Nimoy.
3. Timothy D. Wilson et al., “Introspecting About Reasons Can Reduce Post-choice Satisfaction,”Personality and Social Psychology Bulletin 19 (1993): 331–331.
4. Jamin Brett Halberstadt and Gary M. Levine, “Effects of Reasons Analysis on the Accuracy of Predicting Basketball Games,” Journal of Applied Social Psychology 29, no. 3 (1999): 517–530.
5. Keith E. Stanovich and Richard F. West, “Individual Differences in Reasoning: Implications for the Rationality Debate?,” Behavioral and Brain Sciences 23, no. 5 (2000): 645–665, http://journals. cambridge.org/abstract_S0140525X00003435.
6. Timothy D. Wilson, David B. Centerbar, and Nancy Brekke, “Mental Contamination and the Debiasing Problem,” in Heuristics and Biases: The Psychology of Intuitive Judgment, ed. Thomas Gilovich, Dale Griffin, and Daniel Kahneman (Cambridge University Press, 2002).
7. Amos Tversky and Daniel Kahneman, “Extensional Versus Intuitive Reasoning: The Conjunction Fallacy in Probability Judgment,” Psychological Review 90, no. 4 (1983): 293–315, doi:10.1037/0033-295X.90.4.293.
8. Richards J. Heuer, Psychology of Intelligence Analysis (Center for the Study of Intelligence, Central Intelligence Agency, 1999).
9. Wayne Weiten, Psychology: Themes and Variations, Briefer Version, Eighth Edition (Cengage Learn- ing, 2010).
10. Raymond S. Nickerson, “Confirmation Bias: A Ubiquitous Phenomenon in Many Guises,” Review of General Psychology 2, no. 2 (1998): 175.
11. A negligência da probabilidade é outro viés cognitivo. Nos meses e anos seguintes aos ataques de 11 de setembro, muitas pessoas optaram por fazer longas viagens de carro em vez de voar. Embora o sequestro não fosse provável, agora parecia uma possibilidade, e essa mera possibilidade afetou profundamente as decisões. Ao confiar em um raciocínio simplista (carros e aviões são “seguros” ou “inseguros”, sem meio-termo), as pessoas, na verdade, colocaram-se em um perigo muito maior. Em vez de avaliar a probabilidade de morrer em uma viagem de carro pelo país em comparação com a probabilidade de morrer em um voo pelo país — sendo as primeiras centenas de vezes mais provável — elas confiaram em seu sentimento geral de preocupação e ansiedade (a heurística do afeto). Podemos observar o mesmo padrão de comportamento em crianças que, ao ouvir os argumentos a favor e contra a segurança dos cintos de segurança, oscilam entre acreditar que cintos de segurança são completamente bons ou completamente ruins, em vez de tentar comparar o peso dos argumentos a favor e contra. [21]
Alguns outros exemplos de vieses são:
A regra do pico/final (avaliar eventos relembrados com base em seu momento mais intenso, e em como eles acabaram); [22]
Ancoragem (basear suas decisões em informações recentemente encontradas, mesmo quando irrelevantes);
Autoancoragem (usar a si próprio como um modelo de características prováveis dos outros sem considerar suficientemente os sentidos nos quais você é atípico); [23]
O viés do status quo (favorecer excessivamente o que é normal e esperado em detrimento do que é novo e diferente). [24]
12. Katherine Hansen et al., “People Claim Objectivity After Knowingly Using Biased Strategies,” Personality and Social Psychology Bulletin 40, no. 6 (2014): 691–699.
13. Da mesma forma, Pronin escreve sobre a cegueira por preconceito de gênero:
Em um estudo, os participantes foram apresentados a um candidato e uma candidata a uma posição de chefe de polícia e, em seguida, foram solicitados a avaliar se “ser malandro” ou “ter educação formal” era mais importante para o trabalho. O resultado revelou que os participantes favoreceram a característica que lhes foi informada que o candidato do sexo masculino possuía (por exemplo, se lhes disseram que ele era “malandro”, consideravam essa característica mais importante). Os participantes estavam completamente inconscientes desse viés de gênero; de fato, quanto mais objetivos eles acreditavam ser, maior era o viés que realmente demonstravam. [25]
Mesmo quando temos conhecimento sobre vieses, Pronin observa que ainda somos “realistas ingênuos” em relação às nossas próprias crenças. De maneira consistente, continuamos a considerar nossas crenças como representações fiéis e não distorcidas da realidade, mesmo quando isso pode não ser verdade. [26]
14. Em uma pesquisa realizada com 76 pessoas que aguardavam nos aeroportos, os indivíduos classificaram-se como sendo muito menos suscetíveis a vieses cognitivos, em média, do que uma pessoa comum no aeroporto. Especificamente, as pessoas tendem a considerar-se especialmente imparciais quando o viés é socialmente indesejável ou quando suas consequências são difíceis de serem percebidas. [27] Outros estudos também constataram que as pessoas que possuem ligações pessoais com um determinado problema acreditam que essas ligações melhoram sua compreensão e objetividade. No entanto, quando essas mesmas pessoas observam outras com as mesmas ligações, elas inferem que essas pessoas estão excessivamente envolvidas e tendenciosas.
15. Joyce Ehrlinger, Thomas Gilovich, and Lee Ross, “Peering Into the Bias Blind Spot: People’s Assessments of Bias in Themselves and Others,” Personality and Social Psychology Bulletin 31, no. 5 (2005): 680–692.
16. Richard F. West, Russell J. Meserve, and Keith E. Stanovich, “Cognitive Sophistication Does Not Attenuate the Bias Blind Spot,” Journal of Personality and Social Psychology 103, no. 3 (2012): 506.
17. Não devem ser confundidas com aquelas pessoas que acreditam ser especialmente inteligentes, atenciosas, entre outras qualidades, devido ao viés da superioridade ilusória.
18. Michael J. Liersch and Craig R. M. McKenzie, “Duration Neglect by Numbers and Its Elimination by Graphs,” Organizational Behavior and Human Decision Processes 108, no. 2 (2009): 303–314.
19. Sebastian Serfas, Cognitive Biases in the Capital Investment Context: Theoretical Considerations and Empirical Experiments on Violations of Normative Rationality (Springer, 2010).
20. Zhuangzi and Burton Watson, The Complete Works of Zhuangzi (Columbia University Press, 1968).
21. Cass R. Sunstein, “Probability Neglect: Emotions, Worst Cases, and Law,” Yale Law Journal (2002): 61–107.
22. Dan Ariely, Predictably Irrational: The Hidden Forces That Shape Our Decisions (HarperCollins, 2008).
23. Boaz Keysar and Dale J. Barr, “Self-Anchoring in Conversation: Why Language Users Do Not Do What They ‘Should,”’ in Heuristics and Biases: The Psychology of Intuitive Judgment: The Psychology of Intuitive Judgment, ed. Griffin Gilovich and Daniel Kahneman (New York: Cambridge University Press, 2002), 150–166, doi:10.2277/0521796792.
24. Scott Eidelman and Christian S. Crandall, “Bias in Favor of the Status Quo,” Social and Personality Psychology Compass 6, no. 3 (2012): 270–281.
25. Eric Luis Uhlmann and Geoffrey L. Cohen, “‘I think it, therefore it’s true’: Effects of Self-perceived Objectivity on Hiring Discrimination,” Organizational Behavior and Human Decision Processes 104, no. 2 (2007): 207–223.
26. Emily Pronin, “How We See Ourselves and How We See Others,” Science 320 (2008): 1177–1180, http://psych.princeton.edu/psychology/research/pronin/pubs/2008%20Self%20and%20Other.pdf.
27. Emily Pronin, Daniel Y. Lin, and Lee Ross, “The Bias Blind Spot: Perceptions of Bias in Self versus Others,” Personality and Social Psychology Bulletin 28, no. 3 (2002): 369–381.