Em Rational Choice in an Uncertain World (Uma escolha racional em um mundo incerto), Robyn Dawes descreve um experimento de Tversky:
No final da década de 1950 e início da de 1960, diversos experimentos psicológicos foram realizados onde os participantes eram solicitados a prever o resultado de eventos com um componente aleatório, mas com uma previsibilidade básica. Um exemplo típico: os participantes tinham que adivinhar se a próxima carta que o experimentador viraria seria vermelha ou azul, em um contexto onde 70% das cartas eram azuis, embora a sequência de cartas vermelhas e azuis fosse totalmente aleatória. Nessa situação, a estratégia que garante a maior taxa de sucesso é prever o evento mais frequente. Por exemplo, se 70% das cartas são azuis, prever “azul” em cada tentativa resultaria em uma taxa de acerto de 70%.
No entanto, os participantes tendiam a combinar probabilidades, ou seja, prever o evento provável com a frequência relativa com que ele ocorreu. Por exemplo, eles costumavam prever o cartão azul 70% das vezes e o cartão vermelho 30% das vezes. Essa estratégia resulta em uma taxa de sucesso de 58%, pois acertam 70% das vezes quando o cartão azul aparece (o que acontece com probabilidade de 0,70) e 30% das vezes quando o cartão vermelho aparece (com probabilidade de 0,30); (0,70 × 0,70) + (0,30 × 0,30) = 0,58.
De fato, os participantes previam o evento mais frequente com uma probabilidade ligeiramente maior do que aquela com a qual ele ocorria, mas não chegavam perto de prever sua ocorrência 100% das vezes, mesmo quando eram pagos pela precisão de suas previsões. Por exemplo, indivíduos que recebiam um níquel por cada previsão correta em mil tentativas, previram o evento mais comum 76% das vezes.
Não se engane pensando que essa experiência é apenas uma pequena falha nas estratégias de jogo. Ela ilustra de forma concisa a ideia mais importante de toda a racionalidade.
Os participantes continuam adivinhando a cor vermelha, como se pensassem que tivessem alguma maneira de prever a sequência aleatória. Sobre esse experimento, Dawes continua dizendo: “Apesar do feedback por meio de mil tentativas, os participantes não conseguem acreditar que a situação é algo que eles não podem prever”.
Mas o erro deve ir além disso. Mesmo que os participantes acreditem ter formulado uma hipótese, eles não precisam necessariamente apostar nessa previsão para testá-la. Eles podem pensar: “Se essa hipótese estiver correta, a próxima carta será vermelha” e, em seguida, apostar em azul. Poderiam escolher azul em todas as tentativas, acumulando o máximo de fichas possível, enquanto mentalmente registram suas suposições, buscando padrões que acreditam ter detectado. Se suas previsões estiverem corretas, então elas podem mudar para a sequência recém-descoberta.
Não culparia um participante por continuar formulando hipóteses — afinal, como poderiam saber que a sequência está além de sua capacidade de previsão? Mas culparia um participante por apostar nas suposições, quando isso não é necessário para coletar informações, especialmente quando centenas de suposições anteriores já foram refutadas.
Até mesmo um ser humano pode ser tão confiante?
Suspeitaria que algo mais simples estivesse acontecendo —que a estratégia totalmente azul simplesmente não ocorreu aos participantes.
As pessoas veem uma mistura de cartas principalmente azuis com algumas vermelhas e supõem que a estratégia de aposta ideal deva ser uma mistura de cartas principalmente azuis com algumas vermelhas.
É uma ideia contraintuitiva que, dada a informação incompleta, a estratégia de aposta ideal não se assemelhe a uma sequência típica de cartas.
É uma ideia contraintuitiva que a estratégia ideal é seguir a lei, mesmo em um ambiente com elementos aleatórios.
Parece que seu comportamento deveria ser imprevisível, assim como o ambiente — mas não! Uma chave aleatória não abre um cadeado aleatório só porque são “ambos aleatórios”.
Você não combate fogo com fogo; você combate o fogo com água. Mas esse pensamento envolve uma etapa extra, um novo conceito não diretamente ativado pela declaração do problema e, portanto, não é a primeira ideia que vem à mente.
No dilema das cartas azuis e vermelhas, nossa compreensão parcial nos diz — a cada rodada — que a melhor escolha é a carta azul. Este conselho de nossa compreensão parcial é o mesmo em cada rodada. Se desafiarmos nossa compreensão parcial 30% do tempo e escolhermos a carta vermelha, faremos pior — porque agora estamos sendo completamente estúpidos, apostando no que sabemos ser o resultado menos provável.
Se você escolher a carta vermelha a cada rodada, você se sairá tão mal quanto poderia; você seria 100% estúpido. E, se escolher a carta vermelha 30% das vezes, enfrentando 30% de cartas vermelhas, estará sendo 30% estúpido.
Quando sua compreensão é incompleta — o que significa que o mundo parece ter um elemento de aleatoriedade — randomizar suas ações, não resolve o problema. A randomização de suas ações leva você para mais longe do alvo, não para mais perto. Em um mundo já incerto, abandonar sua inteligência só piora as coisas.
É uma ideia contraintuitiva que a estratégia ideal possa ser pensar de forma lógica, mesmo sob condições de incerteza.
E assim, poucos são racionalistas, pois a maioria que percebe um mundo caótico tentará combater o caos com o caos. Você tem que dar um passo extra e pensar em algo que não vem à sua mente, para imaginar combater o fogo com algo que não é fogo em si.
Você já ouviu os não iluminados dizerem: “A racionalidade funciona bem para lidar com pessoas racionais, mas o mundo não é racional”. No entanto, diante de um oponente irracional, abandonar sua própria razão não o ajudará. Existem maneiras lógicas de pensar que ainda produzem a melhor resposta, mesmo quando confrontadas com um oponente que viola essas leis. A teoria da decisão não se desintegra em chamas e morre quando confrontada com um oponente que a desobedece.
Isso não é mais óbvio do que a ideia de apostar tudo azul, diante de uma sequência de cartas azuis e vermelhas. Mas cada aposta que você faz no vermelho é uma perda esperada, e o mesmo ocorre com cada afastamento do Caminho em seu próprio pensamento.
Quantos episódios de Jornada nas Estrelas são refutados assim? E, quantas teorias de IA?
16NT: Tradução livre do texto original em inglês. Many psychological experiments were conducted in the late 1950s and early 1960s in which subjects were asked to predict the outcome of an event that had a random component but yet had base-rate predictability—for example, subjects were asked to predict whether the next card the experimenter turned over would be red or blue in a context in which 70% of the cards were blue, but in which the sequence of red and blue cards was totally random. In such a situation, the strategy that will yield the highest proportion of success is to predict the more common event. For example, if 70% of the cards are blue, then predicting blue on every trial yields a 70% success rate. What subjects tended to do instead, however, was match probabilities—that is, predict the more probable event with the relative frequency with which it occurred. For example, subjects tended to predict 70% of the time that the blue card would occur and 30% of the time that the red card would occur. Such a strategy yields a 58% success rate, because the subjects are correct 70% of the time when the blue card occurs (which happens with probability .70) and 30% of the time when the red card occurs (which happens with probability .30); (.70 .70) + (.30.30) = .58. In fact, subjects predict the more frequent event with a slightly higher probability than that with which it occurs, but do not come close to predicting its occurrence 100% of the time, even when they are paid for the accuracy of their predictions . . . For example, subjects who were paid a nickel for each correct prediction over a thousand trials . . . predicted [the more common event] 76% of the time.
1. Dawes, Rational Choice in An Uncertain World; Yaacov Schul and Ruth Mayo, “Searching for Certainty in an Uncertain World: The Difficulty of Giving Up the Experiential for the Rational Mode of Thinking,” Journal of Behavioral Decision Making 16, no. 2 (2003): 93–106, doi:10.1002/bdm.434.
2. Amos Tversky and Ward Edwards, “Information versus Reward in Binary Choices,” Journal of Experimental Psychology 71, no. 5 (1966): 680–683, doi:10.1037/h0023123.