Causalidade falsa

O flogisto foi a resposta do século XVIII para o Fogo Elemental dos alquimistas gregos. Acenda a madeira e deixe queimar. O que é o material de “fogo” alaranjado? Por que a madeira se transforma em cinzas? Para ambas as perguntas, os químicos do século XVIII responderam: “flogisto”.

E foi isso, você vê, essa foi a resposta deles: “Flogisto.” Flogisto escapou de substâncias em chamas como fogo visível. À medida que o flogisto escapava, as substâncias que queimavam perdiam o flogisto e assim se tornavam cinzas, o “verdadeiro material”. As chamas em recipientes fechados se apagaram porque o ar ficou saturado de flogisto e, portanto, não aguentou mais. O carvão vegetal deixava poucos resíduos ao queimar porque era quase flogisto puro.

Claro, não se usava a teoria do flogisto para prever o resultado de uma transformação química. Você olhava primeiro para o resultado e depois usava a teoria do flogisto para explicá-lo. Não é que os teóricos do flogisto previram que uma chama se extinguiria em um recipiente fechado; em vez disso, acendiam uma chama em um recipiente, observavam-na apagar e então diziam: “O ar deve ter ficado saturado de flogisto”. Nem se poderia usar a teoria do flogisto para dizer o que não deveria ver; poderia explicar tudo.

Essa foi uma era anterior da ciência. Por muito tempo, ninguém percebeu haver um problema. Explicações falsas não parecem falsas. É isso que as torna perigosas.

Pesquisas modernas sugerem que os humanos pensam sobre causa e efeito usando algo como os grafos acíclicos direcionados (DAGs) das redes de Bayes. Porque choveu, a calçada está molhada; porque a calçada está molhada, está escorregadia:

A partir disso, podemos inferir — ou, em uma rede de Bayes, calcular rigorosamente em probabilidades — que, quando a calçada está escorregadia, provavelmente choveu; mas se já sabemos que a calçada está molhada, saber que a calçada está escorregadia não nos diz mais nada sobre se choveu.

Por que o fogo é quente e brilhante quando queima?

A explicação do fogo ser quente e brilhante quando queima pode parecer válida, mas a mente humana não detecta automaticamente quando uma causa tem um efeito irrestrito. Além disso, o viés retrospectivo pode levar a crer que a causa restringe o efeito, quando ela foi meramente ajustada ao efeito. 

Nesse sentido, nossa compreensão moderna do raciocínio probabilístico sobre causalidade pode precisamente descrever o que os teóricos do flogisto estavam fazendo de errado. Uma das principais inspirações para as redes bayesianas foi perceber o problema da contagem dupla de evidências se a inferência ressoar entre um efeito e uma causa. Por exemplo, se recebemos informações não confiáveis de que a calçada está molhada, isso nos faz pensar que é mais provável que esteja chovendo. No entanto, se está chovendo, a calçada provavelmente está molhada e escorregadia, o que aumenta ainda mais a probabilidade de que esteja chovendo.

Judea Pearl usa a metáfora de um algoritmo para contar soldados em uma fila. Suponha que você esteja na fila e veja dois soldados ao seu lado, um na frente e outro atrás. São três soldados, incluindo você. Então, você pergunta ao soldado atrás de você: “Quantos soldados você vê?” Eles olham em volta e dizem: “Três”. Agora são seis soldados no total. Obviamente, isso não é a maneira mais inteligente de contar. Uma maneira mais eficiente é perguntar ao soldado à sua frente: “Quantos soldados há à sua frente?” e ao soldado atrás, “Quantos soldados há atrás de você?” A pergunta “Quantos soldados há à frente?” pode ser transmitida como uma mensagem sem confusão. Se estiver na frente da fila, passo a mensagem “1 soldado à frente” para mim mesmo. A pessoa diretamente atrás de mim recebe a mensagem “1 soldado à frente” e passa a mensagem “2 soldados à frente” para o soldado atrás dela. Ao mesmo tempo, cada soldado também recebe a mensagem “N soldados atrás” do soldado atrás deles e a transmite como “N + 1 soldados atrás” para o soldado à sua frente. Quantos soldados no total? Adicione os dois números que você recebeu, mais um para você: esse é o número total de soldados em linha.

A ideia principal é que cada soldado deve rastrear separadamente as duas mensagens, a mensagem de encaminhamento e a mensagem de retorno, e adicioná-las apenas no final. Você nunca adiciona soldados da mensagem de retorno que recebe à mensagem de encaminhamento que envia. Na verdade, o número total de soldados nunca é transmitido como uma mensagem — ninguém nunca o diz em voz alta.

Um princípio análogo opera no raciocínio probabilístico rigoroso sobre a causalidade. Se você aprender algo sobre se está chovendo, de alguma fonte que não seja a observação de que a calçada está molhada, isso enviará uma mensagem de encaminhamento para o próximo nó e aumentará nossa expectativa de que a calçada esteja molhada. Se você observar que a calçada está molhada, isso envia uma mensagem inversa à nossa crença de que está chovendo, e essa mensagem se propaga para todos os nós vizinhos, exceto o nó [Calçada Molhada]. Contamos cada evidência exatamente uma vez; nenhuma mensagem de atualização “salta” para frente e para trás. O algoritmo exato pode ser encontrado no clássico Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference (Raciocínio probabilístico em sistemas inteligentes: redes de inferência plausível) de Judea Pearl.

Então, o que deu errado na teoria do flogisto? Quando observamos que o fogo é quente, o nodo [Fogo]  pode enviar evidências retrógradas para o nodo [Flogisto], levando-nos a atualizar nossas crenças sobre o flogisto. Mas se assim for, não podemos contar isso como uma previsão bem-sucedida da teoria do flogisto. A mensagem deve ir em apenas uma direção e não retornar.

Infelizmente, os seres humanos não usam um algoritmo rigoroso para atualizar as redes de crenças. Aprendemos sobre os nodos-pais observando os filhos e prevemos os nodos-filhos a partir de crenças sobre os pais. No entanto, não mantemos livros rigorosamente separados para a mensagem de retorno e a mensagem de avanço. Apenas lembramos que o flogisto é quente, o que faz com que o fogo seja quente. Portanto, parece que a teoria do flogisto prevê o calor do fogo. Ou, pior ainda, parece que o flogisto faz o fogo ficar quente.

Até você perceber que nenhuma previsão antecipada está sendo feita, o nó causal não restritivo não é rotulado como “falso”. É representado da mesma forma que qualquer outro nó em sua rede de crenças. Parece um fato, assim como todos os outros fatos que você conhece: o flogisto torna o fogo quente.

Uma IA projetada corretamente notaria o problema instantaneamente. Isso nem exigiria um código de propósito especial, apenas a contabilidade correta da rede de crenças. (Infelizmente, nós, humanos, não podemos reescrever nosso próprio código, como uma IA bem projetada poderia.)

Falar em “viés retrospectivo” é apenas uma maneira não técnica de dizer que os humanos não separam rigorosamente as mensagens diretas e inversas, permitindo que as mensagens diretas sejam contaminadas pelas mensagens inversas.

Aqueles que seguiram por muito tempo o caminho do flogisto não estavam tentando ser tolos. Nenhum cientista quer ficar deliberadamente preso em um beco sem saída. Existe alguma explicação falsa em sua mente? Se houver, garanto que ela não é rotulada como “explicação falsa”. Portanto, pesquisar seus pensamentos sobre a palavra-chave “falsa” não revelará nada.

Graças ao viés retrospectivo, não é suficiente verificar o quão bem sua teoria “prevê” fatos que você já conhece. Você tem que prever para amanhã, não para ontem. Essa é a única maneira de garantir que uma mente humana confusa envie uma mensagem direta pura.

1. Judea Pearl, Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference (San Mateo, CA: Morgan Kaufmann, 1988).