Escalas ilimitadas, enormes prêmios do júri e futurismo

A psicofísica é o campo que estuda a relação entre os efeitos físicos e os efeitos sensoriais. Por exemplo, no caso da energia acústica, a pergunta é: quanta energia acústica a mais é necessária para um som parecer duas vezes mais alto para um ouvinte humano? Surpreendentemente, não é o dobro, mas sim cerca de oito vezes mais.

Medir energia acústica e fótons é fácil. Mas, para saber quão alto um som parece ou quão brilhante uma luz aparenta ser, geralmente precisamos perguntar ao ouvinte ou observador. Isso pode ser feito usando escalas limitadas, como de “muito quieto” a “muito alto” ou de “muito escuro” a “muito claro”.

Também podemos usar escalas ilimitadas, que começam em zero (nada audível ou visível) e aumentam indefinidamente. Nesses casos, o observador recebe um estímulo constante, chamado módulo, ao qual atribui um valor fixo. Por exemplo, um som recebe o valor 10. O observador pode então indicar que outro som é duas vezes mais alto, atribuindo o valor 20.

Essa abordagem tem se mostrado bastante confiável. Mas o que acontece se os participantes receberem uma escala ilimitada sem módulo de referência? Uma escala de zero ao infinito, sem um ponto fixo de comparação? Nesse caso, os participantes criam seu próprio módulo.

As proporções entre os estímulos permanecem consistentes entre os participantes. Por exemplo, se o participante A diz que o som X tem volume 10 e o som Y tem volume 15, e o participante B diz que o som X tem volume 100, é provável que ele atribua um volume próximo de 150 ao som Y. Porém, sem saber o módulo do participante C, seu fator de escala, não podemos prever o que ele dirá sobre o som X. Pode ser 1, pode ser 1.000.

Portanto, quando um participante avalia um estímulo em uma escala ilimitada, sem um padrão de comparação, quase toda a variação se deve à escolha arbitrária do módulo, e não ao estímulo em si.

Essa situação se assemelha à deliberação do júri em casos de danos punitivos. Não é surpreendente haver tanta variação nas decisões, pois cada jurado pode estar usando um módulo diferente ao atribuir valores em dólares aos danos.

Para demonstrar essa relação, Kahneman e seus colegas realizaram um estudo com 867 participantes elegíveis para júri. Eles apresentaram descrições de casos legais, como o de uma criança cujas roupas pegaram fogo, e pediram aos participantes que:

  1. Classificassem a gravidade das ações do réu em uma escala limitada; 
  2. Classificassem o grau de punição que o réu deveria receber em uma escala limitada, ou;
  3. Atribuíssem um valor em dólares aos danos punitivos.[1]

No estudo, os participantes mostraram alta correlação em suas classificações de indignação e punição, mas os valores dos danos punitivos variaram muito. No entanto, a ordem das classificações dos valores — do menor para o maior — apresentou boa correlação entre os participantes.

Isso significa que, se você soubesse o cenário específico apresentado aos participantes — como o caso da criança — seria possível prever a classificação da punição e ter uma boa estimativa da classificação do valor em dólares em relação a outros casos. Porém, o valor exato em dólares seria imprevisível.

Para os valores brutos em dólares, a variação explicada foi de apenas 0,06 ! Tirar a média de doze respostas aleatórias também não ajudou muito.

Portanto, um valor de indenização por danos punitivos não é tanto uma avaliação econômica, mas sim uma expressão de atitude — uma medida psicofísica de indignação, manifesta em uma escala ilimitada sem ponto de referência fixo.

Observo que muitas previsões futuristas são, de maneira similar, melhor consideradas expressões de atitude. Faça a pergunta: “Quanto tempo levará até que tenhamos IA de nível humano?” As respostas que vi para essa pergunta estão espalhadas por todo o espectro. Em uma ocasião memorável, um indivíduo ligado à IA convencional me disse: “Quinhentos anos”. (!!)

Agora, a razão pela qual o tempo para alcançar a IA não é facilmente previsível é uma discussão longa por si só. Mas não é como se o indivíduo que mencionou “quinhentos anos” estivesse prevendo o futuro. E ele não poderia ter obtido esse número usando o método padrão equivocado da Lei de Moore. Então, o que ele quis dizer com o número 500?

Da forma como consigo imaginar, é como se eu tivesse perguntado: “Em uma escala em que zero é ‘nada difícil’, o quão difícil o problema da IA parece para você?” Se essa fosse uma escala limitada, todos os entrevistados marcariam “extremamente difícil” no extremo direito. Tudo parece extremamente difícil quando você não sabe como lidar com algo.

No entanto, nesse caso, temos uma escala ilimitada sem um ponto de referência fixo. Portanto, as pessoas simplesmente inventam um número para representar “extremamente difícil”, o que pode resultar em 50, 100 ou até mesmo 500. Em seguida, acrescentam “anos” no final, e essa é a sua previsão futurista.

“Quão difícil parece o problema da IA?” não é a única questão substituível. Outros responderiam como se eu tivesse perguntado: “Quão positivo você se sente em relação à IA?”, sendo que números mais baixos indicariam sentimentos mais positivos, e então acrescentam “anos” no final. No entanto, se essas “estimativas de tempo” representam algo além de expressões de atitude em uma escala ilimitada sem um ponto de referência fixo, não consegui determinar.

Referências

[1] Daniel Kahneman, David A. Schkade, and Cass R. Sunstein, “Shared Outrage and Erratic Awards: The Psychology of Punitive Damages,” Journal of Risk and Uncertainty 16 (1 1998): 48–86, doi:10.1023/A:1007710408413; Daniel Kahneman, Ilana Ritov, and David Schkade, “Economic Preferences or Attitude Expressions?: An Analysis of Dollar Responses to Public Issues,” Journal of Risk and Uncertainty 19, nos. 1–3 (1999): 203–235, doi:10.1023/A:1007835629236.