Não diga “complexidade”

Era uma vez. . .

Esta é uma história de quando conheci Marcello, com quem trabalhei posteriormente por um ano na teoria da Inteligência Artificial (IA), mas nessa época eu ainda não o havia aceitado como meu aprendiz. Sabia que ele competia em olimpíadas nacionais de matemática e computação, o que foi suficiente para que eu lhe desse mais atenção; no entanto, ainda não sabia se ele conseguiria aprender a pensar em IA.

Eu perguntei a Marcello como ele achava que uma IA poderia descobrir como resolver um cubo mágico por si só, não por meio de programação prévia, o que é trivial, mas sim descobrindo as leis do universo de Rubik e raciocinando como explorá-las. Como uma IA inventaria para si mesma o conceito de “operador” ou “macro”, que é a chave para resolver o cubo mágico?

Em algum momento dessa discussão, Marcello disse: “Bem, acho que a IA precisa de complexidade para fazer X e complexidade para fazer Y…”

E eu disse: “Não diga ‘complexidade'”. Marcello disse: “Por que não?”

Eu disse: “A complexidade nunca deve ser um objetivo em si. Você pode precisar usar um algoritmo específico que adiciona alguma complexidade, mas a complexidade pela complexidade apenas torna as coisas mais difíceis.” (Estava pensando em todas as pessoas que ouvi defendendo que a Internet “acordaria” e se tornaria uma IA quando se tornasse “suficientemente complexa”.)

E Marcello disse: “Mas deve haver alguma complexidade que faz isso.”

Fechei os olhos brevemente e tentei pensar em como explicar tudo em palavras. Para mim, dizer “complexidade” simplesmente parecia o movimento errado na dança da IA. Ninguém pode pensar rápido o suficiente para deliberar, em palavras, sobre cada frase de seu fluxo de consciência; pois isso exigiria uma recursão infinita. Pensamos em palavras, mas nosso fluxo de consciência é dirigido abaixo do nível das palavras, pelos remanescentes treinados de percepções passadas e duras experiências…

Eu disse: “Você leu Uma explicação técnica da explicação técnica?” “Sim”, disse Marcello.

“Tudo bem”, eu disse. “Dizer ‘complexidade’ não concentra sua massa de probabilidade.”

“Oh,” Marcello disse, “como ‘emergência’. Ah! Então… agora tenho que pensar em como X pode realmente acontecer. . .”

Foi quando pensei comigo mesmo: “Talvez este seja possível ensinar.” Complexidade não é um conceito sem utilidade. Existem definições matemáticas relacionadas a ele, como a complexidade de Kolmogorov e a complexidade de Vapnik-Chervonenkis. Mesmo intuitivamente, vale a pena considerar a complexidade — é preciso avaliar a complexidade de uma hipótese e decidir se ela é “muito complicada” dada a evidência de apoio, ou analisar um projeto e tentar simplificá-lo.

Os conceitos por si só não são nem úteis, nem inúteis. Apenas seu uso pode ser correto ou incorreto. Enquanto Marcello tentava realizar um passo na dança, ele também tentava explicar algo sem esforço e obter algo sem esforço. Esse é um erro extremamente comum, pelo menos na minha área. Em uma discussão geral sobre inteligência artificial, você pode observar pessoas cometendo o mesmo erro repetidamente: pulando constantemente coisas que não entendem, sem perceber que é isso que estão fazendo.

Em um piscar de olhos, podemos colocar um nó causal não controlador atrás de algo misterioso, que parece uma explicação, mas não é. O erro ocorre abaixo do nível das palavras. Ele não requer nenhuma falha de caráter especial; é simplesmente como os seres humanos pensam por padrão, como pensavam desde tempos antigos.

O que se deve evitar é pular a parte misteriosa e, em vez disso, enfrentá-la diretamente. Há muitas palavras que podem pular os mistérios, e algumas delas seriam legítimas em outros contextos, como “complexidade”, por exemplo. No entanto, o erro essencial é esse salto, independentemente de qual nó causal esteja por trás dele. O salto não é um pensamento, mas um micro pensamento. Você tem que prestar muita atenção para detectá-lo. E quando você treina para evitar pular, isso se torna uma questão de instinto, não de raciocínio verbal. Você precisa sentir quais partes do seu mapa continuam em branco e, mais importante, prestar atenção a essa sensação.

Desconfio que na academia existe uma grande pressão para esconder os problemas debaixo do tapete, a fim de apresentar um artigo que pareça completo. É mais provável que você receba elogios por um modelo aparentemente completo que inclua alguns “fenômenos emergentes”, em comparação a um mapa explicitamente incompleto que indique: “Não tenho ideia de como essa parte funciona” ou “aqui ocorre um milagre”. Alguma revista pode até não aceitar esse último tipo de artigo, pois quem sabe se não são as etapas desconhecidas onde tudo de interessante acontece? E sim, às vezes acontece que todas as partes não mágicas do seu mapa também não são importantes. Esse é o preço que às vezes você paga por entrar em terra incógnita e tentar resolver problemas incrementalmente. Mas isso torna ainda mais importante saber quando você ainda não terminou. Principalmente, as pessoas não se atrevem a entrar em terra incógnita, pelo medo mortal de perder tempo.

E se você estiver trabalhando em uma startup revolucionária de IA, a pressão para esconder os problemas será ainda maior. Ou você terá que admitir para si mesmo que ainda não sabe como construir a IA, e seus planos de vida desmoronarão. Mas talvez eu esteja explicando demais, já que a tendência natural dos humanos é ignorar os problemas. Se você está procurando exemplos, observe as pessoas discutindo religião, filosofia, espiritualidade ou qualquer ciência em que não tenham sido treinadas profissionalmente.

Marcello e eu desenvolvemos uma convenção em nosso trabalho de IA: sempre que encontrávamos algo que não entendíamos —  o que era bastante comum —  dizíamos “mágica”, como em “X faz Y magicamente”. Isso nos lembrava que ali havia um problema não resolvido, uma lacuna em nossa compreensão. É muito melhor dizer “mágica” do que “complexidade” ou “fenômeno emergente”, pois as últimas palavras criam a ilusão de compreensão. É mais sensato dizer “mágica” e deixar um espaço reservado para si mesmo, um lembrete do trabalho que você terá que fazer mais tarde.