[breadcrumb]
Um artigo clássico de Drew McDermott, intitulado “Artificial Intelligence Meets Natural Stupidity”, criticou programas de inteligência artificial que tentam representar conceitos como “felicidade é um estado de espírito” usando uma rede semântica.1
ESTADO DE ESPÍRITO
^
| É-UM
|
FELICIDADE
E, é claro, não há nada no nodo FELICIDADE; é apenas um token LISP nu com um nome sugestivo em inglês.
Então, McDermott diz: “Um bom teste para o programador disciplinado é tentar usar gensyms em lugares-chave e ver se ele ainda admira seu sistema. Por exemplo, se ESTADO-DE-ESPÍRITO for renomeado para G1073…” então teríamos É-UMA (FELICIDADE, G1073), “o que parece muito mais duvidoso”.
Ou seja, se você substituísse símbolos aleatórios por todos os nomes sugestivos em inglês, seria completamente incapaz de descobrir o que G1071(G1072, G1073) significava. O programa de IA foi feito para representar hambúrgueres? Maçãs? Felicidade? Quem sabe? Se você excluir os nomes sugestivos em inglês, eles não voltarão a aparecer.
Suponha que um físico lhe diga que “a luz são ondas” e você acredite nele. Agora você tem uma pequena rede em sua cabeça que diz:
É-UMA (LUZ, ONDAS).
Se alguém lhe perguntar “Do que é feita a luz?”, você pode responder “Ondas!”
Como McDermott diz: “O desafio é fazer com que o ouvinte perceba o que foi dito. Não ‘entenda’, mas ‘observe’.” Agora, imagine que, em vez disso, um físico dissesse: “A luz é feita de pequenas coisas curvas” (o que, a propósito, não é verdade). Você notaria alguma diferença na experiência antecipada?
Como você pode perceber que não deve confiar em seu aparente conhecimento de que “a luz são ondas”? Um teste que você pode aplicar é perguntar: “Eu poderia regenerar esse conhecimento se de alguma forma ele fosse excluído da minha mente?”
Isso é semelhante em espírito a embaralhar os nomes dos tokens Lisp com nomes sugestivos em seu programa de IA e ver se outra pessoa consegue descobrir a que eles supostamente “se referem”. Também é semelhante em espírito a observar que um Aritmético Artificial programado para gravar e reproduzir
MAIS-DE (SETE, SEIS) = TREZE
não pode regenerar o conhecimento se você o excluir da memória, até que outro humano o insira novamente no banco de dados. Assim como se você esquecesse que “a luz são ondas”, você não poderia recuperar o conhecimento, exceto da mesma maneira que obteve o conhecimento para começar — perguntando a um físico. Você não poderia gerar o conhecimento para si mesmo, da maneira que os físicos o geraram originalmente.
As mesmas experiências que nos levam a formular uma crença, conectam essa crença a outros conhecimentos e entradas sensoriais e motoras. Se você vir um castor mastigando uma tora, então você saberá como é essa coisa-que-mastiga-a-tora e poderá reconhecê-la em ocasiões futuras, independentemente de ser chamada de “castor” ou não. Mas se você adquirir suas crenças sobre castores por alguém contando fatos sobre “castores”, você pode não conseguir reconhecer um castor quando vir um.
Este é o terrível perigo de tentar ensinar fatos a uma Inteligência Artificial que ela não pode aprender por si mesma. É também o terrível perigo de tentar ensinar a alguém sobre física que eles não podem verificar por si mesmos. Pois o que os físicos querem dizer com “onda” não é “coisinha ondulada”, mas um conceito puramente matemático.
Como observado por Davidson, se você acredita que “castores” vivem em desertos, são completamente brancos e pesam 136 quilos quando adultos, então você não tem nenhuma crença sobre castores, seja ela verdadeira ou falsa. Sua crença sobre “castores” não é precisa o suficiente para estar incorreta. Se você não tem experiência suficiente para regenerar crenças quando elas são apagadas, então você tem experiência suficiente para conectá-las a algo? Wittgenstein disse: “Uma roda que pode girar sem mover mais nada com ela não faz parte do mecanismo”.
Quando comecei a ler sobre Inteligência Artificial — antes mesmo de ler McDermott — percebi que seria uma boa ideia sempre me perguntar: “Como eu poderia regenerar esse conhecimento se ele fosse apagado da minha mente?”
Quanto mais profunda for a exclusão, mais rigoroso será o teste. Se todas as provas do Teorema de Pitágoras fossem apagadas da minha mente, eu conseguiria prová-lo? Acredito que não. Se todo o conhecimento do Teorema de Pitágoras fosse deletado da minha mente, eu notaria o Teorema de Pitágoras para prová-lo? Isso é mais difícil de afirmar sem o colocar à prova; mas se me fosse dado um triângulo retângulo com lados de comprimento 3 e 4 e me dissessem que o comprimento da hipotenusa é calculável, acho que poderia calculá-lo, se ainda soubesse todo o resto da minha matemática.
E quanto à noção de prova matemática? Se ninguém nunca tivesse me falado sobre isso, eu conseguiria inventá-la com base em outras crenças que tenho? Houve um tempo em que a humanidade não possuía tal conceito. Alguém teve que inventá-lo. O que eles perceberam? Eu perceberia se visse algo igualmente novo e igualmente importante? Poderia pensar tão fora da caixa?
Quanto do seu conhecimento você conseguiria regenerar? Qual é a profundidade da sua exclusão? Não é apenas um teste para descartar crenças insuficientemente conectadas. É uma forma de absorver uma fonte de conhecimento, não apenas um fato.
Um pastor constrói um sistema de contagem que funciona jogando uma pedrinha em um balde sempre que uma ovelha sai do redil e retirando uma pedrinha sempre que uma ovelha retorna. Se você, como aprendiz, não entender esse sistema — se for uma mágica que funciona sem motivo aparente — então você não saberá o que fazer se acidentalmente deixar cair uma pedrinha a mais no balde. Aquilo que você não pode fazer sozinho, você não pode refazer quando a situação exigir. Você não pode voltar para a fonte, ajustar uma das configurações de parâmetro e regenerar a saída sem a fonte. Se “dois mais quatro é igual a seis” é um fato para você, e então um dos elementos muda para “cinco”, como você saberá que “dois mais cinco é igual a sete” quando simplesmente lhe foi dito que “dois mais quatro é igual a seis”?
Se você vir uma pequena planta que solta uma semente toda vez que um pássaro passa por ela, não ocorrerá a você que pode usar essa planta para automatizar parcialmente o contador de ovelhas. Embora você tenha aprendido algo que o criador original poderia usar para melhorar sua invenção, você não pode voltar à fonte e recriá-la.
Quando você é a fonte de um pensamento, esse pensamento pode evoluir com você, à medida que você adquire novos conhecimentos e habilidades. Quando você é a fonte de um pensamento, ele se torna parte verdadeiramente de você e cresce com você. Esforce-se para ser a fonte de todos os pensamentos que valem a pena ser pensados. Se o pensamento veio originalmente de fora, certifique-se de que também vem de dentro. Pergunte-se continuamente: “Como eu regeneraria esse pensamento se ele fosse apagado?” Quando tiver uma resposta, imagine que esse conhecimento também foi apagado. E quando você encontrar uma fonte, veja o que mais ela pode oferecer.
1. Drew McDermott, “Artificial Intelligence Meets Natural Stupidity,” SIGART Newsletter, no. 57 (1976): 4–9, doi:10.1145/1045339.1045340.
2. Richard Rorty, “Out of the Matrix: How the Late Philosopher Donald Davidson Showed That Reality Can’t Be an Illusion,” The Boston Globe (October 2003).