Alan Turing, una teoría herética

Maquinas inteligentes, una teoría herética


No puedes fabricar una máquina que piense por ti. Es una opinión común y normalmente se acepta sin ser cuestionada. Este es el propósito de estas notas.

La mayoría de máquinas creadas con fines comerciales están diseñadas para realizar un tipo específico de trabajo, y para hacerlo lo más rápido posible. A menudo repiten una y otra vez las mismas operaciones sin cesar. Este hecho constituye para algunos un poderoso argumento en favor de la opinión expresada al principio. Para un lógico matemático no es un argumento válido, se ha probado que existen máquinas teóricamente posibles que hacen algo muy parecido a pensar. Por ejemplo, pueden comprobar la validez de una prueba dentro de los Principia Mathematica, o incluso indicar si una formulación en el mismo sistema es probable o improbable. En caso de que la formulación no sea ninguna de ambas cosas ciertamente la máquina no se comportará de forma satisfactoria pues continuará trabajando indefinidamente sin producir ningún resultado final, pero ésto no puede considerarse muy diferente a las reacciones de los matemáticos, los cuales, por ejemplo, han tratado durante cientos de años de decidir sobre la falsedad o no del teorema de Fermat. Para las máquinas de este tipo se necesita un tipo de argumento más sutil. Mediante el famoso teorema de Gödel, o alguno similar, se puede comprobar que aunque la máquina sugerida no consiga llegar a una respuesta en algunos de los problemas que se le suministren, un matemático si puede. Por otro lado, la máquina tiene alguna ventaja sobre el matemático. Haga lo que haga es fiable, obviando fallos mecánicos, mientras que el matemático con toda seguridad cometerá errores. Pienso que el riesgo de cometer errores del matemático es un corolario inevitable de su capacidad para dar con enfoques totalmente nuevos. Esto parece confirmarse si, como parece ser, la gente más fiable no suelen ofrecer nuevos caminos.

Afirmo que este tipo de máquinas pueden construirse y pueden simular con mucha precisión el comportamiento de una mente humana. A veces cometerán errores, y a veces encontrarán nuevas e interesantes soluciones (statements), y el grueso de su producción merecerá el mismo tipo de atención que el grueso de producción de una mente humana. El contenido de estas soluciones reside en la gran cantidad esperada de declaraciones de certeza (true statements) y no podrán tomarse, opino, como declaraciones de exactitud. No será suficiente, por ejemplo, afirmar que la máquina produce una declaración de certeza tarde o temprano, una máquina que debería recorrer todos los estados posibles tarde o temprano. Sabemos como crear una máquina de este tipo, y lo que haría sería (probablemente) generar declaraciones de certeza y falsedad con la misma frecuencia por lo que sus resultados no tendrían valor. Esta podría ser la reacción de la máquina sometida a las circunstancias que probarían mi afirmación, si es que puede ser probada.

Examinemos un poco más de cerca la naturaleza de esta prueba. Es totalmente posible crear una máquina que nos proporcione una buena opinión sobre ella misma para cualquier tipo de test, siempre que sea suficientemente elaborada. Sin embargo es difícil aceptar ésto como la prueba definitiva. Dicha máquina podría enajenarse cometiendo una y otra vez el mismo error, siendo incapaz de corregirse por si misma o por argumentos externos. Si la máquina fuera capaz de aprender de la experiencia sería mucho más impresionante. Si este fuera el caso no parece haber razón para no empezar con una máquina relativamente simple y sencilla y, sometiéndola a un cierto rango de experiencias, transformarla en una más elaborada, capaz de tratar con un campo más amplio de contingencias. Este proceso probablemente podría acelerarse con una selección adecuada de tales experiencias. Podriamos denominar educación a este proceso. Pero en este punto debemos tener cuidado. Puede ser muy fácil elegir las experiencias de forma que automáticamente provoquen la estructuración de la máquina en una forma predeterminada, lo que sería una forma grosera de fraude, del mismo estilo que esconder a un humano dentro de ella. De nuevo vemos que el criterio sobre lo que se debe considerar razonable como educación no puede concretarse en términos matemáticos, por lo cual sugiero que sea decidido por la práctica. Supongamos que queremos que la máquina entienda inglés, y dado que no tiene manos ni pies, ni necesita comer ni le gusta fumar, ocupa la mayor parte de su tiempo jugando al Ajedrez, al Go y posiblemente al Bridge. Dispone de una máquina de escribir con la que cualquiera puede suministrarle notas o donde ella muestra las suyas al exterior. Sugiero que la educación de dicha máquina debe encomendarse a un maestro competente interesado en el proyecto pero con total desconocimiento de los detalles de funcionamiento del dispositivo. El constructor de la máquina puede ocuparse de su mantenimiento pero si se sospecha que ha sido manipulada incorrectamente debe volverse a posiciones previas y solicitar al profesor que repita la lección. Ya que este procedimiento sólo sirve para comprobar la buena fe del constructor es esencial que no se ejecute en etapas experimentales. Como hemos visto, el proceso educativo puesto en práctica es fundamental para producir una máquina razonablemente inteligente en un tiempo relativamente corto. La analogia con lo humano sugiere lo mismo.

Veamos ahora como algunas indicaciones sobre como esperar que funcione una máquina de este tipo. La máquina dispone de memoria. Esto no requiere mucha explicación. Puede ser una simple lista de los estados por los que ha transitado, de todos los movimientos que ha hecho y de todas las cartas que ha jugado en sus partidas. Pueden estar ordenados cronológicamente. Detrás de esta sencilla memoria puede haber un índice de experiencias. Para explicar esta idea pensemos en la forma que puede adoptar un índice de este tipo. Puede ser un índice alfabético de todas las palabras que se han usado y del tiempo de uso de forma que puedan ser localizadas en la memoria. Otra clase del mismo tipo serían las jugadas en partidas de Go contra humanos. En etapas comparativamente avanzadas de educación la memoria podría ampliarse para incluir partes importantes de la configuración de la máquina en ciertos momentos, o, en otras palabras, puede empezar a recordar lo que pensaba en ciertos momentos. Esto daría lugar a nuevas y fructíferas formas de indexación, algunas a partir de características concretas y especiales observadas en los índices ya existentes. Dichos índices podrian usarse de la siguiente manera. Siempre que deba tomarse una decisión sobre qué hacer a continuación se buscan las características de la situación actual en la tabla de índices y la decisión tomada, buena o mala, sera la salida del procedimiento. La nueva elección se hace en concordancia. Esto nos trae nuevos problemas. Si algunas de las decisiones son favorables y algunas desfavorables ¿cual elegir? La respuesta a ésto probablemente depende de cada máquina y puede variar según su grado de educación. Para empezar puede que sea suficiente con alguna regla implacable del tipo tomar la decisión que tenga el mayor número de votos a favor. En estados muy avanzados de educación este tipo de cuestiones pueden haber sido investigadas por la misma máquina, mediante algún tipo de índice, produciendo de esta forma una regla muy sofisticada y, espero, muy satisfactoria. Es probable sin embargo que la comparativamente forma más primitiva de la regla sea razonablemente satisfactoria, de manera que el progreso se realice independientemente de la grosería en la elección de las reglas. Esto parece cumplirse en el caso de los problemas de ingeniería que a veces se resuelven aplicando las reglas más crudas del procedimiento que sólo afectan a los aspectos superficiales del problema, como las funciones que se incrementan o decrementan por una de sus variables. Otra idea que notamos en la forma en la que el comportamiento de la máquina se determina es la de resultado favorable. Si este tipo de idea, equivalente al principio del placer en la psicología, puede ser muy difícil saber como proceder. Puede ser lo más natural introducir dicho concepto en la máquina. Sugiero que se disponga de dos llaves que puedan ser manipuladas por el profesor. cada una de las cuales representa la idea de placer y dolor. En etapas avanzadas la máquina podría reconocer ciertas condiciones como deseables si se han asociado constantemente en el pasado con el placer, e indeseables si se han asociado con dolor. Ciertas expresiones de enfado en el maestro, por ejemplo, pueden ser reconocidas como una amenaza que no puede pasarse por alto, de forma que actúe para que no sea necesario aplicar el castigo.
Seguir haciendo sugerencias puede ser infructuoso llegados a este punto, dado que más parecen el análisis de los métodos de enseñanza aplicados en humanos. Existe, sin embargo, una característica que sugiero sea incorporada en esta clase de máquinas, la aleatoriedad (random element). Cada máquina debe ser alimentada con una cinta llena de imágenes aleatorias, por ejemplo 0 y 1, en cantidades iguales, y estas series aleatorias deben usarse en el proceso de toma de decisiones de la máquina. Esto puede provocar que el comportamiento de la máquina no esté completamente determinado por las experiencias a las que se ha sometido y puede producir interesantes resultados al experimentar. Falseando las decisiones de la máquina se puede ser capaz hasta cierto punto de controlar su desarrollo. Podemos fijarnos por ejemplo en la elección hecha por una entre 10 y ésto puede indicarnos que una máquina entre 1024 puede desarrollarse al mismo nivel que la que ha sido falseada, aunque ello no nos permite llegar a conclusiones precisas debido a que la naturaleza subjetiva de la idea grado de desarrollo no dice nada sobre el hecho de que la máquina falseada puede también haber tenido suerte en decisiones sin falsear.
Asumamos pues, por la bondad del argumento, que tales máquinas son una posibilidad genuina, y pensemos en las consecuencias de su construcción. Podemos esperar una gran oposición, a menos que hayamos avanzado mucho en tolerancia religiosa desde los tiempos de Galileo. Puede haber una gran oposición por parte de intelectuales que teman quedarse sin trabajo, aunque es probable que se equivoquen. Habría mucho que hacer [intentar entender lo que las máquinas quieren decir], adaptar nuestra inteligencia a la suya, aunque parece probable que una vez haya empezado su proceso de pensamiento no necesiten mucho tiempo del nuestro. No tendrían ningún problema en morir y serían capaces de comunicarse entre ellas para agudizar su ingenio. En algún momento, por lo tanto, deberiamos esperar que tomaran el control tal como se menciona en Erewhon de Samuel Butler.

Traducción (más o menos precisa) de Intelligent Machinery, A Heretical Theory, de Alan Turing. ¿Se puede ser más visionario? Increible. Puedes descargarlo aquí.

No hay comentarios:

Publicar un comentario