Alan Turing y la IA: un tema de película

22
La inteligencia artificial: ¿un simple juego de imitación? Carlos Blank A manera de introducción: ¿ficción vs. realidad? Quisiéramos comenzar diciendo que la realidad, la “cochina realidad” como decía Unamuno, está sobrevalorada. O mejor dicho, solemos despreciar aquellas actividades que en principio nos aíslan de la realidad o de las duras realidades de la vida cotidiana, y nos ubican en un mundo de imaginación, de fantasía y de ficción, las cuales solemos considerar como medios de evasión o de escape frente a lo real. Solemos darle una connotación negativa a la palabra “evasión” o “escape”, aunque es posible que sin una mínima dosis de evasión cotidiana la vida o la realidad sería insufrible o insoportable. Así que podemos decir que este mecanismo de evasión tiene una utilidad hasta biológica, nos permite, junto con otras cosas, sobrevivir, huir de la desesperación y del aburrimiento, extremos que según Woody Allen, acechan el cotidiano discurrir de nuestras vidas. 1 No se trata, por cierto, de afirmar que la realidad y la verdad dan señales de decadencia, son vintage como se dice ahora, y que lo cool es la ficción o el mundo irreal. Por el contrario lo que más nos interesa subrayar es que el mundo de la ficción, esa “verdad de las mentiras” 2 , es una herramienta poderosísima para sumergirnos de lleno en la realidad o realidades, para

Transcript of Alan Turing y la IA: un tema de película

La inteligencia artificial: ¿un simple juego de imitación?

Carlos Blank

A manera de introducción: ¿ficción vs. realidad?

Quisiéramos comenzar diciendo que la realidad, la “cochina

realidad” como decía Unamuno, está sobrevalorada. O mejor

dicho, solemos despreciar aquellas actividades que en

principio nos aíslan de la realidad o de las duras

realidades de la vida cotidiana, y nos ubican en un mundo

de imaginación, de fantasía y de ficción, las cuales

solemos considerar como medios de evasión o de escape

frente a lo real. Solemos darle una connotación negativa a

la palabra “evasión” o “escape”, aunque es posible que sin

una mínima dosis de evasión cotidiana la vida o la realidad

sería insufrible o insoportable. Así que podemos decir que

este mecanismo de evasión tiene una utilidad hasta

biológica, nos permite, junto con otras cosas, sobrevivir,

huir de la desesperación y del aburrimiento, extremos que

según Woody Allen, acechan el cotidiano discurrir de

nuestras vidas.1 No se trata, por cierto, de afirmar que la

realidad y la verdad dan señales de decadencia, son vintage

como se dice ahora, y que lo cool es la ficción o el mundo

irreal. Por el contrario lo que más nos interesa subrayar

es que el mundo de la ficción, esa “verdad de las

mentiras”2, es una herramienta poderosísima para

sumergirnos de lleno en la realidad o realidades, para

ampliar nuestra experiencia de las realidades.

Curiosamente, entonces, cuanto más nos alejamos de la

realidad, cuanto más hacemos abstracción de la realidad,

tanto más somos capaces de explicar o comprender mejor ese

mundo externo, natural o social, que nos rodea o en el cual

estamos, queramos o no, instalados.

Lo que nos interesa destacar por el momento es la fina

línea que separa la imitación y la simulación con la

realidad.3 De hecho, como todos experimentamos cuando

soñamos –y todos somos artistas o dementes entonces- para

nuestro cerebro no hay diferenciación alguna entre sueño y

realidad. Nuestro cerebro es una fuente permanente de

ficciones, de simulaciones, en engaños, de ilusiones. Por

eso poetas como Calderón de la Barca se han preguntado si

la vida misma no es toda ella un sueño o dramaturgos como

Shakespeare se han preguntado si la vida no es más que un

cuento relatado por un idiota.

Resulta significativo que los más hambrientos de realidad y

verdad sean precisamente los matemáticos, quienes buscan la

certeza mediante la formulación de suposiciones o

definiciones y las consecuencias necesarias que se siguen

de ellas. En esta disciplina invención y descubrimiento,

suposición y realidad, se dan constantemente la mano. Las

matemáticas encarnan mejor que cualquier otra disciplina la

paradoja de que cuanto más nos alejamos de la realidad

concreta –mediante la abstracción- tanto más es posible

acercarnos a ella o somos capaces de comprenderla. Por

eso, la definición que daba Bertrand Russell de las

matemáticas, sin dejar de tener un tono epigramático,

resulta ser perfectamente amoldada al quehacer del

matemático: “Las matemáticas podrían definirse como aquello

en lo que nunca sabemos de qué estamos hablando, ni si lo

que decimos es verdad.” No se le escapaba por cierto a

Russell el gran poder de evasión de las matemáticas y como

ellas en más de una oportunidad fueron un dique de

contención de pensamientos negros o tendencias suicidas que

experimentó alguna vez. La belleza y la perfección de las

matemáticas compensan con creces las fealdades y las

imperfecciones del mundo de la vida cotidiana, por eso fue

un gran shock emocional para él admitir posteriormente que

esa ciencia se debatía entre la contradicción y la

tautología, entre la paradoja y la vacía trivialidad. Fue

dentro de esa atmósfera intelectual que tres siglos antes

acogiera a un Barrow o un Newton, la que ahora, mutatis

mutandis, cobija a un Russell, a un Wittgenstein, a un

Turing, y más recientemente, a un Penrose o un Hawking,

quien hasta el 2009 ocupó la Cátedra Lucasiana de

Matemáticas que en su momento ocupase también Sir Isaac

Newton.

Hablando precisamente de la ficción o simulación como

mecanismo para adentrarnos en la realidad, queremos

destacar el próximo estreno de dos películas cuyos

personajes son dos grandes mentes contemporáneas educadas

en Cambridge. Las películas en cuestión son: La teoría del todo

(2014), dirigida por James Marsh y protagonizada por Eddie

Redmayne como Stephen Hawking y El juego de imitación (2014),

dirigida por el noruego Morten Tyidum y protagonizada por

Benedict Cumberbach en el papel de Alan Turing y que se

ocupa de las peripecias para quebrar el código de la

conocida máquina alemana Enigma por medio de otra máquina

diseñada con ese fin conocida como Bomba.4 Lo que quizás

pudiera dar origen a otra película es que precisamente

durante los años anteriores a la Segunda Guerra Mundial,

Turing participó activamente en los seminarios de

Wittgenstein sobre los fundamentos de las matemáticas,

junto con Norman Malcom, Rush Rhees o George Henrik von

Wright, entre otros, y que dichas discusiones han sido

recogidas en un texto titulado Wittgenstein’s Lectures on the

Foundations of Mathematics (Cornell University Press, Cornell,

1976).5

Algunos mitos sobre la invención del computador u ordenador

A menudo se suela señalar la guerra como una de las causas

principales de los avances científicos y tecnológicos

modernos y es innegable que en muchos casos ha sido así. En

el caso que nos ocupa, la invención del ordenador, la

cuestión es solo parcialmente verdadera. Sin duda, que

durante la Segunda Guerra Mundial se crearon centros de

automatización de datos vinculados a departamentos de

balística y a la propia creación de la bomba atómica, si

bien su creación definitiva se hizo con total independencia

del ordenador. También es cierto que muchas de esa máquinas

fueron diseñadas para romper los códigos de los enemigos y

encontraron en ello una fuente permanente de estimulo y

financiamiento. Pero también hay que tomar en cuenta que

muchos proyectos que habían sido iniciados antes de la

guerra para desarrollar máquinas automáticas ultrarrápidas

fueron abandonados a causa de la guerra, como ocurrió, por

ejemplo, con proyectos llevados a cabo por la IBM en 1942

y que fueron interrumpidos por la incursión de los EEUU en

la guerra.

Otro error que puede cometerse a la hora de trazar los

momentos más importantes de la invención de algo tan

complejo como el computador digital moderno es atribuirle

demasiados precursores o genios fundadores. Siguiendo este

esquema deberíamos tomar el ábaco como el primer modelo de

una computadora moderna y al inventor del ábaco como su

precursor. (Más risible aún es tomar al ábaco como un

modelo de la mente humana.) Pero resulta, en primer lugar,

que nadie sabe quién inventó el ábaco, lo que suele ser el

caso de muchos inventos importantes –el lenguaje o el

dinero serían otros- y que es obvio que existe una

distancia nada desdeñable entre el antiguo ábaco y las

modernas computadoras. Incluso en los casos en que se

conoce el nombre específico del inventor, como la máquina

inventada por Pascal para facilitar los cálculos a su padre

que era funcionario de aduanas o la máquina diferencial más

compleja inventada por Leibniz, que permitía hacer

multiplicaciones y divisiones complejas, existe un gran

salto con relación a las computadoras modernas. También el

caso de Charles Babbage, que suele ponerse como el

precursor más inmediato con su máquina analítica resulta

bastante discutible en muchos aspectos. Sin duda, que fue

el primero que separó las funciones de memoria y cálculo, y

que utilizó un sistema de programas codificados por medio

de tarjetas perforadas – que se utilizaron hasta no hace

tanto tiempo-, las cuales, por cierto, fueron tomadas de

los telares mecánicos, protagonistas principales de la

revolución industrial en Manchester. Dicho sea de paso, el

inventor de la tarjeta perforada no fue un inglés sino un

mecánico francés llamado Bastidor de Falcon. Sin embargo,

la máquina de Babbage nunca fue realmente construida y él

tampoco pensó en un proceso totalmente automatizado o en un

programa interno que programara la máquina. Y la razón de

ello es muy sencilla: aun no se habían inventado máquinas

electrónicas de alta velocidad.6

Normalmente, definimos el ordenador como unacalculadora electrónica programable por programasinternos. La noción de programa grabadointernamente es fundamental, ya que, como veremosmás adelante, es la que encarna la flexibilidadde uso y el carácter realmente universal de losordenadores. Ahora bien, la grabación de unprograma sólo es una ventaja técnica si sedispone de una gran velocidad de cálculo, esdecir, a partir de la invención de las máquinaselectrónicas. El ordenador como tal era algoimpensable para Babbage. Algunos fragmentosmarginales de los escritos de lady Lovelace(principal colaboradora de Babbage) han podidointerpretarse como alusiones a una posibleincorporación de programas a la máquinaanalítica. Pero el significado de esta idea enuna máquina dotada de una memoria internamecánica, es decir, muy lenta, no es comparableal que tiene para nosotros.7

Quien, sin duda, se acerca mucho más a la invención de la

computadora digital es Alan Turing. Es él quien comprende

perfectamente la vinculación de un programa interno y una

gran capacidad para almacenamiento de datos en una máquina

de alta velocidad. Como veremos con más detalle después,

fue a raíz de la publicación de un artículo sobre la

imposibilidad de resolver todo problema de cálculo que ideó

la existencia de una máquina universal que fuese capaz de

realizar cualquier función o computación, y no orientada a

funciones específicas como era el caso más corriente. Es

importante tomar en cuenta esto, que el interés inicial de

Turing era un problema teórico de resolución mecánica de

problemas de cálculo más que el diseño concreto de

computadoras. Desde luego resulta irónico pensar que la

idea de una computadora moderna surge como experimento

mental para establecer lo que está más allá de toda

computación o cálculo efectivo.

Por otro lado, aunque se viese involucrado en los primeros

diseños electrónicos de computadoras su interés principal

era comprender cómo funciona la mente humana y desarrollar

un modelo artificial de la mente humana, lo que con el

tiempo se conocerá como Inteligencia Artificial. Según

Levy, el que se suela asignarles mayor importancia a

determinados pensadores o matemáticos en la invención de

las computadoras, como los ya mencionados Babbage o Turing,

podríamos añadir a von Neumann, en detrimento de las

dificultades concretas a las que se enfrentaban los

ingenieros a la hora de construir dichas máquinas y las

soluciones aportadas por ellos, es que predomina una

lectura logicista de la secuencia de hechos históricos que

llevaron a su invención concreta.

La máquina universal de Turing no inspiró aningún constructor un autómata concreto. Elcontexto en que había sido ideada se encontrabademasiado alejado de los problemas planteados alos inventores de calculadoras de vidrio y metal,para que pudieran sacarle provecho. A posteriorisolamente, una historia de inspiración logicistapudo citar a Turing entre los fundadores de lainformática. Como si la isomorfía funcionalabstracta entre los ordenadores y la máquinauniversal de Turing permitiera extraer unarelación condicional de posibilidad de causa aefecto, o de derivación. Suponiendo una serie decondiciones idénticas a las reales, sin lamáquina universal, los ordenadores hubieranexistido igualmente. Los fundamentos, de tipoteórico, deben distinguirse de los cimientos, detipo genético.8

El punto de vista de Levy nos parece importante para

compensar una descripción histórica claramente sesgada a

favor de los lógicos y matemáticos y que suele dejar de

lado a todos aquellos que hicieron importantes

contribuciones de detalle y que tuvieron que enfrentarse a

la utilización o no de determinados materiales en la

construcción de esas máquinas, que generalmente eran

competentes mecánicos o ingenieros. Como suele decirse

indistintamente, dios o el diablo está en los detalles. No

siempre es fácil encontrar en una misma persona la

comprensión de las bases teóricas de un invento y tener el

ingenio suficiente para realizarlo o ser capaz de hacer

frente a las dificultades concretas que la realización del

diseño de una máquina como la computadora tuvo que sortear.

Pero sin ser expertos en el tema, nos parece que el propio

Levy se contradice cuando reconoce que no puede atribuirse

el adjetivo de fundador a Turing y al mismo tiempo nos

invita a diferenciar entre fundamentos teóricos y cimientos

genéticos, lo cual presupone precisamente lo que quiere que

neguemos, que sea un fundador teórico, contradicción que

puede entenderse como producto de la propia ambigüedad del

concepto de Informática: ¿ciencia o técnica? Sin duda que

la historia de la ciencia o de la tecnología suele ser

mucho más compleja de lo que ciertas descripciones

esquemáticas propias de manuales de texto presentan y que

trabajos como el de Levy permiten equilibrar o compensar el

sesgo marcadamente teoreticista o logicista en este caso.

Seguramente una historia que tome solamente en cuenta los

materiales utilizados o solamente los ingenieros y mecánicos

o solamente los matemáticos y lógicos, será una historia

sesgada e incompleta, así como aquella que solamente tomase

en cuenta factores económicos o militares.

Siempre es bueno destruir ciertos mitos que asumimos como

verdaderos simplemente porque han sido transmitidos por

generaciones y tomar en cuenta que determinadas narraciones

históricas pueden ser siempre criticadas, mejoradas o

ampliadas. Pero siempre podemos caer en la tentación de

destruir determinados mitos para sustituirlos por otros.

Por eso tampoco debemos negar el peso específico que

algunos pensadores tienen en un campo. Y como veremos en el

caso de Turing, no ha sido precisamente atribuirle meritos

que no son propios sino el no haber reconocido

suficientemente sus méritos en algunos casos lo que más nos

interesa destacar. Con lo cual no pretendemos quitarle ni

un ápice de verdad ni humor a las ideas de Levy expresadas

en extenso a continuación:

En este repaso a las distintas formas de narrarla historia de la informática, llegamos,finalmente, a la presentación teleológica. Segúnesta versión de los hechos, el ordenador, talcomo lo conocemos actualmente, estaba ya, demanera solapada, en el punto de mira de todosaquellos que trabajaban directamente oindirectamente en la mejora de los métodos decálculo, de los primeros constructores de ábacosal inventor de los logaritmos. Toda la historiaconverge, desde el principio, en el estado actualde nuestras técnicas y de nuestro saber. Noexistieron bifurcaciones, opciones nireinterpretaciones del pasado encaminadas a larealización de nuevos proyectos. Nuestro presentey, sobre todo, nuestra forma de entender dichopresente, es una especie de punto omega que,desde el futuro, orientó el curso de la historia.Los innumerables riesgos y contingencias quecaracterizan a la historia sólo son mediospuestos al servicio de este proyecto. Lascircunstancias se ven así despojadas de sucarácter decisivo, de su poder de orientación.

La frase inicial de la obra de Robert Ligonnièreilustra perfectamente esta tendencia:

‘La creación de los ordenadores constituye laculminación de un antiguo sueño, inconsciente enun principio y posteriormente madurado duranteveinte siglos, en el cual la máquina llevaba acabo un trabajo intelectual. Esta aventura ha

arrastrado a toda la humanidad, desde lascivilizaciones más antiguas hasta el períodocontemporáneo, caracterizado por una colección depotentes soluciones tecnológicas.’

¿Cómo admitir que el mismo sueño dirigierasubrepticiamente a un creador chino de ábacos delsiglo X, a Nicolas Chuquet, a Leibniz y a SteveJobs (fundador de la compañía Apple)? Objetos yconceptos cambian de sentido en función de losusos a los que los destinan los diferentesactores. Cada una de las creaciones de lahistoria del cálculo se enmarcan en un mundoimaginario, social y técnico determinado. Laspropias nociones de cálculo y de automatismo sehan transformado radicalmente desde lasmaravillas de teatro montadas por los mecánicosde Alejandría o desde los primeros damerosaritméticos trazados en las arenas de Egipto. Lacrítica de las causas futuras en la historiadebería basarse, prácticamente, en los mismosargumentos que la crítica de la teleología en lateoría de la evolución. No existe ninguna razónpara extenderse en este punto.

Con la noción de fundación, andamos en busca deuna determinación procedente del pasado, buscamosel punto a partir del cual el futuro quedaestablecido de una vez por todas. En la idea deuna presciencia del futuro que orientasolapadamente la actividad de nuestrosantepasados hacia un presente en el que todoconverge, creemos haber encontrado el punto fijo,el polo magnético de la historia. Se trata en elfondo de la fábula del progreso. En ambos casosse elimina lo indeterminado de la duración, lasbifurcaciones imprevistas en las que se modificasin cesar el futuro y la contingencia que presideestas modificaciones.9

La era de la Inteligencia Artificial

Si alguna era puede representar el mito de Prometeo y el

robo del fuego sagrado como símbolo del conocimiento es la

nuestra. Puestos a elegir una imagen de nuestra era

tecnológica avanzada seguramente podríamos elegir la imagen

desgraciada de un hongo nuclear con todas las ideas

negativas que lleva asociadas dicha imagen. Pero otra

imagen o logo que representa el desarrollo exponencial de

las tecnologías de información y comunicación o TIC’s –

posiblemente la más representativa- es la manzana mordida

de Apple. Existen muchas versiones sobre el origen de dicho

logo: que si representa la manzana de Newton, que si

simboliza la manzana mordida del Paraíso o la manzana con

cianuro mordida por Turing, que si viene por el interés

inicial de Steven Jobs por el cultivo de las manzanas en

granjas comunitarias o por el sello disquero de los Beatles

Apple Records –las dos últimas encajan perfectamente en el

perfil de ejecutivo-hippie que representaba Jobs y las

primeras en su cualidad de “nerd” o “geek”-. La mordida de

la manzana, por otra parte, también se ha asociado a la

palabra inglesa “bite”, la cual asociamos a los “bytes”

del lenguaje de las computadoras. Si bien Steve Jobs

descartó específicamente que simbolizara la manzana con la

cual Alan Turing se suicidó en 1954, lo cierto del caso es

que si alguien puede simbolizar esta era de cambios

vertiginosos y de fusiones o sinergias entre los campos de

la informática y las comunicaciones es precisamente Alan

Turing.

Como ya hemos mencionado, él tuvo un rol estelar en el

diseño de la máquina llamada BOMB, la cual en definitiva

rompería los códigos o mensajes cifrados de la máquina de

los nazis llamada ENIGMA, siendo así una gran aliada de la

victoria final. La BOMBA era una máquina con una tarea bien

definida: buscar patrones en las posiciones de las ruedas

de ENIGMA a alta velocidad mediante un sistema de búsqueda

basado en probabilidades bayesianas. . La primera fue

bautizada VICTORY e instalada en 1940 en Bletchey Park, y

estaba hecha a base de relés electromagnéticos, que darán

paso a las válvulas electrónicas o tubos al vacio. La idea

de utilizar tubos al vacio fue de un ingeniero, Thomas

Flowers, quien fue responsable de la construcción de la

primera computadora digital de gran escala llamada COLOSSUS

(1943) en colaboración con el grupo de Bletchey Park, a

cuyo mando estaba un matemático de Cambridge, Max Newman10,

antiguo profesor de Alan Turing y quien lo interesó en

problemas de fundamentación de las matemáticas. Si durante

la guerra figuras como Newman y Turing desempeñaron un

papel decisivo, en los años posteriores a la Guerra fueron

desplazados en los puestos directivos por ingenieros,

aunque siguieron colaborando en el desarrollo de otros

proyectos pioneros de la informática y la computación

modernas.

El caso de Turing tiene ribetes incluso trágicos, pues al

final (1952) se le juzgó por su homosexualidad, que

entonces era un crimen, y se le dio a elegir entre la

cárcel y la castración química –tratamiento con hormonas.

Turing eligió esta última, aunque al final presionado por

el sistema de “inteligencia” británico, que lo veía como

una amenaza de que se filtrase información dadas sus

inclinaciones ya ampliamente conocidas, se suicidó (1954)

con una manzana que contenía cianuro. Varios gobiernos

británicos pidieron disculpas por el trato inhumano al que

fue sometido, aunque solamente fue el 24 de Diciembre de

2013 que la Reina Isabel II promulgó un indulto de delito

alguno.

Muchos de los trabajos que se llevaron a cabo durante la

Guerra, e incluso después de ella, estaban protegidos por

los servicios de Inteligencia Británico que colaboraban,

por cierto, con los norteamericanos, por lo que no fue

sino mucho tiempo después que se conocieron los avances

británicos, mientras que los avances de los norteamericanos

si fueron dados a conocer mucho antes o fueron ampliamente

difundidos. Por ejemplo, la primera computadora equivalente

a COLOSSUS construida en los EEUU dos años después en 1945

fue ENIAC, aunque por las razones antes expuestas ha solido

señalarse como la primera. Otro ejemplo es que se suele

hablar de la arquitectura de von Neumann, la cual todavía

se utiliza en la mayoría de las modernas computadoras, como

si él hubiese sido el dueño original de la idea, cuando lo

cierto es que fue Alan Turing, y no von Newmann, el

primero que entendió realmente cuáles eran los componentes

fundamentales en la arquitectura de las computadoras. Se

dice que von Neumann mandaba a los ingenieros encargados

del diseño de las primeras computadoras a leer el trabajo

seminal de Turing: “On computable Numbers, with an

Application to the Entscheidungsproblem” (1936), como para

que tuviesen una idea de lo que había que realizar. Este

trabajo tenía como finalidad resolver el problema planteado

por David Hilbert de si era posible encontrar un medio

mecánico, una función recursiva o algoritmo que fuese capaz

de decidir si una fórmula del cálculo de primer grado es un

teorema o no, es decir, si es una fórmula derivable de los

axiomas básicos del sistema, lo cual fue reformulado por

Turing por medio de la posibilidad de un programa de

instrucciones que tuviese la capacidad de señalarle a una

máquina cuándo detenerse o no, tomando en cuenta que

detenerse era sinónimo de haber resuelto el problema. La

respuesta al problema de Hilbert, que hoy se conoce también

como la tesis Turing-Church, fue negativa: no hay tal

procedimiento algorítmico o mecánico de decisión universal.

Lo interesante del caso es que para dar dicha solución

Turing utilizó lo que entonces era un simple experimento

mental para hablar de una máquina universal y anticipase

con asombrosa precisión el diseño y funcionamiento de las

computadoras modernas. Se suele decir que una máquina de

Turing es como un escribiente que dispone de tinta y papel

en cantidad infinita para resolver problemas en un tiempo

infinito.

Por si fueran poco los logros de Turing como lógico,

matemático, criptógrafo o “hacker oficial”, pionero en el

diseño de las modernas computadoras, todavía no hemos

mencionado el campo en el cual sería más destacado y del

que ciertamente fue su verdadero fundador, cuando todavía

no se utilizaba el término: la Inteligencia Artificial.

Donde realmente puede apreciarse el carácter innovador,

visionario y original de Turing es en sus breves ensayos

sobre lo que en 1956 sería bautizado por las siglas en

inglés AI o Artificial Intelligence. El más conocido y

único publicado en vida por la revista Mind (1950) fue:

“Computing Machinery and Intelligence”. Los demás, que

corresponden a conferencias o discusiones en la BBC,

aparecen, junto con sus demás escritos, en la excelente

recopilación de Jack Copeland (2014).11

Si uno sigue la trayectoria del pensamiento de Turing con

cierto nivel de detalle se encuentra que sus intereses en

simular la inteligencia humana o construir artificialmente

un cerebro aparecen ya en la década de los 30 y que todas

sus peripecias futuras están orientadas a la comprensión de

la mente humana, a comprender las bases de funcionamiento

de la mente humana. A pesar de que se suele asociar el

enfoque de Turing a una visión de corte reduccionista,

conductista u operacionalista de la mente humana -nosotros

hemos cometido ese error alguna vez12- lo cierto es que

Turing sienta las bases de lo que se conoce como el enfoque

cognitivo de la mente humana, el cual representa justamente

una alternativa al enfoque conductista entonces

predominante. Creemos que es importante retomar este punto

pues a menudo se ha tomado también el famoso test de

Turing, que precisamente fue superado este año por un

programa o software llamado EUGINE que simula la mente de

un joven de 13 años, como si fuese una definición de

inteligencia a secas.13

De hecho, Turing no proponía una definición de‘pensamiento’ o ‘inteligencia’. Definiciones sonexpresadas de forma estándar como condicionesnecesarias y suficientes. En su presentación deltest en 1950, Turing enfatizaba que superar eltest (produciendo una conducta que asemejara laconducta intelectual humana) no es una condiciónnecesaria del pensamiento. Él decía que lasmáquinas podían ‘llevar a cabo algo que podemosdescribir como pensamiento, pero que es muydiferente de lo que un ser humano realiza.’ Y ensu presentación del test en 1952, en unadiscusión por radio (con, entre otros, MaxNewman), negó explícitamente que estuvieseofreciendo una definición.14

Muchas de las objeciones contra el test de Turing asumen

precisamente eso: que se trata de una definición de

pensamiento o de inteligencia. Sin embargo, este test tenía

un valor heurístico y estaba orientado al diseño de

programas cada vez más sofisticados que fuesen capaces de

simular las capacidades de comprensión de la mente humana,

del cerebro humano, de esa “sopa de potaje”, como él decía.

Él mejor que nadie fue capaz de anticipar las limitaciones

en las que se vería envuelta esta nueva disciplina.

Comprendió los dos enfoques básicos o líneas posibles de

investigación: el enfoque formalista o informacional y el

enfoque conexionista o de simulación/construcción de redes

neuronales. También anticipó como nadie los diversos campos

de aplicación: programas de resolución de problemas,

sistemas expertos, programas de juegos como el ajedrez15,

autómatas o robótica. Entendió lo novedoso y joven de este

campo y la importancia de que las máquinas tuviesen

programas flexibles capaces de modificarse a sí mismos y

que fuesen, como los propios seres humanos, capaces de

aprender de sus errores. La idea de máquinas que fuesen

capaces de aprender implicaba también la idea de máquinas

que cometiesen errores, lo cual suele contradecir la idea

que solemos tener de una máquina, en particular, de una

computadora. Sabía de la importancia de la búsqueda por

medio del azar y del valor de programas heurísticos que no

tuviesen una solución definida y la importancia de que las

máquinas fuesen capaces de mostrar la misma plasticidad del

cerebro humano, ese órgano al mismo tiempo multifuncional y

altamente especializado. Sus últimas contribuciones fueron

en el campo de la biología matemática, donde ya comprendía

la importancia de la aplicación de la computación a la

biología como herramienta para comprender procesos

biológicos, mediante un algoritmo genético, como se llamará

después.16 Como señala su biógrafo:

Una figura extraña, que deleitaba y a menudoenfurecía a sus amigos, Alan Turing estuvoenvuelto en eventos mundanos y al mismo tiempoera capaz de preocuparse con una intensaintegridad personal. Al escribir de modo tansencillo como hablaba, era una suerte de Orwellde la ciencia; pero su gran capacidad para lafrivolidad, como se ilustra en sus puestas enescena de las discusiones sobre el Test deTuring, le dieron un puesto de honor en el másligero y descarado ambiente de la culturainglesa. Su vida estuvo llena de paradojas, como

que siendo una de las personas más originales ysocialmente inconformes, fuese considerado comouno de los más famosos abogados del carácterpuramente mecánico de la mente humana. Siendo unode los más puros espíritus científicos, suaplicación al trabajo de la guerra ha tenidoposiblemente mayor efecto que cualquier otrocientífico. Comprometido con la honestidad y laverdad, su vida siempre estuvo envuelta en elsecreto y el silencio.17

Bibliografía de consulta sobre Turing:

Charles Petzold: The Anotated Turing. A Guided Tour through AlanTuring’s Historic Paper on Computability and the Turing Machine, WileyPublishing, Inc., Indianapolis, 2008.Christof Teuscher (ed.): Alan Turing: Life and Legacy of a GreatThinker, Springer-Verlag, Berlin/Heidelberg, 2004. Gregory J. Chaitin: Thinking about Gödel and Turing. Essays onComplexity, 1970-2007, World Scientific Publishing, Londres,2007.Jack Copeland (ed.): The Essential Turing: Seminal Writings inComputing, Logic, Philosophy, Artificial Intelligence and Artificial Life: Plus theSecrets of Enigma, Oxford University Press, Oxford, 2004.James H. Moor (ed.): The Turing Test. The Elusive Standard of ArtificialIntelligence, Springer-Science+Business Media, Dordrecht,2003.Robert Epstein & Gary Roberts & Grace Beber (eds.): Parsingthe Turing Test. Philosophical and Methodological Issues in the Quest for theThinking Computer, Springer, 2008.S. Barry Cooper & Jan van Leeuwen (eds.): Alan Turing. His Workand Impact, Elsevier, Amsterdam, 2013 Sara Turing: Turing, Centenary Edition, Cambridge UniversityPress, Cambridge, 2012.Simon Lavington (ed.): Alan Turing and His Contemporaries. Buildingthe world’s first computers, British Informatics Society, Swindon,2012.Stuart M. Shieber (ed.): The Turing Test. Verbal Behavior as theHallmark of Intelligence, MIT Press, Massachusetts, 2004.

Notas:

1 Por cierto ese mismo genial director de cine, guionista y actor –además declarinetista-, también señala que no sabe muy bien qué es la realidad y que él sela pasa la mayor parte del tiempo -y esa es su realidad- en un plató de cine, esdecir, simulando la realidad, remedando o recreando la realidad. Posiblementeevadimos la realidad última, nuestra condición de mortalidad, por lo que el propioWoody destaca que “no es que le tenga miedo a la muerte sino que no quisiera estarallí cuando eso suceda”. 2 Expresión de Vargas Llosa, pero que tiene la misma tesitura de un Oscar Wildecuando se lamenta de la decadencia de la mentira en el arte y denuncia esainclinación malsana o patológica a decir la verdad. Como es bien conocido, inviertela relación de origen platónico –el arte como imitación de otra imitación- entre elarte y la naturaleza, y destaca que es la naturaleza la que imita al arte humano.En otros artículos de este blog nos hemos ocupado de la importancia que tiene laliteratura como medio de aprendizaje moral, siguiendo, entre otros, a MarthaNussbaum. 3 Generalmente hablamos despectivamente de la imitación y no tomamos en cuenta quegracias a ella se producen procesos de aprendizaje estrechamente vinculados a laadquisición del lenguaje y al desarrollo de la mente humana en general. Sobre elparticular véase Andrew N. Meltzoff & Wolfgang Prinz (eds.): The Imitative Mind.Development, Evolution and Brain Bases, Cambridge University Press, Cambridge, 2002. 4 Ambas películas y sus respectivas actuaciones protagónicas son fuertes candidatasal Oscar del 2015, así que ya tendremos oportunidad de comentarlas en extenso.Curiosamente Cumberbatch encarnó hace 10 años el papel de Hawking en una adaptacióndel mismo nombre de la BBC para la televisión y que está siendo repuesta por elcanal Film&Arts. 5 Turing era formalista y le daba gran importancia a los problemas matemáticos, enparticular, a aquellos que involucraban el infinito, mientras que Wittgensteinconsideraba que las matemáticas estaban sobrevaloradas y que los problemasrelativos al infinito estaban simplemente mal planteados si no podía construirseuna prueba o solución satisfactoria, por ejemplo, decidir si en la expansióndecimal de aparece el número 777. Sin embargo, en cierto sentido compartían unenfoque externalista de la mente humana. En otra oportunidad nos ocuparemos deeste tema. Por lo pronto reseñamos el excelente trabajo de Diane Proudfoot: “Robotsand Rule-Following” en Jack Copeland (2004). Entre los papeles de Wittgenstein seencontró el trabajo seminal de Turing sobre los números computables que seguramenteél le hizo llegar y que ya era ampliamente reconocido en el medio académico. 6 Aunque cabe señalar que ello no fue óbice para Turing, como veremos más adelante.7 Pierre Lévy: “La invención del ordenador”, en Michel Serres (ed.): Historia de lasciencias, Cátedra, Madrid, 1991, p. 578. 8 Ibid. p. 580. La idea de una máquina universal o máquina de Turing es genialmentesencilla: en lugar de tener distintas máquinas que hagan distintas operaciones ouna máquina para cada función, podemos tener una sola máquina que haga diferentesoperaciones o funciones mediante un programa adecuado para tal fin.9 Ibid. p. 584. El libro al que hace referencia el autor es Préhistoire et histoire desordinateurs: Des origines du calcul aux premiers calculateurs éléctroniques, La Fontaine, Paris, 1987.En inglés hay un libro que sigue los mismos pasos, aunque menos ambicioso, y alque seguramente Levy pondría los mismos reparos, nos referimos a Martin Davis: TheUniversal Computer. The Road from Leibniz to Turing, CRC Press, Boca Ratón, 2012. Para conocermejor términos técnicos como logicismo, entre otros, puede consultarse Stewart

Shapiro (ed.): The Oxford Handbook of Philosophy of Mathematics and Logic, Oxford UniversityPress, Oxford, 2005.

10 Cuidado en no confundirlo con John von Neumann, el genial matemático de origenhúngaro y niño mimado del establishment norteamericano.11 Entre estos documentos aparece la carta que dirigió a Winston Churchillsolicitando mayores recursos para seguir desarrollando el proyecto dedecodificación de los mensajes nazis durante la guerra. 12 Por ejemplo en http://filosofiaclinica1.blogspot.com/2011/01/john-searle-y-la-inteligencia.html y en http://filosofiaclinicaucv.blogspot.com/2011/08/penrose-y-la-inteligencia-artificial-1.html 13 Como se ha señalado la superación del test de Turing es solo una señal de que sees capaz de llevar otras muchas funciones que implican inteligencia. 14 B. J. Copeland & D. Proudfoot: “The Computer, Artificial Intelligence, and the Turing Test” en Christof Teuscher (2004), p. 338. 15 De hecho la primera formulación del test de Turing consistía en que alguienpudiese diferenciar entre un jugador de ajedrez y un programa de computadoradiseñada con ese fin. Después introduciría el famoso juego de imitación en quehabía que diferenciar entre un hombre y una mujer inicialmente y después entre unamáquina y una mujer, siendo así que en el primer caso el hombre nos haría pensarque era una mujer y después sería la máquina la que tratase de engañarnos. 16 Curiosamente un nieto de Darwin, que era director el laboratorio en que trabajó Turing después de la guerra, consideraba sus trabajos como infantiles, lo que demuestra que el genio no se hereda. 17 Andrtew Hodges : “Introductory Biography” en Christof Teuscher (2004), p. 7.