in silico (BFA thesis), 2002 [español]

109

Transcript of in silico (BFA thesis), 2002 [español]

33

Agradecimientos

Quiero dedicar este trabajo a mi familia Jean-Pierre, Sonia e Yves sin cuyo

apoyo no hubiera sido posible realizarlo. También a Ernesto que pasó largas

horas discutiendo conmigo cada parte del proyecto.

Un agradecimiento especial a Ana Lilia por su guía y su paciencia; a mis

colaboradores del Centro Multimedia y amigos: Alejandra Gilling, Hugo,

Cuau, Pedro, Marcela, Humberto y Mariana entre otros por que estuvieron

conmigo desde el principio y se involucraron en todo; en particular Marco

por la programación, Lalo por el audio, Amanda por la página, Myriam por el

mapa, Karla por el texto para exposición y Tania y Liliana por su asesoría y

correcciones.

También quiero agradecer al FONCA que apoyó en la realización de la pieza

y especialmente a José Luis García Nava por su ayuda y asesoría.

A todos los del IIF, en particular a Fernando Broncano, por su gran

entusiasmo y apoyo, pero sobre todo por que me ayudaron a redescubrir la

teoría.

Por último a mis amigas que insistían en que estudiara arte y a las bestias

por estar siempre ahí.

México, D.F, Agosto 2005.

55

Prólogo

La pieza central de este documento es una simulación por

computadora, llamada “in silico”, que realicé en el Centro Multimedia

del CENART con la beca Jóvenes Creadores del FONCA en el

periodo 2002-2003. Se expuso por primera vez al término de ese

periodo en la Galería de arte binaria del CENART en agosto 2003.

Desde entonces se ha expuesto en varias ocasiones.

Este proyecto tuvo diversas implicaciones. En primer lugar, tomó

mucho tiempo ya que tuve que involucrarme en procesos

computacionales que no conocía a parte de trabajar con el ingeniero

Marco Antonio Montes de Oca, que realizó una gran parte del código.

Por otro lado el proyecto requirió de una investigación en diversas

disciplinas, amplia y especializada, que me tomó un año más. Gran

parte de esa investigación está en este documento. Por último, los

temas que traté me llevaron a profundizar en otras áreas. Por lo cual

continué mis estudios con la maestría en filosofía de la ciencia en el

Instituto de Investigaciones filosóficas de la UNAM,

especializándome en filosofía de la tecnología. La tesis “Artificial: un

enfoque filosófico” es un estudio más amplio y profundo del capítulo

II presentado aquí.

Esta investigación determinó mi obra y el tipo de proyectos tanto

artísticos como académicos en los que ahora me involucro. Me

adentró en el arte electrónico, que me parece una práctica fascinante

por su movilidad y riqueza conceptual pero también me permitió

producir obra desde la frontera entre arte, ciencia, tecnología, y

filosofía. Por último, me permitió acercar a personas de esas

disciplinas al arte electrónico.

66

En la primera parte de este documento encontrarán una revisión de

algunos temas importantes en el arte electrónico. Estos temas no se

desarrollan después, pero era necesario comentarlos para entender

el contexto de la pieza. En primer lugar rastrearemos los orígenes

del arte electrónico, la relación arte y ciencia, y algunas

características comunes en este tipo de piezas. En segundo lugar,

hay una breve reflexión histórica y filosófica acerca de la

separación entre arte y técnica, seguida de una revisión de la

relación tecnología y pensamiento contemporáneo, para terminar

con algunos comentarios acerca de la relevancia de “la Teoría” en

el Arte Electrónico.

En el primer capítulo, se revisarán distintas posturas filosóficas

frente a la relación entre lo natural y lo artificial, ya que ese es el

eje teórico de la pieza “in silico”. Revisaremos algunos

representantes de las corrientes más relevantes que tratan el

problema. Estas son la filosofía española, que proviene de la escuela

de Salamanca, el constructivismo social y las ciencias cognitivas.

En el segundo capítulo, trataron de rastrearse varias nociones para

entender que era lo importante al hacer una pieza de vida artificial,

es decir, cuáles eran los puntos de contacto con filosofía, ciencias,

biología, cómputo, ciencias cognitivas, etc. Aquí se presenta un

panorama de estos campos de conocimiento, sus antecedentes,

historia y evolución.

El tercer capítulo presenta distintas piezas que tratan problemáticas

de vida e inteligencia artificial, haciendo un análisis de los distintos

enfoques.

Los capítulos 4 y 5 son específicos a la pieza. El cuarto capítulo es

un análisis de la obra de arte: descripción, metodología y un mapa.

El mapa presenta los distintos ejes que estructuran tanto la pieza

como la investigación, así como sus relaciones. Estos son los ejes

teórico, tecnológico y artístico. El quinto capítulo es un anexo

técnico. Aquí continúa el capitulo anterior con el eje tecnológico y

se describe el funcionamiento del software.

In silico es un neologismo que surge

del silicio en que están basados los

microprocesadores. Significa “en

computadora o vía simulación por

computadora” y se deriva de in vitro,

frase utilizada en biología para

referirse a experimentos realizados en

organismos vivos. La frase se utiliza

comúnmente en artículos y

legislaciones para hacer referencia a la

vida artificial”.

77

I. El Arte Digital

Al contemplar a la máquina como factor emancipador del orden social y elevarla

como tal al valor estético y cultural universal, los artistas de las vanguardias

restablecieron aquella dimensión como identidad del desarrollo científico técnico y

moral. La experimentación artística con la tecnología de comienzos del siglo XX, era

la característica común de diversos movimientos de vanguardias modernistas.

(Eduardo Subirats)

Es posible rastrear como orígenes del arte electrónico el momento

en que los artistas contemporáneos a la revolución industrial

empiezan a utilizar las herramientas y las máquinas para hablar de su

sociedad o generar imaginarios. La máquina se convierte en icono de

la modernidad, del movimiento, de la fuerza de trabajo, del progreso,

del dominio del hombre sobre la naturaleza.

Durante la primera mitad del siglo XX, la revolución tecnológica sale

de las industrias y entra a la vida de las personas. Se forman varias

empresas que unen una gran creatividad, espíritus innovadores,

grandes inventores y los mejores científicos, bajo expectativas de

crear objetos y llenar las casas de inventos que facilitarían y harían

más cómoda la vida. En una carrera industrial muy competida se

electrifican países enteros en algunos años y se extienden redes

telefónicas. Las máquinas se vuelven parte de las rutinas personales.

En la segunda mitad del siglo XX, varios laboratorios abren sus

puertas a artistas para experimentar con sus tecnologías y colaborar

con su equipo de científicos e ingenieros. Así empieza a

estructurarse lo que conocemos como arte electrónico.

En los laboratorios Bell participan Emmanuel Ghent, Billy Klüver,

Ken Knowlton, Max Mathews (considerado el padre de la música por

//// EEll aarrttee ddiiggiittaall

88

computadora), Michael Noll, Laurie Spiegel, Jerry Spivack, Doree

Seligmann, Carl Machover, entre otros [ 1 ]. En los laboratorios

Lincoln del MIT, fundados por la fuerza aérea, Steven Coons, Ivan

Sutherland y Timothy Johnson comienzan a manipular imágenes con

la computadora. Brenda Laurel participa en Atari, Myron Krueger y

Jaron Lanier desarrollan las primeras nociones de la realidad virtual

y las interfaces de inmersión entre otras, Douglas Engelbart inventa

el mouse y participa en la invención de las interfaces gráficas y

ARPANET (precursor de internet).

Desde 1957, con “Oscillons” de Ben Laposky empiezan a crearse

esculturas cibernéticas e imágenes con osciloscopios y

computadoras, que empiezan a aparecer en concursos y

exposiciones artísticas. Klüver y Raushemberg se unen para fundar

“Experiments in Art and Technology” (E.A.T), primer grupo de arte

y tecnología. En 1965, se organiza en Stuttgart, Alemania la primera

exposición de obras computacionales “Computer Graphics”. En 1968,

Jasia Reichardt, directora del Instituto de Arte Contemporáneo de

Londres (ICA), asesorada por Max Bense, organiza la exposición que

consagró al arte por computadora Cybernetic Serendipity. Las cuatro

secciones consistían en gráficos generados “por computadora”,

películas animadas “por computadora”, composiciones y ejecuciones

musicales “por computadora” y textos y versos creados también

“por computadora”. Científicos, ingenieros y compositores

generaban imágenes con ayuda de las computadoras, pero fueron los

artistas quienes crearon máquinas. Entre ellas estaban Metamatic de

Tinguely, Robot-456 de Nam-Jun Paik y Rosa Bosom de Bruce

Lacey. Pronto (1979) surgieron más ferias de arte y tecnología como

la Siggraph art gallery y Ars Electrónica que continúan fomentando

este genero hasta nuestros días.

[1] (http://www.asci.org/BellLabs/)

//// iinn ssiilliiccoo

99

En los últimos cincuenta años, los artistas se han relacionado de

distintas maneras con la tecnología y aunque se utilice popularmente

para cualquier tipo de edición de imagen o página Web, las piezas

más interesantes son las que se involucran directamente en los

procesos computacionales, código y algoritmos, piezas con

comportamientos emergentes, discursos no lineales, etc., es decir,

las piezas que se construyen desde la lógica de la máquina

interpretada por el artista. Esto se debe a que se construye un

diálogo entre los dos y se convierten en piezas complejas en su

naturaleza y en el discurso. Estos criterios, fundamentales en el arte

electrónico reflejan el pensamiento de la época. La tecnología y los

avances siempre han influido en la cultura, pero actualmente la

sociedad está articulada en función de la actividad tecnológica. La

industrialización de la ciencia y la técnica no plantea sólo problemas

económicos, políticos, o morales, sino también otros relativos a

nuestro conocimiento del mundo, es decir, modifica la manera en que

se articula la sociedad, pero también modifica la manera en que lo

entendemos. La tecnología esta presente en el mundo que nos rodea,

como sugiere el filósofo español Miguel Ángel Quintanilla “la

sustancia misma de la realidad que nos circunda es intrínsecamente

tecnológica o artificial”. Por otro lado también se vuelven criterios

importantes la interdisciplina, ya que no es posible elaborar este tipo

de piezas desde un sólo ámbito, y la interacción con el espectador,

ya que es parte de las dinámicas que tenemos con la tecnología.

De acuerdo a Stephen Wilson director del Conceptual Information

Arts Program de la Universidad de San Francisco existen tres

modelos de prácticas artísticas con ciencia y tecnología. El primero

es una continuidad modernista en la cual los artistas se apropian de

las tecnologías contemporáneas para crear nuevos tipos de imágenes

sonidos, instalaciones, etc. El segundo consiste en una práctica

crítica. En esta el papel principal del arte es deconstruir patrones

culturales que integran la ciencia y la tecnología. Utilizan la

//// EEll aarrttee ddiiggiittaall

1100

tecnología para conocerla mejor, analizarla y criticarla. El último

modelo plantea el arte como proyecto de investigación. Los artistas

tratan de insertarse en el corazón de la investigación científica y la

innovación tecnológica para llevar a cabo investigaciones ignoradas

regularmente por la ciencia.

Es en este último tipo de práctica artística donde tiene más

relevancia la ciencia. Suele pensarse en ciencia y tecnología como

un sólo campo. Aunque la relación arte-tecnología es muy común, la

relación arte-ciencia no lo es tanto, dado que es más difícil

integrarse en campos tan especializados. Podemos decir que existen

pocas piezas esencialmente científicas. Algunas tratan temas

científicos, otras hacen crítica o paráfrasis y pocas se involucran en

los procesos. Por lo tanto los proyectos artísticos-científicos no son

producto de la creación de un artista, sino de un grupo

interdisciplinario, o de la colaboración entre un artista y un instituto

de investigación y desarrollo. Algunos de los temas que más tratan o

utilizan los artistas son las ciencias computacionales, electrónica,

telecomunicaciones, la cibernética, interfaces hombre-máquina,

matemáticas y algoritmos y en menor cantidad la genética, química,

biología, ciencias cognitivas y lingüística.

Stephen Wilson hace notar que la influencia no es en los dos

sentidos, la práctica artística está influenciada por las tecnologías

emergentes y la innovación científica, pero el arte no tiene la misma

influencia. Es decir, el arte no se considera como una investigación

seria en el campo de la ciencia o la tecnología. Sin embargo, cada

vez hay más residencias artísticas en laboratorios [ 2 ], con

motivaciones económicas detrás, ya que se ha observado que la

[2] Las residencias artísticas en centros de investigación científica y/o tecnológica existen en Europa, estados Unidos y Japón.

Algunos ejemplos son las trece residencias por parte de la comunidad europea en laboratorios, el Interactive Institute de Suecia

liga cinco escuelas nacional de arte y teatro con institutos de investigación, las residencias artsinlabs en laboratorios suizos, las

becas en las industrias del país Vasco, y en E.U.A en Bell, MIT, Xerox PARC y NASA entre otros.

//// iinn ssiilliiccoo

1111

colaboración y la interdisciplina son fundamentales a la creatividad y

la innovación. Myron Krueger va al extremo de decir que la

tecnología de realidad virtual no hubiese existido sin la intervención

de los artistas.

//// EEll aarrttee ddiiggiittaall

1122

En el pensamiento occidental, la historia de la reflexión filosófica en

torno a las artes empieza en la antigua Grecia. El primer “juicio

estético” acerca de la imagen grabada en el escudo de Aquiles es

“que constituía una obra maravillosa” manifestando el asombro

frente a la imitación y la relación entre representación y objeto,

apariencia y realidad. Para Platón, las invenciones auténticas son

imposibles. Los valores de la obra de arte son belleza e imitación:

“mimesis”, enfatizando su imperfección al ser una imitación de

segundo grado, una copia de lo que vemos, que en sí ya es una copia.

Los artefactos, incluyendo las obras de arte, son imitaciones de lo

natural. Aristóteles acentúa el “producto humano” como

característica única del hombre. Lo “natural” y lo “artificial” son

epistemológicamente distintos. El término techné se refiere al

conocimiento práctico, al “know-how”, a diferencia de epistéme: el

conocimiento “teórico”. El término techné reúne las nociones de arte

y técnica.

A principios de la época moderna (s. XV), el mundo deja de

determinar al hombre y es el hombre el que determina al mundo. El

hombre se convierte en el centro de su reflexión. A partir de ese

momento la idea de arte como la concebían los griegos llega a su fin.

La estética se convierte, en términos de Baumgarten, en una “lógica

de sensibilidad”, es decir, la manera en que el artista capta

sensiblemente la realidad. Arte y Técnica se alejan. El arte

pertenecía al mundo de lo bello y lo sublime, y la técnica es

puramente instrumental. Aunque Descartes no había elaborado

ninguna teoría estética, su método (búsqueda de la claridad

conceptual, del rigor deductivo y certeza intuitiva de los principios

básicos) se extiende a otros campos. Gottlieb Baumgarten, acuña el

termino “estética” (1750) en un intento sistemático de metafísica del

arte y la búsqueda de una forma de conocimiento “sensorial”.

//// iinn ssiilliiccoo

1133

La Ilustración es un periodo fecundo en teorías estéticas. Para Kant

(Observaciones acerca del sentimiento de lo bello y lo sublime,

1764), lo común a lo bello y a lo sublime es un sentimiento de placer

o de displacer. Lo sublime, contiene un sentimiento de placer

ambiguo, mezclado con horror, temor, angustia, dejando sabor

amargo, frente al carácter risueño y alegre de lo bello. Hegel finaliza

la construcción de la “teoría estética” (Filosofía de las Bellas Artes,

1835), separando el arte de la naturaleza, como una práctica

exclusivamente humana, presentándose en “ascendente

espiritualización”. La separación arte y técnica culmina con el arte

romántico, que anunciaba ya la muerte de “el arte por el arte”, al

tomar conciencia de la imposibilidad de encarnar lo esencial.

No es hasta las vanguardias de finales del siglo XIX que arte y

técnica se reconcilian en la teoría y en la práctica. Hay una

reafirmación por la máquina, se adoptan los nuevos materiales y

técnicas, los modos de producción, el movimiento, el dinamismo y la

luz, resignificando los criterios artísticos y estéticos. Al mismo

tiempo se genera una postura crítica frente a la tecnología, la

creciente industrialización y la modernidad. Algunos de estos

movimientos fueron Arts&Crafts, Art Nouveau, Art Deco, Deutsche

Werkbund, Bauhaus, Futurismo, etc. A mediados del siglo XX, con las

primeras piezas de arte electrónico, el artista y el ingeniero

empiezan a fundirse en uno sólo, recuperando la noción de techné, e

intercambiando los valores entre arte y técnica.

Actualmente la filosofía y la teoría no sólo tienen cabida en esa

relación, sino que se hace indispensable. La tecnología se ha filtrado

en la cultura de tal manera, que el arte la ha adoptado como una más

de sus herramientas.

La filosofía, en particular la estética, ha dado cuenta de la relación

amor-odio entre arte y técnica. Actualmente, el pensamiento

//// EEll aarrttee ddiiggiittaall

1144

contemporáneo se incorpora a esa relación. La relación tecnología-

teoría es fundamental en la práctica artística.

El impacto de la tecnología en la vida y cultura contemporáneas es

un problema vital en nuestra época. La teoría crítica y los estudios

culturales pretenden relacionar arte, literatura, política, sociología,

antropología, filosofía y tecnologías en una búsqueda

multidisciplinaria de conceptos y modelos relevantes con los cuales

entender el mundo. La práctica artística y la teoría están siendo

radicalmente remodeladas por esta actividad. La crítica ha tomado

conciencia de la importancia del impacto de las tecnologías

emergentes en el arte. Televisión, sistemas computacionales,

telecomunicaciones, así como las tecnologías utilizadas en medicina,

biología, o milicia no son industrias aisladas. El mundo actual está

configurado bajo esquemas de economía de la información, modelos

de distribución, sistemas de mercadotecnia y publicidad masiva, etc.

que nos determinan. Dentro de las visiones del pensamiento

contemporáneo acerca de la tecnología, se destacan la del

postindustrialismo, que explica que nuestra era se distingue porque

existe más gente trabajando en organización, distribución e

información que en la producción misma de objetos. McLuhan, por su

lado había ya hecho notar que el medio impactaba más allá que el

mensaje y transformaba la manera en que nos veíamos a nosotros

mismos y al mundo. Haraway denota el impacto ideológico de las

tecnologías en medicina y biología, Virilo de la industria militar,

Foucault de la vigilancia y Baudrillard de los mass-media, e

industrias de entretenimiento y publicidad.

Por último, no es posible utilizar un medio sin preguntarse acerca de

su naturaleza, sus alcances, valores o implicaciones, ni sin tomar una

postura. En el arte electrónico este fenómeno se intensifica, ya que

se destaca por reunir tecnología, ciencia y arte. El artista digital a

diferencia de artistas en otros campos debe involucrarse en distintos

//// iinn ssiilliiccoo

1155

espacios teóricos especializados e integrarse en discusiones latentes

en tecnología, ciencia, estudios culturales, teorías de la información

y teorías del diseño. El artista que trabaja con medios electrónicos

debe tomar una postura tanto práctica como teórica. Se convierte en

muchos casos en investigador o en artista “de laboratorio”. La teoría

se vuelve fundamental pero también la metodología, surgen híbridos

entre tecnología, ciencia, arte y teoría. Los discursos se especializan.

Es muy posible que la teoría en el arte digital esté totalmente alejada

de la teoría en el performance, la gráfica o la escultura.

En mi caso, la investigación pretendía contextualizar la obra en las

distintas disciplinas que atravesaba, encontrar o generar las

relaciones entre ellas; historizar el punto en el que ahora se

encontraban. Podría decirse que la obra era un nodo en el cual arte,

ciencia, filosofía, tecnología, e historia se intersectaban. Los

capítulos a continuación son una búsqueda en reversa de cada

disciplina que atraviesa el nodo. La metodología consistió en rastrear

los antecedentes de cada una de ellas, en indagar cómo acontecieron

los eventos, las relaciones y procesos de intercambio entre las

mismas, así como el que desembocaran en esa intersección. Por

ejemplo, dado que la biología es una de las disciplinas, rastree sus

orígenes y trayectos hasta el momento en que desemboca en la vida

artificial.

1177

II. El problema de lo artificial: Algunas posturas filosóficas

Dado que la pieza “in silico” trata de manera importante la relación

entre lo natural y lo artificial, en este capítulo se revisarán distintas

posturas filosóficas frente a este problema. Iniciaré con los primeros

acercamientos de los griegos y herméticos y el “problema de la

técnica” presente en la filosofía de Heidegger y Ortega y Gasset,

como antecedente a la filosofía de la tecnología; para seguir con una

revisión de la manera en que abordan lo artificial algunos pensadores

contemporáneos de los estudios sociales de la ciencia y la tecnología.

Para ello tomaré a dos grupos preponderantes en filosofía de la

tecnología. Dentro de los estudios conocidos como CTS (Ciencia,

Tecnología y Sociedad) se encuentra la “Escuela de Salamanca” [3],

y en los conocidos como SSS (Social Studies of Science) veremos

algunos representantes del constructivismo social. [4]

En las distintas posturas filosóficas las argumentaciones son

distintas, los presupuestos y las conclusiones varían pero el

resultado es el mismo. Existe la noción de artificial, pero no se

opone a lo natural. Su relación es mucho más difusa y compleja de lo

que se pretende en un primer acercamiento.

Con divisiones, clasificaciones, e imitaciones hemos querido ver una

separación de lo natural y lo artificial, buscando tal vez en ello el

rastro de nuestra humanidad y nuestra superioridad intelectual frente

a los demás animales.

Finalmente, todas las posturas coinciden en que no es posible

separar lo natural de lo artificial, que esencialmente son lo mismo, y

que lo artificial, como toda construcción, es parte de lo que somos.

[3] Los mayores representantes de la Escuela de Salamanca son Miguel Ángel Quintanilla, Fernando Broncano y Javier

Echeverría.

[4] En el constructivismo social se destacan autores como Latour, Haraway, Woolgar, Collins y Bloor entre otros.

//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall

1188

En el pensamiento griego existe una clara división entre lo natural y

lo artificial. “Natural” y “artificial” tienen valores distintos. Lo dado

por la naturaleza existe por la physis y tiene más valor que lo

fabricado por el hombre. Lo natural significa orgánico, vivo,

autónomo y espontáneo, mientras que lo artificial es algo muerto,

inerte.

Para Platón, los artefactos son imitaciones de lo natural, de lo

genuino y original. Decir que algo es artificial es decir que esa cosa

parece ser pero no es. Lo artificial es aparente; muestra cómo es

otra cosa. Por lo tanto es una metailusión, ya que lo visible, ya es en

si, una ilusión de lo real.

Para Aristóteles lo natural y lo artificial son dos esferas distintas de

la realidad, difieren en el plano ontológico, pragmático y epistémico.

Lo natural y lo artificial difieren de forma esencial, las leyes que los

gobiernan son diferentes y por lo tanto el conocimiento de ambas

también es distinto.

Ontológicamente los entes naturales tienen una forma primaria y los

artificiales una forma secundaria que los agentes humanos imponen.

Aristóteles empieza a darle valor a la artificialidad de los objetos. Lo

natural tiene en sí mismo la fuente de su propia formación mientras

que en lo artificial la fuente es distinta y externa. Los artefactos no

son imitaciones de algo ya existente sino invenciones auténticas que

constituyen algo nuevo y no sólo una copia imperfecta. La rueda -

como base para transportar- es un ejemplo de un objeto autentico

que no existía previamente en la naturaleza y por lo tanto no podía

haber sido imitado.

La relación natural-artificial se modifica en el pensamiento

hermético. Los herméticos se distinguen por su ruptura en la

comprensión del mundo. Creen que el hombre está dotado de un

poder creativo divino análogo al de “Dios”. Surge la idea del

Hombre-Mago, del alquimista que comprende el curso de la

//// iinn ssiilliiccoo

1199

naturaleza y por lo tanto tiene el poder de inferir en él para generar

algo nuevo y reorganizar lo existente. El hombre-mago crea un

universo dentro del universo creado por Dios, pero no es inferior al

suyo. Su propósito es crear herramientas (simbólicas o instrumentos)

para tener poder sobre la naturaleza. Este hombre considera ya,

mucho antes que en la modernidad, que tiene dominio sobre la

naturaleza y los objetos. En esta tradición pueden situarse los

orígenes de los conceptos modernos de tecnología y

experimentación aún entretejidos con conceptos de magia.

Ortega y Gasset y Heideggeri publican en la primera mitad del siglo

XX sus artículos acerca de la técnica.

Ortega y Gasset decía que la técnica es intrínseca al hombre y no

podemos deslindarnos de la manera en que nos acercamos y

modificamos el mundo con artefactos a nuestra conveniencia para

obtener lo más posible con el menor esfuerzo. Para el filósofo

español, la técnica es la adaptación del medio al sujeto, el hombre no

se adapta al entorno, se confronta con el y lo transforma, creando

una sobrenaturaleza. No basta estar en el mundo, hay que estar

“bien” en el mundo.

Para Heidegger, el pensamiento parte de una búsqueda ontológica. El

filósofo alemán no parte de la técnica sino de la esencia de la misma.

Esta es la noción de desvelamiento, la técnica no es medio, ni acto,

sino lo que está detrás. El hombre moderno ve la naturaleza como

desafió, como energía acumulada que debe ser explotada, a

diferencia de los griegos que tienen una relación no violenta con la

naturaleza. El hombre se convierte en un creador de artificios. En La

pregunta por la técnica, el autor usa de manera paradójica las

nociones de amenaza y salvación. “Amenaza” por la devastación

generada por la tecnología, y “salvación”, ya que considera que la

respuesta está en ella misma. Va a proponer que la técnica sea

pensada como techné, como acto poiético, en una reconciliación con

el pensamiento griego.

//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall

2200

1. Fernando Broncano

Son muchos los animales que disponen de técnicas, de patrones de

conducta que transforman el medio. Lo que hace de los humanos una

especie técnica no es la fabricación de artefactos, sino la fabricación

de artefactos necesarios para producir otros artefactos. Es decir, el

hombre se distingue de los demás animales por la complejidad de los

artefactos que genera. Es la instrumentalidad de segundo orden que

sólo puede ser producida mediante racionalidad instrumental

compleja.

En “Mundos artificiales: filosofía del cambio tecnológico” (2000)

Fernando Broncano indaga en los criterios de división entre lo

natural y lo artificial, explicando que la cultura, la intencionalidad y

el control son criterios necesarios más no suficientes para definir los

sistemas artificiales en relación con los sistemas naturales.

Criterio de naturaleza y cultura

Un criterio para demarcar lo artificial no debe ser un criterio que

separe lo artificial de lo natural sino un criterio que establezca qué

partes del mundo natural son artificiales. Sería sencillo distinguir lo

natural de lo artificial si tuviéramos un criterio claro de distinción

entre naturaleza y cultura. De acuerdo con Mosterín, en “Filosofía de

la Cultura” (1993), una distinción entre naturaleza y cultura es:

naturaleza es la información transmitida genéticamente y cultura es

la información transmitida no genéticamente.

En este caso, las técnicas para cazar que enseñan los animales a sus

hijos serían parte de la naturaleza y la enseñanza de modales en los

humanos sería información cultural, reconociéndose ya que cambian

de una cultura a otra.

El problema que surge con esta distinción es que no permite

distinguir entre productos animales y productos humanos. ¿No serían

//// iinn ssiilliiccoo

2211

lo mismo el dique que fabrica el castor y la barda que construye el

hombre? Muchas especies dependen de técnicas que adquieren

culturalmente para su supervivencia para construir artefactos.

Criterio de intencionalidad

Un segundo criterio que de manera intuitiva caracteriza lo artificial

es el criterio de intencionalidad. Con este suponemos que es

artificial todo objeto que haya sido realizado de acuerdo a un plan

con el objetivo de producirlo con una función particular. Es decir,

una dimensión antecede la realización del objeto (sistema u artefacto)

en la que existe una representación de la realidad que modificará el

artefacto.

Esto quiere decir que una lanza es un artefacto ya que el fabricante

se imaginó qué tipo de objeto requeriría para labores de caza a

distancia y después lo fabricó de acuerdo a un diseño, para ese

objetivo particular. El diseño en la representación mental de la

realidad modificada no es un diseño formal con planos y medidas,

puede ser un diseño mental, o el resultado de sucesivas pruebas y

correcciones del modelo. Entre más complejo se vuelve el artefacto

más complejo es el diseño y se involucra la creación previa de

herramientas necesarias para la fabricación del artefacto.

Pero la intencionalidad y la representación no son criterios

determinantes. Existen artefactos que no surgen en diseño de la

realidad final, sino que surgen de manera no intencional en una de

las partes del diseño total. Es el caso que señala Broncano con el

sendero que se crea a fuerza de pasar por el mismo camino día con

día. No existe la intención de crear el sendero, pero sí existe la

intención de buscar una ruta corta y directa y este plan o diseño

implica el paso por un camino que se transforma en sendero. Esto lo

convierte en un artefacto porque la realidad ha sido modificada. No

es producto directamente intencional, sino un subproducto no-

//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall

2222

intencional. Por otro lado existen objetos elaborados con materiales

naturales que no muestran signos de artificialidad y sin embargo se

realizaron con intención de modificar la realidad, representándose el

objeto modificado y fabricando el artefacto de acuerdo a un diseño,

como por ejemplo una vara larga tallada en punta utilizada para

pescar de cerca.

Estos artefactos subproductos no-intencionales de un plan general,

como los artefactos intencionales cuya artificialidad y diseño no son

evidentes, demuestran que el criterio es útil en algunos casos, pero

no necesario ni suficiente.

Criterio de control

En este criterio se establece la característica intuitiva de un sistema

técnico creado por el hombre. El grado de artificialidad está

determinado por el grado de control. Tomemos un ejemplo: se cree

que un objeto creado puede controlarse. Pero si no pudiésemos

controlar nuestras máquinas, artefactos o invenciones estaríamos

lanzando al mundo objetos que no nos serían útiles cuando queremos

y para lo que queremos -esto es un problema recurrente con la

tecnología-. Otro punto, es que controlamos las piezas de un sistema,

es decir, un artefacto va a tener sólo las piezas que son necesarias

para que pueda cumplir su objetivo final. Un reloj o un avión no

tienen piezas sin una función específica en el diseño. Ya sean

funciones parciales o finales, los elementos suelen estar bajo control

desde el diseño. A esto, en términos ingenieriles, se le llama

supuesto de optimización de recursos. Por ejemplo, en un reloj, no

sobran tuercas, cada pieza está ahí porque cumple una función en el

sistema.

Pero este criterio tiene un problema. Un sistema complejo, está

definido por sus partes, que se encuentran controladas desde el

diseño, pero el interés primordial de un sistema complejo, ya sea una

máquina compleja, un sistema tecnológico complejo, o un sistema de

//// iinn ssiilliiccoo

2233

vida o inteligencia artificial, es la emergencia de particularidades no

determinadas en el sistema. Estas no están diseñadas ni controladas,

por lo tanto este criterio es importante pero no absolutamente

necesario para definir que algo sea artificial.

Estos conceptos establecen condiciones necesarias, pero no suficientes.

Dado que establecer criterios definitivos no es posible, podemos

establecer una distinción desde dentro: encontrar una propiedad que

identifique una característica de nuestras técnicas y de los artefactos

que fabricamos con ellas. Esto, en términos del autor, es la

“composicionalidad” de técnicas y artefactos. Los artefactos y los

organismos comparten características de la complejidad (complejidad

material, formal y funcional). Pero lo que destaca a los artefactos es

la correlación entre complejidad de artefactos y complejidad de

causas. Se dice que son objetos con una composicionalidad se

segundo orden, que sólo puede ser producido mediante racionalidad

instrumental compleja, por el hombre. Un ejemplo:

No es tejer telas de lino lo que hace de los humanos una

especie técnica, es el plantar campos de lino para tener

materiales disponibles.

(Broncano, 2000)

Con esto concluimos que la diferencia está en los procesos, más no

en el artefacto como tal. No podemos hablar de diferencias

fundamentales entre un artefacto y un organismo.

La complejidad en organismos y artefactos

La complejidad funciona en tres niveles: complejidad material, formal

y funcional. La complejidad material implica la fabricación de nuevos

materiales. Se cree que actualmente hay alrededor de 70,000

materiales, de los cuales una gran parte no existían hace algunos

cientos de años. Ahora se crean materiales desde su composición

//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall

2244

química para lograr más eficiencia en algún aspecto: estabilidad,

elasticidad, resistencia, conducción, etc. En la complejidad formal, la

misma información puede tomar distintas formas. Sabemos por

ejemplo que una máquina compleja es un conjunto de formas

elementales cuya conducta depende de la composicionalidad

anatómica de las partes. Si se varía la composición formal la máquina

variará de conducta, o no tendrá ninguna. En la complejidad funcional,

las funciones son conductas de las partes de un sistema que

justifican la existencia de esa parte. Existen dos nociones para la

función: La noción sistémica recoge nuestra idea de “buena

estructura”, es decir, que las partes se conduzcan de manera que la

conducta total del sistema sea óptima. La noción histórica se refiere

a nuestro supuesto de adaptación, esto es cuando un elemento se

encuentra en ese lugar porque ha probado que requiere estar ahí, o

se ha modificado para obtener un lugar.

Las mismas funciones pueden ser realizadas con formas diferentes y

las formas pueden conformar materiales diferentes.

//// iinn ssiilliiccoo

2255

2. Haraway y Latour (representantes del constructivismo social)

Donna J. Haraway

Con fines abiertamente políticos y sociales, Donna Jeanne Haraway

utiliza la distinción entre natural y artificial para resaltar la

desigualdad y la relación de poder en contra de las mujeres. Su

objetivo de reivindicación feminista podría debilitar el argumento del

“híbrido” para romper antiguas clasificaciones. Dejando a un lado el

objetivo feminista y político, exploraremos el argumento que sigue

siendo válido al analizar lo artificial y lo natural como dicotomía.

Para ello parte del supuesto que existe una separación entre natural

y artificial, y argumenta por qué ésta no debería de existir.

Haraway, en el libro“ModestWitness@SecondMillenium. FemaleMan

©MeetsOncoMouse” plantea un manual para negociar con el “Nuevo

Orden Mundial Inc.”. Su “modesto testimonio” actúa como guía en

una perspectiva sobre la ciencia y el progreso.

Según Haraway, nuestros conceptos de lo natural y lo artificial

provienen de las taxonomías del siglo XVIII. La bióloga hace una

revisión de algunos ejemplos de híbridos que ya no tienen cabida en

estas taxonomías.

Como los elementos transuránicos, las criaturas transgénicas,

que llevan genes de organismos que no están relacionados,

tienen cabida simultáneamente en discursos taxonómicos y

evolutivos bien establecidos, pero también arruinan el sentido

entendido de lo natural.

(Haraway, p.56)

¿Es posible seguir conservando clasificaciones que no abarcan los

organismos creados a partir de la tecnociencia? Haraway retoma la

separación de los reinos de lo natural y lo artificial desde las

nociones de pureza racial. Si los límites entre los reinos no son

//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall

2266

nítidos, surge la amenaza como medio para mantener estos límites a

como dé lugar.

Por otro lado tenemos el resultado de la desaparición de limites y

protección de “nuevas especies” como lo son los animales o plantas

transgénicos y sus patentes a cargo de las grandes empresas o

industrias.

La biología molecular y la genética hicieron tales progresos que

podemos alterar la estructura misma de la materia viva y modificar o

crear especies vegetales o animales. Plantas y animales se

convierten en objetos manufacturados en un laboratorio o una

empresa multinacional y en fábricas simples se producen

innovaciones alimenticias o farmacéuticas. En Gran Bretaña, entre

1990 y 1999, el número de animales genéticamente modificados (GM)

empleados para propósitos científicos aumentó un 960%.

En 1981 aparece el primer ratón transgénico y en 1985 la primera

carne de cerdo transgénica. En 1987 se obtiene la primera rata

transgénica que produce leche modificada y las primeras ratas

transgénicas portadoras de ADN humano. En 1988 aparece la

primera cabra cuya leche contiene una proteína humana. Ese mismo

año, el primer animal transgénico es patentado en los Estados Unidos;

se trata de un ratón, el OncoMouse™ de DuPont, genéticamente

modificado para ser portador de cáncer. Las primeras vacas capaces

de producir proteínas humanas en su leche aparecen en 1991, y en

1997 es el famoso nacimiento de la primera oveja clonada (nacida sin

espermatozoide): Dolly.

La alianza de la clonación y de la transgénesis da al hombre la

posibilidad de crear poblaciones enteras de animales quiméricos,

especializados en la producción de sustancias de interés terapéutico,

en el abastecimiento de órganos para la especie humana por

//// iinn ssiilliiccoo

2277

xénoimplante, o aún la tradicional producción de carne o leche. El

animal se convierte así en una fábrica de productos biológicos,

abriendo un paraíso a las multinacionales de la química.

Los híbridos de Haraway

El OncoMouse, el FemaleMan y el Flavr Savr son ejemplos que

utiliza Haraway para exponer los seres u organismos que no tiene

cabida en las clasificaciones tradicionales. No son naturales y no son

artificiales, pero son ambas. No se definen con las características de

una sola categoría.

El OncoMouse o ratón transgénico fue inventado y patentado por

Dupont. Es un producto farmacéutico, un desarrollo tecnológico, un

artefacto. Es un ratón de cultivo que no puede reproducirse, debe

comprarse directamente con Dupont. Esta diseñado con un gen que

lo hace portador de cáncer, para en él poder ejecutar pruebas y

experimentos contra el mismo cáncer.

Flavr Savr es un jitomate genéticamente modificado para soportar

cambios de clima, durar más en mejores condiciones, tener mejor

sabor, tamaño, forma, brillo y claro está: no produce semillas.

Calgene Inc. la empresa que produce este producto patentado no lo

considera un organismo transgénico, únicamente considera que le

han sido implantados algunos genes fabricados con ingeniería

genética para mejorarlo, pero estos pueden ser reversibles.

Estos ejemplos nos llevan a las variedades de humanos modificados,

el hombre que consume químicos sintetizados en alimentos,

medicinas, hormonas, etc. También están los hombres y mujeres con

prótesis y órganos artificiales. El transexual, que se modifica a base

de hormonas, cirugías y prótesis. Cada uno de nosotros tiene alguna

modificación: químicos en la sangre, anteojos, clavos o placas

quirúrgicos en los huesos o bypass cardiovasculares. En este sentido

//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall

2288

podemos llamarnos cyborgs o híbridos. No somos los mismos que

existían en la naturaleza hace algunos cientos de años, es el tipo de

variaciones que no se consideran en las clases naturales, pero hoy

que existen no tienen cabida en la pureza de antiguas clasificaciones.

Deben redefinirse las categorías o desaparecer.

Haraway utiliza los híbridos para destacar que en un mundo marcado

por distinciones tan radicales entre el mundo de lo material y el

mundo de la cultura, la emergencia de híbridos inclasificables

provoca que las viejas distinciones pierdan su sentido explicativo y

descriptivo.

//// iinn ssiilliiccoo

2299

Bruno Latour

Para el sociólogo francés, curador de la exposición ICONOCLASH, la

contaminación de los ríos, los embriones congelados, el virus del

sida, el agujero de ozono, los robots con sensores son objetos

paradigmáticos. En su libro “Nunca fuimos modernos” se pregunta si

estos objetos extraños que invaden nuestro mundo dependen de la

naturaleza o de la cultura y cómo deben comprenderse. Explica que

hasta ahora, las cosas habían sido más sencillas ya que los

científicos se encargaban de la naturaleza y los políticos de la

sociedad, pero que esa separación ancestral se ha vuelto ineficiente

con la multiplicación de los híbridos. “De ahí el sentimiento de terror

que procuran y que no logran calmar los filósofos contemporáneos,

ya sean antimodernos, posmodernos o éticos.” El autor se pregunta

si no hemos estado viviendo bajo una separación equívoca, ya que

nuestra sociedad “moderna” nunca funcionó conforme a la gran

separación que funda su sistema de representación del mundo: el que

opone radicalmente la naturaleza de un lado y la cultura del otro.

Aunque los modernos no han dejado de fabricar objetos híbridos,

entre natura y cultura, se rehúsan a poner en duda el esquema

tradicional. En su estudio el autor toma el caso de algunos

experimentos científicos que no hubiesen sido posibles sin las

condiciones sociales, políticas, económicas, que atravesaba la región,

país o continente. Estos generan discusiones que cobran énfasis en

torno a los intereses y las necesidades de los gobiernos, cuestiones

ajenas al experimento en sí. El sociólogo habla de la intrincada

relación de la ciencia con el mundo, de la experimentación y de la

invención de todo tipo de teorías o artefactos. A todos estos

elementos que pueden intervenir en la trayectoria de cualquier

objeto, Latour y los adeptos al constructivismo social le llaman

agentes y a la relación entre ellos, se le llama redes de agentes o

actantes. El contexto de un desarrollo tecnológico no es el espíritu

//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall

3300

de la época, sino la acumulación de las decisiones tomadas por cada

uno de los agentes. En su libro Aramís ejemplifica la manera en que

se desarrolla un artefacto dentro de una red de agentes con distintas

intenciones o intereses. Cuenta la historia del asesinato de Aramís.

Trata de la invención, desarrollo y desaparición de un tren

automático que estuvo en desarrollo durante treinta años y nunca se

termino de llevar a cabo. A través de un recuento de su historia,

muestra como se relacionan los agentes. Por ejemplo, el ingeniero

heterogéneo debe ensamblar e interesar en el proyecto a agentes

animados e inanimados (elementos materiales, instituciones,

individuos). Algunos colaboran, y otros impiden alianzas u

obstaculizan. Hay que negociar con todos. Aramís falló porque nunca

logró ser metabolizado. Permaneció sin modificación alguna en un

estado de irrealidad de 1970 a 1987. Sus fallidos autores creían en la

autonomía de la tecnología: que ella sola iba a ser capaz de despegar,

sin su intervención. El libro termina explicando que Aramís murió

porque no recibió suficiente amor.

En la visión de Latour podemos entender una noción de artificialidad

distinta a las demás. Lo artificial no existe por si mismo. Un objeto

se genera dentro de una red de agentes intencionales y el objeto

termina siendo lo que los agentes con más influencia en el proyecto

requieren que sea. Por sí mismo no existe. Se construye a través de

su entorno. Por otro lado todos los objetos (artefactos o situaciones)

han sido producto de estas redes y dado que han surgido de las

necesidades y respuestas de diversos grupos, terminan siendo

híbridos. Híbridos entre lo natural, lo cultural, lo social, lo político, lo

económico, lo científico.

//// iinn ssiilliiccoo

3311

3. Dawkins

Richard Dawkins argumenta en el ensayo “El gen egoísta”, que los

seres vivos son navíos corporales obligados a prestar atención a los

dictados principales de genes egoístas inmersos en su propia réplica

y propagación. Retomando la idea del novelista ingles del siglo XIX,

el biólogo propone que no somos más que la expresión de nuestros

genes egoístas en el proceso de crear más genes egoístas. Llevando

la idea aún más lejos, Dawkins propuso que los genes mismos son

expresiones elegantes de código manipulando el mundo a su

alrededor para su propio fin reproductivo.

Dawkins insiste en saber qué sucede en la vida, o en la vida artificial,

cuando la unidad mínima de observación de la evolución es el

replicante. El autor ve la vida y su evolución en un contexto de

replicantes y redes de replicantes. Desarrollando este concepto notó

que la evolución de las aves sin prestar atención a la evolución de

los nidos, o de los castores sin considerar la evolución de sus presas

sería absurda. La combinación es fundamental a la supervivencia de

ambos. Es una coevolución. No sólo los organismos siguen la

dirección de sus genes, también lo hacen los artefactos que el

organismo construye o emplea. En este sentido, el huevo usa tanto

pollo como nido para hacer otro huevo, entonces el nido, es también,

una extensión evolutiva del huevo.

En biología, a los genes en el huevo se les llama el genotipo y a la

expresión física de estos genes, es decir el pollo, su fenotipo.

Dawkins llamó al par genotipo-fenotipo, el “Fenotipo Ampliado”.

Yendo mas lejos en la idea de réplicas y replicantes Dawkins usó

este modelo de fenotipo ampliado para observar al organismo con su

organismo social y sus artefactos. Este fenotipo ampliado es parte

del código que se reproduce en las réplicas. Actualmente con las

tecnologías de consumo en masa se han ampliado nuestros fenotipos,

como ampliaron los fenotipos de pájaros, castores, y marmotas los

//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall

3322

nidos, presas o túneles subterráneos. Para Dawkins, nuestra

evolución está atada a la evolución tecnológica hasta el punto de una

coevolucion entre hombre y artefactos.

3333

III. Algunas preguntas, viejas y nuevas, acerca de la vida

En la pieza “in silico” tuve que rastrear varias nociones para

entender qué es lo importante al hacer una pieza de vida artificial, es

decir, cuáles son los puntos de contacto con filosofía, ciencias,

biología, cómputo y ciencias cognitivas. Al revisar estos campos de

conocimiento, sus antecedentes, historia y evolución, y al ver cómo

se conectan al final en la búsqueda de vida artificial, quedó claro que

la pieza no consiste únicamente en crear objetos que se modifican

con el paso del tiempo, sino que es más compleja y las relaciones

con otras áreas de conocimiento son lo que la convierten un

proyecto interesante.

Antecedentes al estudio de “la vida”

Desde la antigüedad, el hombre se ha preguntado cómo dar vida

(como en el mito hebreo del Golem). Los griegos aunque partiendo de

una cosmología muy distinta a la moderna, suponían que todo lo que

se movía era vida. En la mitología se describen personajes

artificiales que funcionan como hombres y cumplen con actividades

propias al hombre (“Pigmalión y Galatea” ii, las esclavas hechas de

oro y el gigante de metal hecho por Dédalo para el rey Minos). Por

otro lado ya se imitaba la realidad para fines lúdicos y religiosos con

autómatas [g] que reproducían la apariencia y el movimiento de seres

en estatuas, mascaras y animales (jardines de pájaros mecánicos del

palacio de Al-Muktadir, año 917 iii ) o mecanismos automáticos

utilizados por los sacerdotes egipcios para impresionar al pueblo

supersticioso. Los pueblos árabes refinaron los dispositivos para

fines prácticos (relojes, fuentes, dispensadores).

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

3344

Posteriormente, tras la quema de Giordano Bruno en 1600, y la

nueva ciencia de Galileo, Cópernico y Kepler nacía el subjetivismo,

acompañado de una serie de descubrimientos (telescopio,

microscopio, relojería). Con esta ruptura epistemológica, el mundo se

reducía a fórmulas matemáticas y la naturaleza se convierte en un

juguete mecánico. Las causas milagrosas eran reemplazadas por

causas físicas que consagran el modelo mecanicista. Descartes decía

“El individuo está dividido entre su espíritu y su cuerpo

simplemente conectados por la glándula pineal. El cuerpo está

descentrado del sujeto y asimilado a un esquema mecanicista.

Un autómata movido por un alma” […] “considero al hombre

como un reloj compuesto de engranes y contrapesos”iv.

Junto con él, filósofos como Pascal, Leibnitz y Malebranche

reflexionaban acerca de la relación mente-cuerpo. Descartes

elimina la noción clásica del alma como principio de vida y

movimiento, estableciendo el dualismo sustancial: los cuerpos se

rigen por causas mecánicas y son incapaces de pensar y el alma es

pensamiento puro y carece de extensión. Alma y cuerpo son dos

sustancias de naturaleza totalmente distinta, se encuentran

separados, y se comunican a través de la glándula pineal. Esta

teoría causaba un problema: ¿De qué manera las afecciones de uno

podían afectar al otro, cómo se comunicaban ambas sustancias? Los

filósofos racionalistas intentaron resolver ese problema. El

ocasionalismo de Malebranche pretendía que cada vez que se

produce un movimiento en el alma, Dios interviene para

corresponder el movimiento con el cuerpo. En el monismo de

Spinoza, extensión y pensamiento no son dos sustancias sino dos

atributos de una sustancia infinita: Dios o Naturaleza. Para Leibnitz

y su armonía preestablecida, Dios establece una perfecta armonía y

ambas sustancias funcionan como relojes sincronizados.

Durante el siglo XVIII, se

extendió la fascinación por los

autómatas, Pierre Jaquet Droz

(1721-1790) y Jacques de

Vaucanson (1709-1782) crean

autómatas (androides) que

reproducen las funciones

principales de la vida, (digestión,

circulación, respiración)

utilizando mecanismos de

relojería, hidráulicos, eólicos,

poleas, y algunos engaños que

fueron descubiertos más tarde.

//// iinn ssiilliiccoo

3355

El empirismo y el positivismo eliminaron el dualismo sustancial de

Descartes descartando la noción cartesiana de sustancia.

Los filósofos empiristas del siglo XVII y XVIII, rechazan la afirmación

cartesiana de que las leyes lógicas del pensamiento estén inscritas

en el pensamiento desde el nacimiento, recuperando la idea

aristotélica de que la mente no tiene ningún contenido inicial y que

todas las ideas, inclusive las leyes de pensamiento, se adquieren a

través de la experiencia, ya sea del mundo exterior o de los estados

internos. Para el positivismo, postura que dominó el pensamiento

europeo durante el siglo XIX, el único conocimiento es el que

proviene de los hechos y a través de la experiencia sensible. El

positivismo trata de extender el método de investigación de las

ciencias naturales al estudio de la mente humana, formulando leyes a

partir de hechos comprobables por la experiencia. Con ello, se abrió

el camino para el estudio de los fenómenos mentales utilizando la

metodología aplicada a los fenómenos físicos.

Más tarde apareció la termodinámica [g] y los organismos vivos se

entienden como máquinas que producen calor (queman glucosa,

glucógeno o almidón, grasas y proteínas y producen bióxido de

carbono, agua y urea). Después, durante el movimiento vitalista a

mediados del siglo XIX, aparece Frankenstein. Continúa la búsqueda

por entender la creación y funcionamiento de la vida, así como la

relación vida-mente. Es hasta 1815 que Lamarck instaura la biología

como “ la ciencia que engloba, todo lo que es generalmente común a

vegetales y animales, así como los atributos que son propios a cada

uno de esos seres sin excepción ”. Darwin cuestionó la separación

entre el hombre y el animal. El evolucionismo abre la posibilidad de

que los animales también tuvieran mente. Desde la biología, Mendel,

Morgan, Watson y Cricks contribuyen con los conceptos de la

evolución, la genética, los cromosomas y los ácidos nucleicos. De

esta manera, a partir de ver mas factible la comprensión formal y

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

3366

científica de la vida, la posibilidad de crear seres vivos y orgánicos

se hace latente.

Actualmente la ingeniería genética, la inteligencia artificial y la vida

artificial nos acercan más al objetivo, aunque aún de manera muy

rudimentaria. La vida artificial es el resultado de la integración de

varias disciplinas (informática, robótica, ingeniería genética,

bioquímica, ciencias cognitivas), y de una pregunta a lo largo de

2500 años. ¿Cómo crear vida?

//// iinn ssiilliiccoo

3377

1. En la ciencia

1.1. Orígenes de la biología como disciplina

Aunque la palabra “Biología” sólo tiene dos siglos, la pregunta “¿Qué

es la vida?” es más vieja. Para Aristóteles, es el “alma” lo que hace

que un ser esté vivo. Esta alma no es más que una forma, que juega

el papel de la causa final: una función. Para los materialistas como

Demócrito (y más tarde Epicuro y Lucrecio) la vida es un conjunto de

propiedades resultantes de la combinación de átomos materiales. Ahí

inicia el enfrentamiento entre materialistas y vitalistas. Descartes

con sus “animales-máquina”, cuyo problema (que no se reproducen,

ni reparan sólos) lleva a un nuevo impulso vitalista durante el siglo

de las luces, por ejemplo Diderot. En el siglo XIX, es la “fuerza vital”

de los biólogos o el “impulso vital” para filósofos como Bergsonv, lo

que se encarga de explicar fenómenos orgánicos así como teorías

acerca de la evolución.

La biología molecular se sitúa dentro del mecanicismo y el

materialismo. Explica lo vivo a través de la estructura físico-química

de sus elementos y sus interacciones.

De acuerdo a la enciclopedia Wikipedia

La Biología proviene del griego bios -vida- y logia -tratado.

Es una rama de las Ciencias Naturales que estudia la vida

desde todos los puntos de vista: tipos y características de los

seres vivos (zoología, botánica, microbiología, etc.); su

estructura y su funcionamiento (bioquímica, biología molecular,

celular, genética), sus relaciones con el entorno físico y

biológico (ecología) y la clasificación de las especiesvi

. La

biología estudia algunos "organismos", a pesar de que la

mayoría de los biólogos no los consideren seres vivos. Estos

son: virus, viroides, priones.

Para un biólogo, no existe una definición exacta de la vida, sino que

es una característica común a todos los seres vivos. Los fenómenos

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

3388

vitales o manifestaciones de vida son principalmente la asimilación o

transformación de elementos nutritivos en diversas sustancias, la

reproducción y la auto-reproducción, la reactividad, es decir, una

respuesta adaptada a estímulos y la homeostasis. La vida concluye

con la muerte.

Del latín vita, la “vida” es un concepto abstracto y por lo tanto difuso

y difícil de definir, es por esto que se suele definir en contraposición

a la no vida o lo inerte, aludiendo a las propiedades que los

diferencian.

La frontera entre lo vivo y lo no vivo tampoco es clara, existen

estructuras que no comparten todas las propiedades de la materia

viva, como son los virus.

Dar una definición de la vida sería más cercano a una descripción

intuitiva que a una ciencia exacta. Reconocemos si un objeto está

vivo al verlo. Pero ningún científico aceptaría una impresión tan

subjetiva.

//// iinn ssiilliiccoo

3399

1.2. ¿Qué es la vida?”

-Lo primero que llama la atención en los seres vivos es que se

mueven sólos- Así, Xenophano, filosofo griego del siglo 6 a.c.

proclama que las rocas magnéticas tienen alma.

(anónimo)

Ha habido varias definiciones que se han venido abajo. Algunos

ejemplos:

Vivo es aquello que goza de motricidad autónoma. Esta definición no

era suficientemente restrictiva, ya que fuego, agua, plantas y robots

cumplen con la característica.

Vivo es aquello que genera y consume calor. El fuego anulaba esta

definición.

Vivo es aquello que posee una integración entre sus órganos. Pero los

robots diseñados antropomorficamente imitan las estructuras de

interdependencia de los órganos para funcionar como un sistema.

Vivo es aquello capaz de reproducirse. La noción de reproducción

hace llamado a varios comentarios. Se aplica indistintamente a

bacterias, plantas o animales. Suelen utilizarse la mula o el ceburro,

como contraejemplo, pero esto es un error porque pertenecen a una

especie estéril, son individuos que descienden de padres distintos y

esto modifica el funcionamiento de los órganos reproductivos. La

“especie” se conserva sólo si continúa mezclándose con individuos

de la misma especie.

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

4400

Algunas definiciones más recientes:

(Definición fisiológica) Un organismo vivo es aquel capaz de llevar a

cabo funciones tales como comer, metabolizar, excretar, respirar,

moverse, crecer, reproducirse y responder a estímulos externos.

Sin embargo existen máquinas que cumplen muchas de ellas, y

bacterias quimiosintéticas [g] que no necesitan respirar.

(Definición metabólica) Un organismo vivo es aquel que intercambia

sustancias con el medio circundante sin alterarse, es decir, que puede

reconstruir su propia sustancia orgánica a partir de energía,

moléculas, o iones provenientes del medio ambiente.

(Definición bioquímica) Un organismo vivo contiene información

hereditaria reproducible codificada en los ácidos nucleicos los cuales

controlan el metabolismo celular a través de unas moléculas

(proteínas) llamadas enzimas que catalizan o inhiben las diferentes

reacciones biológicas.

Esta definición es de las más precisas, pero sólo incluye la vida a

base de carbón y excluye vida en químicas que no conocemos o en el

campo cibernético (hecho que aún no se demuestra)

(Definición genética) Un organismo vivo es todo sistema capaz de

evolucionar por selección natural. Muchos biólogos no aceptan esta

definición ya que incluye a los virus dentro de los seres vivos y esto

abriría la puerta a introducir algún virus informático polimórfico que

incluyera algún tipo de algoritmo de evolución darwiniana.

(Definición termodinámica) Un organismo vivo es aquel que constituye

un sistema de entropía [g]. Esta definición es la mejor y más completa

hasta ahora. Surge de la nueva y mejor comprensión del universo

que se ha tenido en este último siglo y se basa en el segundo

//// iinn ssiilliiccoo

4411

principio de la termodinámica: la entropía del universo, o desorden

del sistema, siempre aumenta. El aumento de orden en un sistema

vivo no incumple el principio ya que ello se hace siempre a expensas

de un incremento de entropía en el universo. Por lo tanto, la vida

formaría parte también de los llamados “sistemas complejos.”

Gracias a los trabajos de Ilya Prigogine la Biofísica proporciona una

comprensión general de los fenómenos de la vida a partir de los

procesos alejados del equilibrio. Desde estas teorías, la vida consiste

en mantenerse alejado del equilibrio termodinámico, es decir, en el

desorden máximo. Para ello, un sistema vivo debe ser capaz de

interactuar con su entorno para disipar la entropía que produce (a

esto se le llama sistema disipativo). La vida evoluciona desarrollando

formas infinitas de disipar la entropía. Dado que disipar entropía

significa producir desorden en el entorno, el principio de

supervivencia de Darwin, resulta ser una noción acertada del

principio de disipación de entropía.

Algunos otros aspectos a tomar en cuenta son la clonación y la

autopoiesis. [g]

La clonación (ej. “Dolly”), la fecundación in vitro, la generación de

bacterias, virus y vacunas son procesos sintéticos de elementos

orgánicos, por lo tanto es posible producir organismos. La vida

artificial por su lado, no pretende producir individuos orgánicos.

Podemos sin embargo definir un equivalente más abstracto de

“metabolismo”.

Esto es la idea de autopoiesis. El término proviene de las palabras

griegas auto y poïesis, que significan si-mismo y producción y

connota el objeto que posee la cualidad de crearse por si mismo,

mantener su estructura y regenerarse. La autopoiesis caracteriza

toda unidad construida por una organización de partes más o menos

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

4422

constante independientemente de los cambios del entorno. No

solamente su organización interna mantiene la unidad del conjunto,

sino también tiene la capacidad de recrear su propia estructura

dinámica a pesar de la influencia de circunstancias externas que

pudiesen arrastrar a su separación. Vemos que se trata allí de una

noción más abstracta que el metabolismo, ya que no se precisa

ninguna limitación en cuanto al tipo de materia que podría realizarlo.

Sin embargo el metabolismo puede estar considerado como un caso

particular de autopoiesis, ya que los sistemas digestivos y

respiratorios (pilares principales del metabolismo) cumplen

exactamente las funciones que se le atribuyen a la autopoiesis. En

efecto, podemos comprobar que los órganos de los seres vivos,

gracias a sus funciones metabólicas, satisfacen perfectamente la

condición previa.

La ventaja de la noción de autopoiesis reside justamente en que su

abstracción es mayor, y no excluye la posibilidad de una vida que no

sea orgánica. De hecho, el virus es un tipo de entidad que se sitúa al

margen de los seres vivos propiamente dichos, y que algunos

quieren incluir, mientras que otros lo excluyan de esta categoría.

Los biólogos aíslan las características propias a un ser vivo. La

estructura celular es una de ellas. Esto excluye los virus, seres de

estructura más sencilla y de tamaño menor a una célula. Además, los

virus son incapaces de reproducirse por si mismos, salvo a través de

una célula viva que infectan y cuya estructura utilizan para replicarse.

Los virus no tienen la capacidad de autopoiesis; están totalmente

privados de órganos de metabolismo. Un virus esencialmente

consiste en un trozo coherente de sustancia genética que contiene

las instrucciones necesarias para su propia duplicación. Pero al estar

privado del citoplasma que permite a la menor bacteria mantener su

estructura, no tiene ningún medio propio de asimilar la energía ni los

//// iinn ssiilliiccoo

4433

elementos del entorno que le rodean en su propia sustancia y debe

tomar del medio los recursos materiales y energéticos que necesita

para reproducirse. Por consiguiente, si se toma la definición que

acabamos de exponer, los virus quedan excluidos del dominio de los

seres vivos, aún así, son seres intermediarios entre los organismos

vivos y la materia inerte.

En conclusión, con principios necesarios pero no suficientes,

podemos decir que un organismo está vivo si hay intercambio de

materia y energía con el entorno, si se reproduce y evoluciona por

selección natural, si el sistema es capaz de auto-organizarse sin ser

programado.

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

4444

1.3. La noción de “evolución” en la ciencia moderna

Antes de Lamarck y Darwin, existía el fijismo, es decir, se pensaba

que la vida no cambiaba ni desaparecía, hasta que el Baron Cuvier

encontró esqueletos de animales desconocidos, y aceptó la

“extinción” pero no la evolución. Hasta el siglo XIX, se sostenía la

teoría creacionista que consideraba que por “acto divino” la Tierra

se había creado 6000 años atrás tal como se le conocía actualmente.

La teoría fue sustituida por la hipótesis naturalista, que explica que

la vida se creó a partir de materia inorgánica. Una de las teorías que

explican el proceso es la teoría de Oparín (1950) y Miller (1953) la

demostró en un experimento que consistía en aplicar corrientes de

60.000 volts en un recipiente que contenía los gases que formaban la

atmósfera hace 3.000 millones de años (metano, amoníaco gaseoso,

vapor de agua e hidrógeno). Poco a poco se formaron varios

componentes orgánicos, especialmente aminoácidos, fundamentales

en los organismos vivos. Luego se comprobó que cuando la luz

ultravioleta actúa sobre una mezcla de anhídrido carbónico y

amoníaco, se forman substancias orgánicas: azúcares, otros

materiales que constituyen las proteínas. En ese periodo, la capa de

ozono que bloquea gran parte de la luz ultravioleta era inexistente. A

partir del experimento se dedujo que la combinación daba una

molécula imperfecta pero que se duplicaba. Esto generó diversas

versiones de la molécula y mediante un proceso de selección y

supervivencia se duplicaron las moléculas con mejores cambios: las

que favorecían la duplicación y la resistencia al ambiente. Así se

fueron formando compuestos cada vez más complejos. Esta teoría

fue introducida por Darwin y es conocida como selección natural.

Esta se basa en que ciertos animales son más aptos para sobrevivir.

Para Darwin, dado que tenían más posibilidad de sobrevivir los más

fuertes, rápidos, y ágiles, son por lo tanto los que se reproducirían

heredando sus características genéticas a sus descendientes. Y así

//// iinn ssiilliiccoo

4455

por sucesivas mutaciones genéticas, los descendientes serían más

aptos que los ancestros. A diferencia de Darwin, Lamarck pensaba

que si el ancestro se fortalecía durante su vida, los descendientes

heredarían esa fortaleza.

Actualmente la ciencia apunta hacía la auto-organización, a partir de

una molécula, ésta podría auto-organizarse de tal manera que se

cree un ser vivo. La molécula de hemoglobina es un ejemplo de la

auto-organización. Consiste en una proteína que se dobla sobre un

átomo de hierro para poder atraer un átomo de oxigeno. No hay duda

de la evolución de materia inanimada en organismos complejos. Los

comportamientos no predecibles desde la situación inicial son

conocidos como comportamientos emergentes. Existen programas de

cómputo previstos para demostrar esto, dado que los

comportamientos emergentes son fenómenos naturales en los

sistemas complejos, puede simularse una situación inicial con

autómatas celulares.

Por otro lado en la ciencia actual se ha redefinido el concepto de

evolución propuesto por Darwin, Lamarck, y otros. D’Arcy

Thompsonvii, zoólogo de principios del siglo XX, pensaba que eran las

fuerzas físicas las que modifican la estructura ósea y la morfología

general de los seres para adaptarlos a su ambiente.

Desde el punto de vista de la termodinámica, la evolución se

complejiza como consecuencia de restricciones, progresando por

saltos de manera imprevisible. Dada la complejidad de la naturaleza

su compresión total parece imposible. Aun más si aceptamos la

hipótesis del “equilibrio puntuado” de Stephen J. Gould, según la cual

el azar acumulativo es capaz de crear nuevas especies en algunas

decenas de miles de años.

Intrínsecamente, la teoría de Darwin, aún ligada a la teoría de

Mendel es imprecisa. Si encontráramos vida extraterrestre, la teoría

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

4466

de Darwin explicaría únicamente su existencia, por medio de su

suficiente adaptabilidad al medio, pero no podría prever hacía donde

evolucionaría. No pudiendo explicar este hecho, el neodarwinismo

aparece como alternativa a falta de una mejor teoría, no pudiendo

más que predecir la aparición de una variedad “si las condiciones lo

permiten”. Pero, como sentencia Popper: “decir que una especie

esta adaptada a su entorno es casi una tautología.” Y de seguir, la

pregunta fundamental consiste en saber “¿cómo medir el éxito

efectivo de un esfuerzo por sobrevivir? La posibilidad de probar una

teoría tan débil es casi nula”

De hecho, sólo una teoría permite reconstituir las relaciones

causales de los procesos. Si nos volteamos hacía la teoría de los

grandes números, de los fenómenos de masa, la teoría de Darwin

tiene un valor universal ya que predice la variación de las especies y

la mínima cantidad de mutaciones accidentales. Explica

perfectamente la lenta evolución de los organismos, y en cambio, le

es imposible predecir la evolución de un cambio en particular, ya que

esto depende del azar. Queda por saber cuando la vida emergerá,

qué diferencia una estructura física, un robot por ejemplo, de un

organismo que se desarrolla por selección natural. Si un biólogo

responde que un organismo vivo resuelve problemas, el cibernético

puede refutar su argumento recordando los robots adaptados a

ambientes hostiles.

Queda entonces el problema de la reproducción y la variación de las

especies, propia a los organismos vivos. Esta “fuerza vital”,

inherente a la vida y que depende de una selección de tipo

darwiniana, marcaría su preferencia por organismos dispuestos a

evolucionar, capaces de tener conciencia a fin de cuentas. Es el

“principio interior de perfeccionamiento" u “ortogénesis” retomado

por el botánico suizo Kart von Nägeli en 1884. Ortogénesis y

Neolamarckismo terminaron por desaparecer ya que no podían

//// iinn ssiilliiccoo

4477

implementar los resultados de la genética desarrollados por Mendel

en 1865.

El paradigma que hoy conocemos como Teoría Sintética de la

Evolución fue establecido en los años cuarenta en una reunión en la

Universidad de Princeton por notables evolucionistas. Integra en una

teoría el Darwinismo con los principios de Herencia de Mendel y con

modelos matemáticos que describen los cambios por selección

natural de las frecuencias de los genes. Esta teoría consiste en la

evolución por selección natural y cambios adaptativos graduales.

Para Stephen Jay Gould la ausencia de etapas intermedias en los

fósiles conocidos no son como pensaba Darwin una imperfección en

el registro, sino un dato real, evidencia de saltos en la naturaleza,

pensando específicamente en el origen de nuevas especies. La

interpretación revolucionaria del paleontólogo consistió en que las

especies se originan y permanecen inalteradas durante largos

periodos hasta que se originan nuevas especies con cambios cortos

y rápidos. Este modelo de "Equilibrio discontinuo o puntuado"

(Punctuated Equilibrium) permitió incorporar nuevos modelos de

procesos evolutivos que destacaban, por ejemplo, el papel

fundamental del azar.

Para Gould existe una tendencia estadística que obliga a las especies

más simples a diversificarse o "efecto de desagüe", que conduce

siempre a un ser arrinconado contra una pared, a dirigirse al

desagüe, independientemente de las tendencias. En Full House,

Gould pone en duda la noción de progreso en la evolución

proponiendo la tendencia actual de la biología. Muestra la

imposibilidad de interpretar correctamente la evolución de todo

fenómeno si no se toma en consideración todo el abanico de sus

variaciones. Así, reducir la historia de la vida a la de los organismos

más complejos es desconocer gravemente la naturaleza misma de la

teoría de la evolución, y el alcance radical de la visión darwiniana.

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

4488

En esta visión holista de la vida el ser humano no goza de ningún

estatuto privilegiado, es la forma de vida dominante sobre la Tierra y

posiblemente en otro lugar lo son las bacterias. La aparición de una

vida inteligente y conciente no era necesaria ni previsible. Lejos de

decepcionarnos, ésta contingencia de la existencia humana revelada

por la ciencia, sólo realza su grandeza.

Actualmente, con los trabajos de Ilya Prigogine, los biólogos

contemporáneos consideran a los seres vivos como “estructuras

disipativas” y les aplican las leyes de la termodinámica. Esta visión

neodarwinista parece prometedora, se aleja del esquema de

reduccionismo tradicional para orientarse hacia un concepto holista y

dinámico: la co-evolución.

El otro pedestal de la biología moderna es Richard Dawkins. En 1976,

por primera vez se planteó la manera de extender la teoría

darwiniana a los fenómenos culturales. Esto constituye el avance

teórico más importante de la biología del siglo XX. Para ello el

biólogo inventó el termino “meme” como analogía cultural al “gen”.

Los memes son la unidad mínima de información cultural y se

transmite socialmente, mientras que los genes son la unidad mínima

de información biológica y se transmiten genéticamente. Los memes

son ideas, conocimientos, costumbres, valores, estereotipos, etc. Se

almacenan en conexiones neuronales de los cerebros de los seres

vivos y son capaces de reproducirse a otros cerebros a través de la

comunicación oral, libros o televisión). Los memes son todo lo

imitado. Luchan para reproducirse con éxito y, así, evolucionar y

perdurar. A esto se le llama imitación selectiva. Los memes se

propagan a través del hombre como un virus ya sea biológico o

informático. En su último libro River Out of Eden el autor presenta

una teoría unificada de la evolución, argumentando que la vida en sus

entrañas no es más que un proceso de transferencia de información

digital.

//// iinn ssiilliiccoo

4499

2. Historia y fundamentos de la vida artificial

“In silico” es un sistema de vida artificial, en el que varios

organismos conviven en un ambiente y se afectan. Pero para

entender las condiciones con las que se comporta es necesario saber

qué es la vida artificial.

Existen dos hipótesis alrededor de la vida artificial (VA o Alife). La

primera, la hipótesis fuerte, plantea una definición más amplia de

vida. Ésta es información y auto-organización y puede tomar forma

en una química a base de carbono (wet life o in vitro), a base de

silicio (in silico), es decir, a nivel de un programa computacional, en

sistemas tecnológicos (robots), o en cualquier otro material. En esta

se considera que la vida es un proceso que puede ser abstraído de

cualquier medio”. Steven Levy [5] recordando a Farmer explica que

esas creaciones se entienden como algo “vivo bajo cualquier

definición razonable del término”.

En este sentido Tom Ray [ 6 ] declaró en torno a su programa

“Tierra”, que no simulaba vida, que la sintetizaba.

La hipótesis débil plantea que las creaciones no son más que simples

simulaciones de la vida real y cuya meta se centra en proveer de

información para una mejor comprensión de la vida “real”.

En los años cuarenta del siglo XX, Alan Turing dió inicio a las

investigaciones de inteligencia artificial cuando después de haber

trabajado en los sistemas de criptografía británicos durante la

segunda guerra mundial se enfocó a la comparación del poder de

cómputo de una máquina frente al de un cerebro humano. Esto se

reflejó en la “prueba de Turing”. Está fundamentada en la hipótesis

[5] Autor de Artificial Life: the frontier where technology meets biology (1993)

[6] “Tierra” de los primeros programas de cómputo en la intersección del arte y la tecnología.

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

5500

positivista de que, si una máquina se comporta en todos los aspectos

como inteligente, entonces debe ser inteligente.

La prueba consiste en un desafío. Si una máquina tiene una

conversación con un hombre, a través de una comunicación de texto,

sin que a este se le avise si está hablando con una máquina o una

persona y el sujeto es incapaz de determinar si la otra parte de la

comunicación es humana o máquina, entonces se considera que la

máquina ha alcanzado un determinado nivel de madurez: es

inteligente.

La “Sala China” es un experimento mental, propuesto originalmente

por John Searle y popularizada por Roger Penrose, con el que se

trata de rebatir la validez de la prueba de Turing.

La “Sala China” consiste en lo siguiente:

Supongamos una sala completamente aislada del exterior, salvo por

algún sistema (como una ranura) por el que se pueden hacer entrar y

salir textos escritos en chino. En la sala hay una persona que no

sabe chino pero está equipada con una serie de manuales que indican

las reglas que relacionan los caracteres chinos (por ejemplo "Si

entran ciertos caracteres, escribe tales otros"). De manera que la

persona que manipula los textos es capaz de responder a cualquier

texto en chino que se le introduzca, y hacer creer a un observador

externo que entiende el chino.

Las preguntas son:

¿La persona en la sala entiende chino?

¿Los manuales entienden chino?

¿Es “la sala” en conjunto la que entiende chino?

De acuerdo con Searle los defensores de la IA deben admitir que la

sala comprende el idioma chino o bien el pasar la prueba de Turing

no es prueba suficiente de inteligencia.

//// iinn ssiilliiccoo

5511

La prueba de Turing se publicó en 1950 en el artículo "Computing

Machinery and Intelligence", convirtiendose en uno de las piezas

fundamentales de la inteligencia artificial y de la filosofía.

Posteriormente John von Neumann (1903-1957) a quien se

reconoce como el “padre de la Vida Artificial” se interesó en el

problema de la auto-reproducción, se preguntaba si una máquina

artificial podría producir una copia de sí misma capaz a su vez de

crear más copias. Tiempo después con el desarrollo de la

computación, emergieron varios grupos interesados en el campo de

la VA.

Aunque varios grupos de investigadores estudiaban el campo de VA

la primera aplicación popular de vida artificial fue en 1970 con el

programa “The Game of Life” de John Conway. El programa

introdujo masivamente el concepto de “autómatas celulares” que

hasta ese momento se entendía únicamente de manera teórica.

En septiembre de 1987 Christopher Langton organizó la primera

conferencia sobre Vida Artificial en Los Alamos, Nuevo México.

Participaron más de un centenar de personas interesadas en el tema.

Desde entonces los eventos y aplicaciones se han multiplicado.

La biología pretende estudiar la “vida”, pero estrictamente hablando

sólo estudia los seres vivos basados en la química de carbono

presentes en la tierra. En principio, no hay nada que impida la

existencia de seres a base de otro tipo de química. Pero a falta de

ejemplos reales la biología teórica no puede deducir principios

generales. No existen otros ejemplos con que compararnos para

saber cuales son las características fundamentales de la vida y

cuales las accesorias.

Alan Turing

John Von Neumann

Christopher Langton

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

5522

La Vida Artificial estudia la “vida natural” trasladando fenómenos

biológicos a la computadora u otros medios artificiales así como

simulando estructuras sociales para entender como se relacionan los

seres vivos.

Algunos problemas fundamentales que abordan los estudiosos de la

Vida Artificial son: la definición de “vida” y de sistema vivo,

sistemas autoorganizados, Algoritmos genéticos, autorreplicación,

cómputo evolutivo, aprendizaje evolutivo, adaptación, dinámica de

sistemas complejos.

Del primer congreso sobre vida artificial se pueden extraer algunas

conclusiones fundamentales.

ß Alife es la biología de lo posible, se ocupa de las alternativas a

la “vida tal como la conocemos” (life-as-we-know) presentando

formas de “vida como podría ser” (life-as-it-could-be)

ß La VA sintetiza procesos vitales a diferencia de la biología

clásica que se centra en el análisis de los mismos.

ß La similitud que existe entre organismos vivos reales y

artificiales consiste en que la conducta y organización de las

comunidades es la misma, lo que los distingue son los elementos

que constituyen estos organismos. Unos son orgánicos, naturales

y otros son sintéticos, inorgánicos (procesador de computadora a

base de silicio).

ß La vida es el conjunto de procesos que ejecutan los seres, no se

reduce únicamente al material que constituye esos seres. La VA

muestra la lógica que gobierna los procesos. La vida es un

sistema complejo.

//// iinn ssiilliiccoo

5533

La VA, como todo sistema complejo cumple con varias

características:

- Unidades simples con interacción local.

- Procesamiento en paralelo

- Aparición de comportamientos emergentes

El “Juego de la vida” de Conway

El juego de la vida no es un simple juego, es un autómata celular,

consiste en una colección de celdas y reglas. Si la celda está

ocupada por un punto, esto quiere decir que su estado es “viva”. Si

la celda está vacía está “muerta”. En función de las reglas puede

vivir, morir, o multiplicarse. Dependiendo de la configuración inicial,

las celdas pueden crear patrones diversos a lo largo del tiempo.

Las reglas son:

Para un espacio “poblado”:

- Cada celda con uno o ningún vecino muere, “como por soledad”

- Cada celda con cuatro o mas vecinos muere, “por sobrepoblación”

- Cada celda con dos o tres vecinos sobrevive.

Para un espacio vacío o “despoblado”:

- Cada celda con tres vecinos será poblada.

El juego de la vida http://www.bitstorm.org/gameoflife/

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

5544

Los autómatas celulares así como las redes neuronales se inspiraron

desde el inicio en la observación de la actividad del cerebro humano,

de los organismos vivos y su manera de procesar la información, de

la organización de las sociedades y de eventos en la naturaleza. La

naturaleza está llena de ejemplos y situaciones en que ciertos

elementos interactúan localmente para producir comportamientos

globales, como la propagación de un gas o la organización

“espontánea” de un evento social. Se habla entonces de sistemas

complejos ya sea físicos, biológicos, o sociales.

//// iinn ssiilliiccoo

5555

3. Sistemas Complejos

Definamos primero qué es un sistema y qué es un sistema complejo.

Un sistema es un conjunto de elementos organizados que interactúan

entre sí y con su ambiente para lograr objetivos comunes, operando

sobre información, energía o materia u organismos para producir

información, energía, materia u organismos. Un sistema cerrado no

hace intercambios con el medio ambiente. (Wikipedia) Una máquina

puede ser un sistema y formar parte de un sistema más grande. Un

sistema complejo, posee más información que la que da cada parte

independientemente. Para describir un sistema complejo hace falta

no sólo conocer el funcionamiento de las partes sino conocer cómo

se relacionan entre sí, también existen variables indeterminadas

cuyo desconocimiento nos impide analizar el sistema con precisión,

es un sistema abierto. Algunas características son: el todo es más

que la suma de las partes, comportamiento difícilmente predecible,

emergencia de un sistema, son sistemas fuera del equilibrio,

autoorganización, las interrelaciones están regidas por ecuaciones

no-lineales, es un sistema abierto y disipativo, es un sistema

adaptativo.

Un sistema autopoïetico (definido como una unidad) está

organizado como una red de procesos de producción

(transformación y destrucción) de componentes que producen

componentes: 1. que a través de sus interacciones y

transformaciones constantemente regeneradas y realizan las

redes de procesos (relaciones) que las producen y 2. que la

constituyen (a la máquina) como una unidad concreta en el

espacio en el que habitan, especificando el dominio topológico

de su realización como red. (Varela, Principles of Biological Autonomy, NorthHolland, NY,1979)

La “Complejidad” no es exactamente lo mismo para computólogos,

biólogos, sociólogos, economistas, etc. Varios autores han dado su

propia definición dirigida a un área específica. (Christopher Langton

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

5566

la define como la ciencia que trata de describir los sistemas que se

encuentran en el “borde del caos”.)

Las ciencias de la complejidad son un conjunto de herramientas y

métodos concebidos para analizar, modelar y simular sistemas

dinámicos complejos para entenderlos mejor y predecir su

comportamiento. Un sistema complejo es un sistema compuesto de

un gran número de elementos (a veces idénticos) que interactúan

localmente y dan lugar a un comportamiento global. No puede ser

explicado con el análisis por separado de los elementos o con las

propiedades de un sólo individuo, sino como resultado de las

interacciones de un colectivo. Modelar y simular un sistema

complejo permite probar distintos escenarios, lo cual permite

descubrir nuevas reglas de funcionamiento del sistema y la manera

en que reacciona a perturbaciones. Pequeñas modificaciones locales

pueden tener un impacto importante a nivel global.

El cerebro, una computadora, una colonia de hormigas, un sistema

social o económico son algunos ejemplos de “sistemas complejos”.

El hormiguero es el ejemplo más común. Esta formado por miles de

hormigas mas o menos idénticas. Cada una interactúa con las

hormigas que la rodean y desconoce lo que sucede con las que están

más alejadas. No las organiza un administrador de tareas, un capataz

o un grupo de individuos que decidan lo que deben hacer las demás.

La organización global se da por las relaciones locales. En

computación, en un sistema complejo, se utilizan autómatas celulares

(o agentes) para simular a los individuos idénticos de una sociedad.

Un “sistema complejo” se caracteriza por:

- Gran número de individuos (idénticos)

- Interacción local.

- Comportamiento emergente.

//// iinn ssiilliiccoo

5577

En cómputo, un sistema se modela con autómatas celulares,

autorreplicación, e inteligencia colectiva entre elementos.

a. Autómatas Celulares

Un autómata celular (AC) es un programa que ejecuta una tarea local

específica. Un AC es un modelo formal compuesto por un conjunto

de celdas, células, entes o agentes, cada una tiene un sólo estado a

la vez: activada o desactivada, que varía en función de las celdas

vecinas. En un sistema compuesto por AC se evidencia el

comportamiento emergente que puede producirse. Los AC han sido

utilizados y redefinidos muchas veces desde distintas áreas. En

matemáticas forman parte de la dinámica topológica, en ingeniería

son matrices con secuencias iterativas.

El ejemplo más simple, en el caso del “juego” de Conway, es el de

tres celdas formando una línea. Cada celda comprueba el estado de

sus vecinas y en función de este “deduce” su estado siguiente.

Con reglas distintas surgen universos y patrones distintos:

Las celdas de AC, pueden estar colocadas en una dimensión (en

línea), en dos (en una retícula en un plano), o cubriendo un espacio

tridimensional. En una línea las vecinas más próximas son izquierda

y derecha. En un plano, las ocho vecinas inmediatas son las celdas

situadas al N, NE, E, SE, S, SO, O y NO. A estos rangos se les llama

radio de vecindad. En tres dimensiones, el rango se amplía a un

tercer eje con 26 celdas inmediatas. Cuando el número de celdas es

finito, los bordes deben manejarse escogiendo la condición de bordes

absorbentes o de bordes periódicos. En el primer caso las celdas de

los bordes no tienen vecinos más allá de los límites de la retícula en

el segundo las celdas opuestas se consideran vecinas, de modo que

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

5588

una línea recta se convierte en un circulo y un plano se convierte en

un toro (una dona).

El primer AC, en los años cuarenta, se debe a von Neumann, quien

buscaba definir una estructura capaz de auto-replicarse, similar a los

organismos biológicos. Al mismo tiempo, pero sin tanto impacto, el

ingeniero alemán Konrad Zuse desarrollaba otro concepto de AC,

enfocándose en la construcción de modelos digitales de la Mecánica.

Pronto nacieron las redes neuronales. McCulloch y Pitts observaron

que dado que el cerebro es un conjunto de células (neuronas)

interconectadas, los modelos formales podrían utilizarse para

describir la actividad cerebral. La primera aplicación (1959) fue por

parte de F. Rosenblatt quien inventó el Perceptron, una arquitectura

de red simple con una regla de aprendizaje asociada. Este era capaz

de reconocer patrones gráficos. En los años sesenta John Holland

empezó a aplicar los AC a problemas de optimización, convirtiéndose

en el fundador de los algoritmos genéticos.

En 1970 apareció en la revista Scientific American un artículo acerca

de “el juego de la vida” del matemático de Cambridge John Conway

[7].

Este programa modela el desarrollo de una población en función de

ciertas reglas preestablecidas, por ejemplo: un habitante (un punto

en una celda) muere si no tiene dos o tres vecinos en las celdas

vecinas inmediatas. En los años ochenta, fue el apogeo de estos

modelos y se popularizaron las investigaciones y aplicaciones de

inteligencia artificial, reconocimiento de patrones o discriminación de

señales, aprendizaje. La ciencia se vio favorecida con simulaciones

de procesos macroscópicos a una escala tangible. Los simuladores

de AC son capaces de actualizar millones de generaciones en un

tiempo muy corto. Por lo tanto se utilizaron mucho para modelos en

física, en particular en dinámica de fluidos. Una de las ramas en que

[7] http://ddi.cs.uni-potsdam.de/HyFISCH/Produzieren/lis_projekt/proj_gamelife/ConwayScientificAmerican.htm

//// iinn ssiilliiccoo

5599

más se han desarrollado los AC, es en sistemas dinámicos, en la

aparición de fenómenos colectivos, caos y fractales.

Desde el surgimiento en los años sesenta de las primeras

computadoras, el hombre sueña con crear sistemas capaces de

convivir con él, con crear un ente con el que pueda dialogar,

interactuar, un ente que reaccione como lo haría otro hombre. De

esta manera surgen la inteligencia artificial y una de sus ramas: la

vida artificial.

b. Autorreplicación

Los AC son estructuras autoreplicantes. Von Neumann consideraba

que una característica fundamental de los seres vivos era la

capacidad de auto-reproducción. Las máquinas pueden producir

estructuras sencillas, mientras que los seres vivos son capaces de

producir sistemas casi tan complejos como ellos mismos. En la época

de Von Neumann aún no se habían desarrollado las teorías del ADN

de las células sin embargo él propuso mecanismos de auto-

reproducción en el código de los autómatas, captando los

fundamentos de la reproducción celular.

c. Inteligencia Colectiva: Sistemas multiagentes

Los sistemas de Inteligencia Artificial (IA) ponen en ejecución

conocimientos de sentido común o especializados y los explotan en

mecanismos de raciocinio, es decir, en sistemas deductivos a base

de conocimiento. El fundamento de esta aproximación de IA es la

posibilidad de representar el saber en diferentes tipos de lógica.

//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa

6600

Otro aspecto de la inteligencia a base de conocimientos es el de la

inteligencia colectiva. Esta consiste en suscitar un comportamiento

inteligente de manera emergente por cooperación entre un conjunto

de entidades (agentes) con autonomía y tareas propias. Estos

agentes pueden ser dotados de una capacidad cognoscitiva, de

conocimientos previos y de mecanismos de raciocinio. En este caso

hablamos de “sistema multiagentes”.

En los sistemas multiagentes cada agente tiene un comportamiento

puramente reactivo y aunque está desprovisto de inteligencia,

emerge un comportamiento inteligente que resulta de la pertinencia

de los intercambios entre agentes. Estos sistemas permiten, por

ejemplo, modelar la construcción de un nido de termitas o

comportamientos distribuidos para lograr un fin de manera colectiva.

HAL en la película de Stanley Kubrick

“2001, odisea del espacio”

//// iinn ssiilliiccoo

6611

A manera de conclusión y retomando los términos vistos en este

capítulo: El proyecto “in silico” es un sistema de vida artificial (a-

life en software) cuyos elementos básicos, es decir, los individuos

que lo conforman, son agentes con reglas. Por lo tanto es un sistema

multiagentes. No es sólo el entorno o sólo los individuos, sino las

relaciones entre los elementos que lo hacen un sistema vivo,

dinámico. Aunque simple, cumple con las características de un

sistema vivo. Todo funciona en base a reglas: los individuos

pertenecen a cuatro familias distintas con reglas generales de

interacción entre ellas y cada familia posee reglas determinadas de

crecimiento. Así mismo, están previstos los trozos de código que

generan las variaciones y cuales son las reglas de la variación. El

código de los individuos fue creado utilizando las formas que según

D’Arcy Thompson son recurrentes en la naturaleza: curvas,

autorepetición, bifurcaciones, simetría y estabilidad. La pieza es un

sistema complejo dado que a través de las mismas reglas que rigen a

los agentes el comportamiento local genera un comportamiento

global. Por último, respondiendo a las hipótesis de la vida artificial,

cuyas premisas son ya sea imitar o crear, es decir, simular o

sintetizar la vida, “in silico” se encuentra entre las dos. Es un

sistema simple con pocos elementos que aún así crea un ambiente en

el cual la vida y las relaciones entre sus habitantes están presentes.

No imita ni simula una situación real sino que crea su propio ámbito.

Adoptando la postura que la vida artificial es la biología de lo posible,

los individuos que habitan el sistema bien podrían existir. Cumplen

con características comunes a los seres vivos y se comportan como

tales, logrando la actitud esperada en el espectador -especialmente

en científicos- reconocer a estas criaturas como posiblemente reales,

pero desconocidas.

6633

IV. La noción “artificial” en el arte electrónico

En esta sección se revisarán los distintos medios que utiliza el arte

que trata problemáticas de vida e inteligencia artificiales.

Posteriormente se hará un análisis sobre cómo abordar el problema

de lo artificial, proponiendo las categorías “lo artificial como tema”

y sus particularidades: la replica y la sobrenaturaleza; y “lo artificial

como medio”, con su particularidad: el proceso. También se

analizarán piezas híbridas, que inician en una categoría y detonan la

segunda.

Una preocupación importante en la historia del arte fue, y sigue

siendo, la representación física y emocional del hombre y de la

naturaleza. Hoy en día, se utilizan tecnologías y artefactos para

abordar esa misma preocupación, se sigue buscando mostrar cómo

se ven la naturaleza y la vida, pero también la manera en que

funcionan. Esta última inquietud había estado restringida a la ciencia,

pero dado que el arte contemporáneo cada vez es más cercano a

utilizar los mismos recursos que la ciencia, la búsqueda por

responder a esta inquietud se expande al campo del arte. Por

ejemplo en el caso del cómputo, dado que fue creado análogo a la

mente humana, el artista electrónico no quiere únicamente utilizarlo

superficialmente, sino intervenir en sus procesos para explorar y

entender los procesos de la vida y la mente. Por otro lado, es

necesario tener un conocimiento que rebasa el ámbito de la simple

utilización de las tecnologías como herramientas, si queremos ir más

allá de la tecnología como herramienta. Por ultimo, un tema de

reflexión que emerge naturalmente de esta relación del artista

digital con la máquina, es la noción de artificialidad, ya que al crear

piezas cuyo funcionamiento imita la naturaleza, se ponen en duda

los limites entre lo artificial y lo natural y sus significados.

La categorización que se propone en

este capítulo se construyó en conjunto

con Liliana Quintero del Centro

Multimedia del CENART.

6644

Aquí analizaremos piezas que a través de distintos medios tratan la

noción de “artificial”.

Los medios son diversos. Pueden ser inorgánicos si son sistemas

robóticos y/o computacionales, llamados de hardware o de software.

Pueden ser mecánicos, electrónicos, o electromecánicos. Pueden

estar controlados por sensores o por una computadora que lo

controla desde software, es decir, un programa computacional

creado para ese objetivo particular. El programa puede recoger

información de sensores, de variables determinadas, de un público

que se convierte en usuario de la obra, del ambiente o de internet.

Muchas veces las piezas son simulaciones. Toman elementos que

caracterizan una situación y la recrean en otro medio obteniendo así

una situación cuyas variables pueden controlar, o al contrario, crear

una situación y esperar para ver de que manera se desarrolla. Estas

piezas suelen utilizar recursos de vida artificial o inteligencia

artificial para establecer la relación pieza-entorno.

Aunque en la ciencia la vida artificial orgánica es un área más común,

existen pocas piezas artísticas orgánicas. El artista que más ha

utilizado este medio involucrándose en los procesos es Eduardo Kac,

quien propone piezas de modificación celular, pero cuyo resultado se

muestra tanto a nivel celular como animal.

Los proyectos alrededor de vida e inteligencia artificial suelen

requerir recursos y conocimientos de distintas ciencias: matemáticas,

física, biología, lógica, ciencias cognitivas, ciencias computacionales.

Estas disciplinas se utilizan desde un aspecto teórico y cuando el

proyecto involucra conocimientos de ingeniería puede lograrse con

el apoyo de un pequeño equipo de gente y sin recursos excesivos.

La razón por la que las propuestas orgánicas son pocas, es que

suelen requerir de un perfil científico más especializado y el apoyo

de un laboratorio.

//// iinn ssiilliiccoo

6655

Existen varios acercamientos del arte frente al problema de lo

artificial.

Uno de ellos sería tratar lo artificial como tema:

En estas piezas hay elementos comunes. Como la creación de un

mundo, abriendo la posibilidad a un usuario de crear seres dentro de

los parámetros definidos. Comúnmente el objetivo es crear una

plataforma donde el usuario puede generar organismos con su propia

combinación de cuerpo, cabeza y miembros. Eso sucede en las

piezas Technosphere de Jane Prophet, Iconica de Troy Innocent o

Life Spacies II de Christa Sommerer y Laurent Mignonneau.

“Life Spacies” trata de un entorno de vida artificial en el que pueden

interactuar entre sí los visitantes remotos, por Internet, y visitantes

de la instalación en el propio museo, a través de formas e imágenes

en evolución. En la página web "Life Spacies II", personas de todo el

mundo interactúan con el sistema basta escribir y enviar un mensaje

por correo electrónico para crear una criatura artificial propia. Este

proyecto cuenta con un sistema que permite utilizar texto escrito

como código genético y traducirlo en seres visuales en una analogía

al código genético de la naturaleza. Se utilizan letras, sintaxis y

secuenciación del texto para codificar determinados parámetros en

el diseño de la criatura como forma, color, textura y el número de

cuerpos y miembros.

//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee

6666

“Technosphere” es un mundo modelado tridimensionalmente

habitado por formas de vida creadas por usuarios en internet. En el

mundo hay cientos de criaturas compitiendo para sobrevivir. Comen,

luchan, se unen y crean descendencia, evolucionan y se adaptan al

entorno. Cuando el usuario crea una criatura ésta le envía

periódicamente un correo electrónico informándole de los sucesos en

el mundo. La criatura posee herramientas con las que el usuario

puede averiguar cómo está sobreviviendo, qué está haciendo en ese

momento y en qué zona del terreno se encuentra.

Estas piezas suelen darle gran importancia a la apariencia, son

piezas visuales y agradables y la interacción con seres de nuestra

propia creación en un mundo imaginario enfatiza un aspecto lúdico.

Este tipo de obras se sitúa a nivel de la simulación de un mundo, por

lo tanto comprende la vida como un sistema cerrado. Se crea un

entorno definido y se puede jugar con los elementos deterministas

que lo construyen.

Es importante resaltar el carácter antropocéntrico, típicamente

moderno en el que se pretende, crear, controlar y manipular, pero

todo dentro de un mundo definido y delimitado, en el que no es

posible la generación de comportamientos emergentes.

“Icónica” de Troy Innocent funciona de la misma manera pero

involucra códigos culturales que enriquecen la evolución del sistema.

//// iinn ssiilliiccoo

6677

Muchas de estas piezas tienen el sentido de “réplica”.

En este caso se retoman elementos que caracterizan lo vivo y se

construye una metáfora de ellos. Se trata de recrear la naturaleza,

los artefactos surgen de imitarla.

La búsqueda por replicar se ha tratado desde la antigüedad de la

misma manera, con la intención de imitar lo vivo o lo natural pero

con distintos fundamentos. En la antigüedad el fundamento era la

religión o la magia, mientras que desde la modernidad hasta hoy, es

a partir de la nueva ciencia y de la razón.

La pretensión de entender la naturaleza recreándola se mantiene.

Es decir, se toman las propiedades que la caracterizan, se utilizan en

un artefacto para de esta manera lograr la apariencia de un ente

natural. Esta visión la encontramos en los autómatas hidráulicos de la

antigüedad, en los karakuri japoneses del siglo XV, en los autómatas

europeos con mecanismos de relojería del siglo XVII y XVIII y en los

animatronics de hoy.

El caso de la escultura robótica “Senster” es un parteaguas, inicia

con la intención de simulación y de aparentar lo natural y termina

poniendo sobre la mesa el fundamento de las piezas complejas.

El Senster se creó en 1970 para la compañía de electrónica Phillips

en el marco de la exposición tecnológica “Evoluon”. Es de las

primeras esculturas robóticas que funcionan con una computadora.

Este ente electromecánico reaccionaba al ruido y al movimiento

acercándose al público. Ruidos fuertes o movimiento bruscos lo

intimidaban. La acústica del espacio y el impredecible

comportamiento del público lo hacia parecer mucho más complejo e

intrigante de lo que en realidad era. Pronto se volvió evidente que

era el comportamiento y no la apariencia el responsable del impacto

del Senster en el público.

//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee

6688

Otra forma de reflexión sobre lo artificial es el de la sobrenaturaleza, siguiendo la idea de Ortega y Gasset quien plantea que el hombre

nunca pudo integrase a su ambiente natural y por ello crea su propia

naturaleza: la técnica.

Lo interesante en esta idea es que no se trata de sólo utilizar

técnicas para modificar la naturaleza sin intervenir el orden natural,

sino de crear artefactos que configuren un nuevo entorno, un

entorno que se adapta más a la naturaleza artificial del hombre.

En la categorización que intentamos hacer, podemos decir que

existen piezas artísticas que recuerdan la idea de sobrenaturaleza,

porque crean objetos que reemplazan a los naturales para obtener un

nuevo entorno.

Un ejemplo es “office plant #1” de Michael Mateas y Marc Böhlen, es

un objeto tecnológico adaptado a la ecología de una oficina que

desempeña el mismo papel social y afectivo que una planta. Los

autores plantean este objeto como reemplazo de las plantas ya que

consideran que en la sociedad actual, especialmente en las oficinas

modernas, llenas de artefactos, no nos relacionamos con una planta,

y tendemos a abandonarla. Consta de un gran bulbo rodeado de hojas

metálicas montado sobre una base. La esfera, de aluminio forjado, se

abre y se cierra. La pieza monitoriza el audio en el entorno y el nivel

de luz, y responde con movimientos lentos y rítmicos emitiendo un

sonido ambiental. Además, utilizando técnicas de clasificación de

textos, supervisa la actividad del correo electrónico de su dueño.

//// iinn ssiilliiccoo

6699

Un segundo acercamiento al lo Artificial es utilizarlo como medio y

tomar los recursos de la ciencia. Es decir, se exploran los procesos

y a partir de crear las pequeñas partes de un mundo, los elementos

del sistema interactúan y emergen las cualidades de ese mundo. Este

tipo de piezas son complejas porque funcionan como un sistema

abierto, dinámico, basado en la retroalimentación entre sus partes, el

entorno y el espectador.

La pieza autopoiesis de Ken Rinaldo es un ejemplo de este tipo de

propuestas. Está formada por quince esculturas robóticas con sonido,

que interactúan con el público y modifican su comportamiento. Estos

cambios de comportamiento se producen a partir de la información

que recogen sensores de infrarrojos, de la presencia de

espectadores en la exposición y de la comunicación que se establece

entre las esculturas. Las esculturas robóticas de la instalación se

comunican a través de una red electrónica y de tonos audibles de

teléfono que constituyen un lenguaje musical para el grupo.

Autopoiesis "se hace a sí misma", una característica típica de todos

los seres vivos que fue descrita y revisada por Varela y Maturana. El

espectador afecta la pieza con su presencia, participando en la

evolución, y la emergencia del sistema. Se produce de manera

simultánea una estética escultórica del grupo.

Otras piezas dentro de este acercamiento son Genesis y Alba de

Eduardo Kac.

//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee

7700

“Genesis” (1999) es una obra transgénica que indaga en la intrincada

relación entre biología, sistemas de creencias, tecnología de la

información, interacción dialógica, ética e Internet. El elemento clave

de la obra es un "gen de artista", es decir, un gen sintético que el

artista inventó y que no existe en la naturaleza. Este gen fue creado

traduciendo una frase del libro del Génesis al código Morse y

convirtiéndolo en una secuencia de ADN de acuerdo con un principio

de conversión especialmente desarrollado para este trabajo

El proceso inicial de esta obra es la clonación del gen sintético en

plásmidos y su posterior transformación en bacterias, el gen a su vez

produce una nueva molécula de proteína. Se utilizan dos tipos de

bacteria que tienen incorporado un plásmido. Estas bacterias

fluorescentes emiten luz cian y amarilla cuando están expuestas a

radiación ultravioleta. A medida que se multiplican, se producen

mutaciones en los plásmidos de forma espontánea.

“Alba” por su lado, es un conejo modificado genéticamente. Este es

un proyecto importante porque es el primero que esta determinado

por la ciencia, la intención es ironizar sobre las posturas éticas de la

ciencia, utilizando sus mismos recursos.

Eduardo Kac con Alba

//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))

7711

V. “In silico”: análisis de la obra de arte

La pieza “in silico” consiste en la reproducción en tiempo real de

imágenes generadas por un software realizado expresamente.

Presenta imágenes de objetos tridimensionales que crecen en un

ambiente computacional. Estos objetos tienen elementos en común

con animales, células o plantas cómo son ramificaciones, simetría y

bifurcaciones. La finalidad de la pieza es jugar con la percepción del

espectador, que tenga la sensación de estar frente a seres vivos en

su medio natural.

“In silico” es una simulación por computadora que consiste en el

software y en la secuencia de imágenes que se producen con la

computadora. Los organismos son representaciones gráficas de

códigos que imitan códigos genéticos. Tanto la representación como

la estética son abstracciones, no existe una dimensión narrativa.

Aunque es una simulación basada en aspectos científicos, no es una

simulación científica. No tiene los mismos objetivos, características o

condiciones. Por lo tanto no es necesario que represente algo real,

como mostrar un objeto o exponer un comportamiento, ni que

funcione rápidamente para observar la secuencia, llegar a un

resultado bajo ciertas condiciones, u obtener conclusiones. La

finalidad de la pieza es el planteamiento de un espacio imaginario, la

función estética es una abstracción de algunas propiedades que

considero representan “lo vivo”.

//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee

7722

En esta pieza la estética del ambiente, de los individuos, e incluso el

montaje para exposiciones, tiene influencia de las muestras de

tejidos o células en biología, de las observaciones microscópicas y

de las texturas, patrones y formaciones que se crean en la

naturaleza. En mi obra anterior, ya estaban presentes estos

elementos visuales, influencia de mi breve paso por disciplinas de

medicina y biología. En mi trabajo de gráfica (huecograbado) era

común que utilizara recursos naturales y sintéticos para generar

texturas orgánicas en la imagen.

//// iinn ssiilliiccoo

7733

Es una pieza flexible que se adapta a diferentes espacios, la limitante

para su reproducción es el poder de graficación de una computadora.

Evidentemente la recepción por parte del público varía dependiendo

de las condiciones del montaje. “In silico” ha sido expuesta en

diferentes espacios y situaciones.

En una situación ideal, cómo lo fue la galería de arte binario en el

2002, la imagen se obtiene por retroproyección en una pantalla

circular de un metro de diámetro, situada al frente de un cilindro de

aluminio que aísla la proyección del restante y oculta el proyector.

La pantalla está suspendida en el centro de una sala obscura. El

espectador se encuentra con una imagen circular flotando en la

oscuridad y rodeado de un sonido especializado, de manera que

aislado del exterior, puede integrarse al ambiente.

//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))

7744

El sonido fue realizado por el músico Eduardo Meléndez, inspirado en

las cualidades del sonido en un ambiente natural. Es decir, un sonido

de base, presente constantemente punteado con audios incidentales

que representan cada evento de los organismos (nacimiento,

crecimiento, interacción, reproducción, muerte).

//// iinn ssiilliiccoo

7755

En la exposición “juego doble: dos ecosistemas” que se presentó en

el Centro Cultural España en el 2005 se expuso con otras

condiciones y con otra finalidad. Las piezas “in silico” y “Palabra de

bacterias” de Santiago Ortiz tienen en común el constituir un

ecosistema. Cada obra se relaciona con un mapa de textos y

relaciones que establece su contexto. Se expusieron en una misma

sala, relacionando las piezas y ambos mapas. Bajo el criterio de que

un ecosistema es un sistema abierto afectado por el ambiente y por

lo tanto por otros ecosistemas, cada pieza afectaba el sonido de la

otra, retroalimentándola. La imagen no se encontraba aislada de las

fuentes de luz, ya que estas eran necesarias para ver los mapas. El

sonido no estuvo espacializado. Frente a cada una de las piezas era

posible escuchar el sonido de la otra pieza. Sin embargo estas

condiciones favorecían la finalidad de dos ecosistemas relacionados.

//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee

7766

Con condiciones menos propicias se presentó en la exposición

itinerante “Creación en movimiento” de Jóvenes Creadores del

FONCA en la galería central del Centro Nacional de las Artes en el

2004. La pieza se encontraba rodeada de otras 60 piezas en un gran

espacio. Por lo tanto no podía aislarse ni de las fuentes de luz, ni del

sonido ambiental. No fue posible contar con una computadora, por lo

tanto se proyectó en el tubo con pantalla circular un registro en

video del sistema funcionando.

Aprovechando al máximo estas condiciones, el video mostraba

acercamientos y detalles de los organismos, que en otras ocasiones

no podían mostrarse ya que esto hubiera interrumpido la dinámica

del ecosistema.

El cilindro de aluminio, la pantalla circular, las condiciones de luz, el

sonido espacializado y el aislamiento del entorno, fungen como

puesta en escena y escenografía para permitir que el espectador

pueda estar inmerso en el ambiente.

//// iinn ssiilliiccoo

7777

La investigación se estructuró según tres ejes: ¿cómo funciona?,

¿qué significa? y ¿cómo se representa? Es decir, un eje tecnológico,

un eje teórico y un proceso artístico. La investigación y el proceso

iniciaron con la pregunta: ¿qué significa que algo esté vivo? Esta

pregunta se fue respondiendo y al mismo tiempo se fue modificando.

Con respecto al eje teórico, se partió del supuesto que lo vivo o lo

natural podría definirse por oposición a lo artificial, pero esta visión

del mundo se modificó en el transcurso de la investigación. El eje

tecnológico se fundamenta en la noción de sistema y de vida artificial

situando la relación individuo-grupo como núcleo de un sistema. En

referencia al proceso artístico, este se inició con las preguntas

¿cómo se reconoce lo vivo?, y ¿cómo se representa lo vivo?

Dados esos tres puntos de arranque, la pieza se desarrolló de

acuerdo a la retroalimentación entre los tres ejes y los intercambios

a veces antagónicos, otras complementarios entre las disciplinas.

Los ejes teórico y tecnológico se muestran a través de citas

provenientes de los capítulos de este documento intercaladas en los

nodos con imágenes de la pieza.

El mapa a continuación, no explica la pieza, forma parte de ella junto

con la teoría y la programación; en todo caso explica los procesos de

investigación. Se hizo como una representación de la manera en que

se construyó la pieza. Es una estrategia para mostrar el sistema de

relaciones entre distintas disciplinas y para encontrar los puntos en

donde se cruzan, se separan o se intervienen, destacando cómo dos

líneas que se intersectan determinan nuevas relaciones.

A continuación se encuentra la pieza “in silico: un diagrama hacia lo

artificial” que se expuso en el 2004 en la exposición “Diez años de la

Esmeralda” en la galería central de Centro Nacional de las Artes, y

en el 2005 en la exposición “Juego Doble: dos ecosistemas” en el

Centro Cultural España. Posteriormente se incluyen las citas y textos

numerados que componen el mapa.

//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee

7788

//// iinn ssiilliiccoo

7799

//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee

8800

El eje artístico. El proceso conlleva una etapa de investigación

histórica. Busqué como había respondido el hombre a la misma

pregunta que yo me hacía “¿Qué es la vida?” o a preguntas similares.

Encontré que los autómatas han sido imitaciones de hombres o

animales, que la ciencia ha querido entender la vida recreándola

(Miller, Oparín), y cómo las teorías acerca de la evolución se han

modificado (Darwin, Thompson Gould, Dawkins). El hombre ha hecho

réplicas del “cómo se ve”, antes de recrear el “cómo funciona”.

Antes de su realización los objetivos se establecieron de tal modo

que la pieza pretendiera engañar la percepción. Utilizaría criterios de

“cómo funciona lo vivo” para establecer cómo debía verse, ya que el

reconocimiento de otro ser vivo se da a través del comportamiento.

Tendría que cambiar el contenido de un continente a otro, es decir,

retomar atributos de seres vivos e insertarlos en otro tipo de objetos

(virtuales). Aquí debían reconocerse formas orgánicas, movimiento,

reproducción, crecimiento y muerte. Por otro lado para hacer

reconocibles a las formas como vivas, debían tener organicidad

visual como ciertos elementos de simetría, ángulos, bifurcaciones,

pero también organicidad funcional variaciones e improbabilidades,

desorden y factores azarosos, únicamente generables cuando se

diseñan desde el código genético.

Por último, me encuentro en la intersección de varias disciplinas:

arte, filosofía, ciencia y tecnología. De esta intersección surge la

obra, de la reflexión e interpretación de un área desde otra, pensar

la ciencia con recursos de la tecnología, desde el arte. No es una

obra que reflexione acerca de si misma, sino que representa los

puntos de encuentro y las zonas donde se vuelven difusas las

fronteras. El artista que está en contacto con áreas tan distintas,

obviamente no es especialista en todos los campos, pero a través de

un trabajo de tipo laboratorio, logra un diálogo entre ellos. Las

piezas surgen naturalmente, se convierten en la representación de

una discusión.

//// iinn ssiilliiccoo

8811

El eje tecnológico. En lo que concierne a la parte tecnológica, la

pieza se estructuró desde dos puntos: individuo y sistema. Para los

individuos me centré en una investigación más científica y para el

sistema en un desarrollo computacional. Pero antes recordemos qué

son un sistema y un individuo, para hacer más claro por que son

necesarios para la creación de la pieza

Un sistema es un conjunto de elementos organizados que interactúan

entre sí y con su ambiente, para lograr objetivos comunes. Un

sistema complejo, posee más información que la que da cada parte

independientemente. Los seres vivos, la tierra, los ecosistemas son

sistemas complejos.

“In silico”, como ecosistema pretende ser un sistema complejo

aunque limitado. Los organismos que lo habitan son los elementos

del sistema. Existe una infinidad de configuraciones posibles, pero

dentro de un rango de posibilidades que yo decidí.

El sistema se consideró bajo los criterios de la inteligencia colectiva

y los agentes inteligentes y se programó con el lenguaje orientado a

objetos (JAVA), esto significa que cada individuo, el universo en el

que viven y cada evento (nacimiento, crecimiento, interacción,

muerte) que sucede es un agente, u objeto, que se comunica con

todos y cada uno de los demás antes de actuar.

Los individuos se crearon con un código (en “Sistema L”) análogo al

código genético. El sistema L fue desarrollado por el biólogo Aristid

Lindenmayer en 1968 como una formalización matemática de una

teoría axiomática del desarrollo biológico. Algunos orígenes de este

desarrollo que tomé como fundamentos para el diseño de los

individuos fueron las teorías de Lindenmayer en “The Algorithmic

Beauty of Plants” (1991), de Sir Theodore Andrea Cook, quien en

“Spirals in Nature and Art” (1903) y “The Curves of Life” (1914)

realiza un exhaustivo recorrido y clasificación de las espirales en la

//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee

8822

naturaleza. También de D’Arcy Thompson “On growth and Form”

(1917 y 1942), cuya teoría establece las fuerzas físicas como

modeladoras de crecimiento y motores de la evolución, explicando

que la eficacia mecánica que presentan la mayoría de las estructuras

se explica por la adquisición de características y por adaptación al

entorno y a las fuerzas mecánicas y físicas. Existen otras críticas y

enfoques más contemporáneos como René Thom “Stabilité

structurelle et morphogenèse” (1972), para quien el problema

fundamental de la biología, es un problema de topología [g] –

disciplina matemática que permite pasar de lo local a lo global. -

Para él los seres vivos son las “singularidades estructuralmente

estables” de un campo, interactúan por simbiosis, depredación,

parasitismo, sexualidad, etc. Se trata de dar al campo de la vida una

“descripción geométrica” y de determinar sus “propiedades

formales” y sus “leyes de evolución”.

Los individuos están determinados por su código genético, pero esa

estructura tiene elementos paramétricos y estocásticos, de manera

que cada vez que se producen son distintos en función de el azar y

de su cercanía con otros individuos del ambiente.

El eje teórico. Partí de la hipótesis de que lo artificial se puede

definir por oposición a lo natural. Para ello recurrí a autores de

distintas corrientes en filosofía de la tecnología. Todos ellos

coinciden en que lo artificial no puede oponerse a lo natural. Estos

nuevos enfoques me parecieron mucho más interesantes ya que

plantean la técnica y sus resultados como intrínsecos a la naturaleza

del hombre y aportan la noción de híbridos. La hipótesis se modificó

entonces a que lo artificial forma parte de lo natural.

Los autores de la escuela de Salamanca definen la técnica y la

tecnología, sus estructuras y propiedades. La técnica es una entidad

abstracta, se transmite como información, requiere de habilidades.

//// iinn ssiilliiccoo

8833

Una realización técnica es un sistema intencional de acciones. Un

artefacto es el resultado de una acción intencional sobre un sistema.

Un artefacto también puede ser el estado de un sistema si el proceso

que lo determina es artificial, independientemente de las propiedades

de los objetos del sistema. El campo de “lo artificial” se define como

un subconjunto de lo natural. Por ejemplo, la técnica no puede

distinguirse del hombre ya que con ella modifica su ambiente al

fabricar instrumentos que le facilitan o le hacen más confortable la

vida. La técnica es parte de su naturaleza. De la misma manera los

objetos “artificiales” los creamos nosotros de manera directa o

indirecta (a través de objetos o sistemas intermediarios), por lo tanto

lo artificial es parte de lo natural. Por último, puesto que la

tecnología está presente en el mundo que nos rodea, “la sustancia

misma de la realidad que nos circunda es intrínsecamente

tecnológica o artificial” (Quintanilla, 1989). Todo lo que conocemos

no es natural, ya ha sido diseñado para mostrar algún aspecto en

particular. Conocemos el mundo a través de lo que percibimos como

realidad, pero esa realidad ya ha sido manipulada. Lo artificial es

parte de la realidad o al menos es la única realidad a la que podemos

acceder desde nuestra sociedad.

En la visión del constructivismo social en torno a la tecnología,

aparece la idea del híbrido. El híbrido como un objeto (jitomate

transgénico, Dolly) que no es únicamente natural o únicamente

artificial, sino ambos, y el híbrido social que perturba el esquema en

que se oponen firmemente naturaleza y cultura. En realidad todas las

estructuras y fenómenos son muestra de híbridos políticos,

culturales, científicos y económicos (embriones congelados, virus del

sida, agujero de ozono).

Por último surgió el concepto del cyborg, mitad humano, mitad

máquina. Esta idea puede extrapolarse a un ser digno de ciencia

ficción. Más cercano a nuestra realidad se encuentra el cyborg como

//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee

8844

hombre contemporáneo, modificado por alimentos transgénicos,

medicinas, vacunas o drogas de síntesis, prótesis (cardiovasculares,

gástricos, dentales, oculares).

Lo artificial empezó como algo extraño y externo y terminó siendo

parte de nuestra naturaleza, está presente en todos los tipos de

híbridos y cyborgs, cada vez más diluidos en nuestro entorno. En

este sentido, fue evidente que las fronteras “teóricas” deben

reconsiderarse ya que en la práctica no se sostienen y tienden a

desaparecer.

“tratando de distinguir lo natural de lo artificial, un criterio para enmarcar lo artificial no sería un criterio que separe lo artificial de lo natural, sino un criterio que establece que partes de mundo natural son artificiales.”

LÍNEAS AZULES: TEORÍA LINEAS VERDES: “IN SILICO” LÍNEAS ROJAS: TECNOLOGÍA

//// iinn ssiilliiccoo

8855

LÍNEAS AZULES: TEORÍA

2.< Miguel Ángel Quintanilla “Tecnología: Un enfoque filosófico” “No es sólo nuestro conocimiento de la realidad o nuestra forma de comportarnos

ante ella, sino la sustancia misma de la realidad que nos circunda la que es

intrínsecamente tecnológica o artificial. La teoría filosófica de la realidad no puede

ya pasar por alto la teoría de lo artificial”

Si la manera de conocer el mundo es a través de lo que percibimos como realidad,

pero esa realidad ya ha sido manipulada, ¿qué es lo que debemos ver para poder

entender el mundo? Lo artificial es parte de la realidad o es la única realidad a la

que podemos acceder desde nuestra sociedad. A donde quiera que volteemos, el

mundo no es “natural” como lo fue hace algunos cientos de años, está plagado de

artefactos, los paisajes han sido “diseñados”, la realidad está alterada. Pero es la

única realidad que conocemos. >

3.< Bruno Latour “Nunca fuimos modernos” “Contaminación de los ríos, embriones congelados, virus del sida, agujero de ozono,

robots con sensores ¿Estos objetos extraños que invaden nuestro mundo dependen

de la naturaleza o de la cultura? ¿Cómo comprenderlos? Hasta ahora, las cosas

habían sido más sencillas: los científicos se ocupaban de la gestión de la naturaleza,

los políticos de la sociedad. Pero esa separación tradicional de las tareas se vuelve

de más en más impotente al tomar en cuenta la proliferación de los híbridos. De ahí

el sentimiento de terror que procuran y que no logran calmar los filósofos

contemporáneos, ya sean antimodernos, posmodernos o éticos.

¿Y si hubiésemos equivocado el camino? En efecto, nuestra sociedad “moderna”

nunca funcionó conforme a la gran separación que funda su sistema de

representación del mundo: el que opone radicalmente la naturaleza de un lado y la

cultura del otro. En la práctica, los modernos nunca han dejado de crear objetos

híbridos, que dependen de ambas y que se rehúsan a pensar. Por lo tanto nunca

fuimos modernos y es ese paradigma fundador el que hoy debemos poner en duda

para comprender nuestro mundo.” >

4.< Liliana Quintero Artificial. 04 ¿Será entonces que la separación entre natura y artificio ya no es pertinente?

Si esto es afirmativo, el planeta entero es ya un cyborg, mezcla de organismos

digitales in silico, organismos biológicos in vitro y organismos naturales que

cohabitan y hacen la línea de la vida mucho más compleja y difusa.

¿Habrá entonces, una vez más, que replantear el concepto de vida, de humanidad,

para no hablar de un posthumano, sino de un prototipo de eso que creímos alguna

vez que éramos? >

//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee

8866

5.< SI… Si los objetos artificiales son objetos producidos por la

cultura y los naturales por la naturaleza, si los productos

culturales se sobreponen a los naturales, si la naturaleza es

información transmitida genéticamente (genes) y la cultura

es la información transmitida no genéticamente (memes), si

los objetos artificiales son aquellos producidos

intencionalmente y el objeto se produce con un grado de

control sobre el sistema. MUCHOS ARTEFACTOS

QUEDARÍAN AÚN SIN DEFINIRSE.

La artificialidad es un sistema complejo. La complejidad

emerge de lo natural. >

6.< Fernando Broncano “Los mundos artificiales” “La distinción entre lo natural y lo artificial sigue siendo una de

las cuestiones más debatidas y es una importante división que

afecta a otras también muy importantes, como es la distinción

entre normativo y descriptivo. El caso es que como tantas veces

suele ocurrir, tenemos muy clara la división mientras nadie nos

pregunte por ella. [...] para distinguir lo natural de lo artificial: un

criterio para enmarcar lo artificial no es un criterio que separe lo

artificial de lo natural, sino un criterio que establece que partes de

mundo natural son artificiales.” >

7.< Donna Haraway “Modest_Witness@Second_Millenium.FemaleMan©_Meets_OncoMouse™” Los híbridos no existen en la naturaleza como tal, pero eso no quiere decir

que no existan. Están ahí y no pertenecen a las clasificaciones con las que

contamos. El OncoMouse de Dupont, el FlavrSavr de Calgene Inc., o Dolly

no son los únicos híbridos en el mundo. El cyborg contemporáneo, el

“híbrido”, se asoma en los hombres y mujeres modificados con prótesis,

anteojos, cirugías y órganos artificiales, en cada uno de nosotros que

consume químicos sintetizados en alimentos, medicinas, hormonas y

respiramos aire modificado.

Haraway utiliza los híbridos para destacar que en un mundo marcado por

distinciones tan radicales entre el mundo de lo material y el mundo de la

cultura, la emergencia de híbridos inclasificables, y son orden las viejas

distinciones pierden su sentido explicativo y descriptivo. ¿Deben

redefinirse las categorías o desaparecer? >

//// iinn ssiilliiccoo

8877

LINEAS VERDES: “IN SILICO” (texto de sala)

1.< Karla Villegas In silico 3 In Silico es un proyecto artístico interdisciplinario que busca investigar y explorar como se define "lo vivo" a

partir de un sistema de vida artificial. En el proceso de la obra, se exploran sistemas de crecimiento,

comunicación e interacción de un organismo con su ambiente a la vez que se propone el acercamiento visual

a un ambiente que no describe un mundo “real”. Uno de los objetivos de esta pieza es cuestionar y entender

nuestra relación con lo que percibimos como vivo. >

Con el objetivo de generar un sistema de simulación de crecimiento de vida artificial, Florence Gouvrit

decide rastrear los signos con los que asociamos el concepto de vida, trasladándolos al contexto de este

sistema. Esto con la intención de provocar en el sujeto percipiente, un reconocimiento en los organismos

artificiales de In Silico de aquellos signos que comúnmente asociamos con los prototipos de desarrollo de

organismos naturales. >

8.< Karla Villegas In silico 1 Una de las problemáticas en las que se centró la discusión científica hacia finales de

siglo XX, fue la simulación de vida e inteligencia artificial. Muchos de los intereses

sobre este tema se concentraron en la recuperación y reinterpretación de

características biológicas, la herencia en los algoritmos genéticos, los sistemas de

reproducción y la constante orientación a la morfogénesis; esto condujo a varias

áreas del conocimiento hacia un replanteamiento de las fronteras entre lo humano, lo

orgánico y lo artificial.

En las prácticas artísticas contemporáneas, sobre todo aquellas que están

estrechamente vinculadas con la tecnología y la ciencia, estos problemas repercuten

y son abordados de forma que evidencian lo difuso de las fronteras entre lo vivo y lo

inerte. Proyectos como el Interactive Plant Growing, de Christa Sommerer y Laurent

Mignonneau, o el Telegarden, de Ken Goldberg, se ubican en una estética que surge

en el plano científico y, además, cuestionan la relación de los prototipos de

crecimiento orgánico que son activados a partir, en este caso, de un interactor; otros

proyectos como Génesis, de Eduardo Kac, y Office Plant de Marc Böhlen y Michael

Mateas, cuestionan a partir de una simulación en donde no importa un usuario activo

sino sólo el reconocimiento y la interacción de los patrones con los que se asocia el

crecimiento natural, y entre estos y su ambiente. >

9.< Karla Villegas In silico 2 In Silico se convierte entonces en un ecosistema simulado en donde co-existen grupos de distinta especie, que

conviven y se comunican a partir de “agentes”. Dichos organismos son generados a partir de una estructura

diseñada utilizando un formalismo matemático conocido como sistemas L. La utilidad principal de estos sistemas

es la de describir el crecimiento de organismos naturales, sin embargo, una de las funciones latentes de dichos

sistemas, que no ha sido muy explorada, es la posibilidad de reproducir y describir organismos sintéticos. Los

organismos crecen en tiempo real permitiendo su modificación constante en función de la interacción que existe

entre ellos y su relación con el ambiente. Dado que los organismos se comunican por medio de “agentes”, se

producen relaciones y un comportamiento colectivo en donde el fin común es la supervivencia. >

LÍNEAS ROJAS: TECNOLOGÍA (ver los textos en Anexo: 2. Desarrollo: organismos y sistema)

8899

VI. Anexo (documento técnico)

“In Silico”: sistema computacional de vida artificial

1. Antecedentes

In Silico es un ambiente de simulación visual tridimensional, en

donde varios objetos crecen en función de sus características e

interacciones.

El patrón de crecimiento de cada objeto es modelado a través de

sistemas L.

2. Desarrollo

a. Organismos

15.< Los Sistemas L son una formalización matemática de la teoría

axiomática del desarrollo biológico propuesta por el biólogo

Aristid Lindenmayer en 1968. Recientemente los sistemas L han

encontrado muchas aplicaciones en la computación gráfica. Las

dos principales áreas incluyen generación de fractales y modelos

realistas de vegetales. Un punto central de los sistemas L es la noción de reescritura, tal

y como sucede con las gramáticas regulares o gramáticas libres

de contexto. La idea básica es sustituir símbolos predecesores

con secuencias de símbolos, el patrón de sustitución está

determinado por un conjunto de reglas de sustitución o

producciones. La reiteración finita de las producciones de un

sistema L produce palabras. El proceso de reescritura puede

realizarse de manera recursiva.>

Los sistemas que operan bajo cadenas de caracteres han sido los

más estudiados. En 1957 Chomsky aplica los sistemas formales de la

teoría general de sistemas [g] al estudio de los lenguajes. Propuso un

modelo capaz de representar la sintaxis de cualquier lenguaje, que

llamó la atención de los computólogos interesados en aplicar los

sistemas recursivos y gramáticas formales para representar el

crecimiento.

//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))

9900

Lindenmayer introdujo un nuevo tipo de gramática que

posteriormente tomó el nombre de sistema L. La diferencia esencial

con la gramática de Chomsky se encuentra en la manera de aplicar

las producciones. En el sistema de Chomsky, las producciones son

aplicadas secuencialmente, mientras que en el sistema L estas son

aplicadas en paralelo, reemplazando simultáneamente todos los

símbolos de una sola palabra.

12.< Las palabras o expresiones pertenecientes al

lenguaje generado por un sistema L tienen una

interpretación geométrica en el espacio, esto

es, cada expresión derivada a partir de un

sistema L se corresponde con un objeto que

puede ser situado en el espacio.

El tipo de sistema L utilizado en In silico es un

sistema L paramétrico-estocástico.

Los símbolos paramétricos son símbolos de un

alfabeto asociados con números reales.

Además de expresiones paramétricas que

resultan en estructuras cambiantes en el

espacio, estos sistemas L asignan una

probabilidad de sustitución a cada producción,

haciendo que el lenguaje generado sea

"inestable". >

14.< El alfabeto está conformado por símbolos de dos categorías: símbolos no

terminales y terminales, esto es, símbolos sustituibles y símbolos no

sustituibles. Comúnmente, los símbolos terminales tienen una interpretación

geométrica, mientras que los no terminales sólo sirven para definir un patrón

de desarrollo a través de una sustitución.

Tomemos un ejemplo contenido en The Algorithmic Beauty of Plants:

Sean

Axioma = X

Producción 1= X -> A [+X][X][-X]

Producción 2= A -> FF

En este caso X se reemplazara por una fórmula que significa que la rama se

divide en 3 ramas.

“ F ” significa trazar una línea. (“ FF ” una línea después de la primera)

“ [ ] ” significa que efectúe la acción y regrese a su punto de origen

“ + ” y “ - ” estipulan una rotación de la línea con respecto a la orientación de

origen

Esto se interpreta de la manera siguiente: el axioma es el modulo básico, en

cada generación, busca si alguno de los elementos que conforman la expresión

debe sustituirse. Entonces encuentra la Producción 1 y reemplaza la X por la

fórmula correspondiente, posteriormente ejecuta la instrucción de crecimiento.

Al tiempo que va leyendo las letras va reemplazándolas si es el caso, y si no

continúa hasta el término de la expresión. >

//// iinn ssiilliiccoo

9911

(L)

7

22

A=fffff[<<<BA][&&&BA]

B=fffff[S]

S=[&N][^N][++++M]

N=F-F-F-F--F---F----Z-----

Z

M=F+Z+Z

(M)

10

11.25

A

A=[N]&---[N]&---[N]&---[N]&---[N]&---[N]&---[N]&---[N]&---[N]&---[N]

N=f-f-f-f-FR-F-F-F-Z+Z+Z+Z

R=[>%N+F>+F>+F>+F>+F>+F>+F>+F>+Z>+Z>+Z>+Z]

(T)

15

10

[|H]C[>>>>>>>>>[TF][OF]]

C=FR-C

R=[^^^^^^^^^BL][&&&&&&&&&B]

B=:F++!B

H=[^^^S]%[^^^S]>>>H

S=Z!S

T=Z+^!:T

O=Z-^!:O

(A)

10

22.5

A

A=B&>(10)A

B=-F-F-F-F-F[>%B]-F-

F-F-F-F--F--F---F

Estos son los organismos originales de la pieza,

diseñados con el programa L-Parser. Existen

variaciones entre los símbolos que utilizan los

distintos lenguajes de programación que admiten

el uso de sistemas L, así como la manera en que

reciben los parámetros.

//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))

9922

La diferencia entre la gramática de Chomsky y la de Lindenmayer

refleja la motivación biológica de los sistemas L. Las producciones

intentan capturar la división celular en los organismos multicelulares

donde la divisiones se dan de manera simultánea. El sistema L

permite no sólo la descripción y reconstrucción de estructuras

simétricas bidimensionales, sino también tridimensionales, formas

celulares esféricas, crecimientos caóticos, interrumpidos o

influenciados por fuerzas físicas.

El código que se incorporó al código de agentes se llama “Turtle” en

alusión a los primeros códigos en lenguaje “Logo”. En este lenguaje

una tortuga en pantalla dibujaba líneas o ángulos en función de los

parámetros recibidos. Cada símbolo (“F”, “+”,”-“, “&”corresponde a

una instrucción. Cada una (move, turn, set) se acompaña del eje en el

que debe actuar (forward, turn, pitch, roll), además entre paréntesis

se agrega el parámetro de magnitud. Estos valores se le asignan a la

tortuga “turtle”, que a su vez es un agente, y ésta dibuja en el

espacio tridimensional el organismo descrito.

13.< 'F': turtle.moveForward (param); 'f': turtle.moveForward (param,false); '+': turtle.turnAroundUp (param); '-': turtle.turnAroundUp (-param); '&': turtle.pitchAroundLeft (param); '^': turtle.pitchAroundLeft (-param); '/': turtle.rollAroundHeading (param); '\\': turtle.rollAroundHeading(-param) '|': turtle.turnAroundUp (Math.PI); '[': turtle.pushState (); ']': turtle.popState (); '#': turtle.setWidth (param);

'!': turtle.setWidth(param);>

//// iinn ssiilliiccoo

9933

b. Ambiente

10.< Los sistemas de Inteligencia Artificial (IA) ponen en ejecución

conocimientos de sentido común o especializados y los explotan

en mecanismos de raciocinio, es decir, en sistemas deductivos a

base de conocimiento. El fundamento de esta aproximación de IA

es la posibilidad de representar el saber en diferentes tipos de

lógica.

Otro aspecto de la inteligencia a base de conocimientos es el de la

inteligencia colectiva. Esta consiste en suscitar un

comportamiento inteligente de manera emergente por cooperación

entre un conjunto de entidades (agentes) con autonomía y tareas

propias. Estos agentes pueden ser dotados de una capacidad

cognoscitiva, de conocimientos previos y de mecanismos de

raciocinio. En este caso hablamos de “sistema multiagentes”. >

En los sistemas multiagentes cada agente tiene un comportamiento

reactivo y está desprovisto de inteligencia. Es de la interacción entre

agentes que emerge un comportamiento inteligente.

11.< El sistema multiagentes en In silico La interacción entre objetos y la base de tiempo utilizada para permitir el

desarrollo de los mismos es controlada por una colección de agentes. Los

agentes utilizados son del tipo reactivo, por lo que el comportamiento del

sistema en su conjunto es resultado de la comunicación entre estos.

Se definen 5 tipos de agentes según sus funciones: un agente controlador del

display; un agente maestro que determina la cantidad y los tipos de objetos en

la simulación, así como también el momento en que se desarrollan; un agente

que sincroniza el audio con el display; un agente que controla el tiempo, un

agente que genera las expresiones paramétricas de un sistema L y un agente

que las interpreta y convierte en geometría.

Al inicio de la simulación se crean un controlador de display; un sincronizador

de audio y un agente maestro que crea a su vez una cantidad determinada de

agentes generadores, intérpretes y de tiempo en la misma proporción, esto

posibilita que cada objeto se desarrolle independientemente de los demás.

El desarrollo de un objeto pasa por cuatro fases: crecimiento, reproducción,

envejecimiento y muerte. Los eventos de crecimiento, envejecimiento y muerte,

dependen, aunque no exclusivamente, del tiempo, mientras que el evento de

reproducción depende de la interacción con otros objetos en el ambiente. El

tiempo de vida de un objeto puede verse reducido por la cantidad de veces que

ocurre una interacción. >

//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))

9944

Se dice que ocurre una interacción cuando un objeto invade el

espacio vital de otro objeto, definido como un volumen alrededor del

objeto en cuestión.

Es a través de la comunicación inter-agente que los objetos pueden

reaccionar, ésta se lleva a cabo mediante el envío y recepción de

mensajes asíncronos, esto es, que no se requiere el acuse de recibo

de éstos, lo cual hace posible una interacción mucho más ágil.

//// iinn ssiilliiccoo

9955

3. Objetivo

A. Los objetos deben simular un sistema vivo a través de su

comportamiento individual y colectivo.

B. El sistema debe simular el crecimiento orgánico mediante la

generación de objetos 3D en tiempo real:

Configurar y crear los diferentes objetos en crecimiento.

Arbitrar el crecimiento de los diferentes objetos.

Determinar el crecimiento de cada objeto.

- Establecer una base de tiempo para cada objeto.

- Especificar el desarrollo de cada objeto.

Administrar el display.

Interpretar comandos para representación tridimensional.

Refrescar el display.

Atender las acciones del usuario.

Sincronizar el display con el nodo de audio.

Descripción general

El sistema es un entorno gráfico tridimensional por computadora a

través del cual, el espectador podrá ver el desarrollo en tiempo real

de una colección de objetos.

El sistema se ejecuta en una sola máquina.

El desarrollo de un objeto en el sistema implica su orientación

espacial, su multiplicación o eliminación condicionada por variables

del entorno, como la proximidad con algún otro objeto. Todo lo

anterior es controlado por algoritmos recursivos y de vida artificial.

El desarrollo del ambiente depende fuertemente del estado inicial

que se define como la colección de valores que tienen las variables

reguladoras en el momento de iniciar la ejecución del sistema.

Al inicio de la ejecución del sistema se crean el agente responsable

de crear los agentes de los objetos, el agente de display y el agente

de audio. Al terminar la creación de estos tres, los activa dando

inicio a la simulación.

//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))

9966

Estado inicial

El estado inicial está conformado por los valores de las siguientes

variables reguladoras al momento de iniciar la ejecución del sistema:

• Dimensiones del universo.

Valores x,y,z que determinan el tamaño del universo a simular. Definen un paralelepípedo que

condiciona las dimensiones de los demás objetos.

• Tipo de objetos primitivos.

Un objeto primitivo es la geometría de base que se utiliza para crear un objeto en el sistema. La

geometría que define a un objeto primitivo debe poseer la siguiente característica:

Un objeto primitivo debe tener por lo menos dos puntos, que pueden o no ser parte de su geometría, ubicados de tal forma que al concatenar espacialmente otro objeto primitivo en uno de esos puntos, las geometrías de ambos objetos queden unidas en una.

El objeto primitivo más simple es una superficie plana triangular.

• Cantidad de objetos origen

Un objeto origen es una geometría resultado de la concatenación espacial de objetos primitivos.

• Configuración de los objetos origen

La configuración de un objeto origen es el resultado de varias concatenaciones espaciales de

objetos primitivos.

• Disposición espacial de objetos origen

La disposición espacial de los objetos origen se refiere a la localización en el universo de los

objetos origen así como su orientación.

• Velocidad de crecimiento

Es la tasa a la que se realizan los cálculos de orientación espacial de la siguiente generación de

objetos primitivos.

• Condiciones del ambiente

Están determinadas a su vez por una colección de variables, las cuales son:

o Fuentes de luz:

ß Tipos de fuentes de luz: ambiental, direccional, puntual, tipo spot ß Cantidad de fuentes de luz

ß Localización y orientación de las fuentes de luz

o Obstáculos.

//// iinn ssiilliiccoo

9977

ß Cantidad de obstáculos

ß Tipos de obstáculos: obstáculo esférico y obstáculo cúbico

Son cuerpos que ofrecen resistencia a la penetración por parte de otros objetos: La región

que ofrece resistencia está determinada por la forma, el radio y la influencia y el factor de

penetración.

ß Localización, orientación y apariencia de obstáculos

Ubicación en el espacio, hacerlos visibles o invisibles.

o Atractores.

ß Tipos de atractores: atractor esférico

Son cuerpos que atraen los apéndices de los objetos

ß Cantidad de atractores

ß Localización, orientación y apariencia de los atractores

La ubicación y arreglo espaciales de los atractores. También es posible hacer visibles o

invisibles a los atractores.

ß Posición y orientación del observador

Es la ubicación desde la cual se calcula la imagen que ha de ser

transferida a la pantalla o al proyector.

Características de los usuarios.

El espectador es aquella persona que presencia el proceso de

desarrollo de los objetos en el sistema. Para él, el sistema es

autónomo.

El operador es aquella persona que propone el estado inicial. Es la

persona que decide, en cualquier momento, iniciar o detener el

sistema.

Restricciones.

Una vez iniciado el sistema, el operador no puede alterar ninguna de

las variables que constituyen el estado inicial. Se deberá detener,

alterar los valores de las variables y volver a iniciar la ejecución.

//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))

9988

4. Características técnicas del sistema. (por Ing. Marco Antonio Montes de Oca )

Escenarios.

La segunda etapa es identificar escenarios de operación del sistema con el fin de determinar la

secuencia de operaciones que se ejecutarán desde una situación determinada.

Escenario 1. Inicio del sistema.

Descripción: Al inicio de la ejecución del sistema se crea un agente que tendrá la responsabilidad de crear los

agentes que controlaran el crecimiento y desarrollo de un objeto del mundo simulado. También será

responsable de crear el agente administrador de display y el agente sincronizador de eventos de audio. Al

terminar la creación de todos los agentes necesarios procederá a su activación, aquí es en donde en realidad

iniciará la simulación. (fig. 1)

Escenario 2. El agente controlador de objeto es iniciado por el agente maestro.

Descripción: El agente maestro envía a cada agente controlador de objeto un mensaje de activación. Estos al

recibir el mensaje, crean un agente base de tiempo, y un agente generador de comandos de crecimiento. El

agente base de tiempo es independiente y determinará de manera autónoma el momento en el cual el objeto

se desarrollará potencialmente.

(fig. 1) No existe mayor detalle pues no existen mensajes entre agentes, sólo son creados.

Fig 1. Diagrama de secuencia para el escenario 1 y 2.

//// iinn ssiilliiccoo

9999

Escenario 3. El agente base de tiempo determina que el objeto que controla debe crecer. El

sistema está bloqueado.

Descripción: Transcurrido el tiempo que el agente base de tiempo determina, éste envía un mensaje al agente

generador de comandos correspondiente al agente controlador de objeto que lo creó y al mismo tiempo

disemina el mismo mensaje para que el agente sincronizador de audio lo atienda y envíe un paquete UDP al

nodo controlador del audio. A su vez, el agente generador de comandos solicita el bloqueo del sistema al

agente maestro para poder efectivamente desarrollarse. Si el sistema se encuentra bloqueado, el agente

maestro le regresa un mensaje de espera, en cuyo caso el agente generador de comandos espera un tiempo

preestablecido antes de volver a intentar bloquear el sistema.

Fig. 2. Diagrama de secuencia del escenario 3.

//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))

110000

Escenario 4. El agente base de tiempo determina que el objeto que controla debe crecer. El

sistema no se encuentra bloqueado, el objeto está en etapa de crecimiento y al agregarse al mundo

simulado, no interacciona con ningún otro objeto.

Descripción: Transcurrido el tiempo que el agente base de tiempo determina, éste envía un mensaje al agente

generador de comandos correspondiente al agente controlador de objeto que lo creó y al mismo tiempo

disemina el mismo mensaje para que el agente sincronizador de audio lo atienda y envíe un paquete UDP al

nodo controlador del audio. A su vez, el agente generador de comandos solicita el bloqueo del sistema al

agente maestro para poder efectivamente desarrollarse. Dado que el sistema no se encuentra bloqueado, el

agente maestro le regresa un mensaje de autorización, en cuyo caso el agente generador de comandos

determina el siguiente estado al que debe pasar el objeto que controla y envía el mensaje correspondiente al

agente sincronizador de audio. Una vez calculado el siguiente estado, el agente generador envía la secuencia

de comandos al agente controlador de objeto para su interpretación, esto es, para generar la geometría que

lo representará en el espacio. Justo después de ello, el agente generador de comandos envía al agente

maestro un mensaje para desbloquear el sistema. Paralelamente, el agente controlador de objeto, después de

interpretar la secuencia de comandos, envía un mensaje de refresco de display al agente administrador de

display. (fig. 3)

Fig. 3. Diagrama de secuencia del escenario 4.

//// iinn ssiilliiccoo

110011

Escenario 5. El agente base de tiempo determina que el objeto que controla debe crecer. El

sistema no se encuentra bloqueado, el objeto está en etapa de crecimiento y al agregarse al mundo

simulado, interacciona con otro objeto.

Descripción: Transcurrido el tiempo que el agente base de tiempo determina, éste envía un mensaje al agente

generador de comandos correspondiente al agente controlador de objeto que lo creó y al mismo tiempo

disemina el mismo mensaje para que el agente sincronizador de audio lo atienda y envíe un paquete UDP al

nodo controlador del audio. A su vez, el agente generador de comandos solicita el bloqueo del sistema al

agente maestro para poder efectivamente desarrollarse. Dado que el sistema no se encuentra bloqueado, el

agente maestro le regresa un mensaje de autorización, en cuyo caso el agente generador de comandos

determina el siguiente estado al que debe pasar el objeto que controla. Una vez calculado el siguiente estado,

el agente generador envía la secuencia de comandos al agente controlador de objeto para su interpretación,

esto es, para generar la geometría que lo representará en el espacio. Justo después de ello, el agente

generador de comandos envía al agente maestro un mensaje para desbloquear el sistema. Paralelamente, el

agente controlador de objeto, después de interpretar la secuencia de comandos, envía un mensaje de

refresco de display al agente administrador de display que detecta que el nuevo objeto colisiona con otro

objeto, enviando un mensaje al agente controlador de objetos. El agente controlador de objeto determina si

es sólo una interacción común o se trata de una interacción de réplica o de envejecimiento. Envía el evento

correspondiente al agente sincronizador de audio. (fig. 4)

Fig 4. Diagrama de secuencia para el escenario 5.

//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))

110022

Escenario 6. El agente base de tiempo determina que el objeto que controla debe crecer. El

sistema no se encuentra bloqueado, el objeto está en etapa de crecimiento y al agregarse al mundo

simulado, interacciona con otro objeto provocando su propia muerte.

Descripción: Transcurrido el tiempo que el agente base de tiempo determina, éste envía un mensaje al agente

generador de comandos correspondiente al agente controlador de objeto que lo creó y al mismo tiempo

disemina el mismo mensaje para que el agente sincronizador de audio lo atienda y envíe un paquete UDP al

nodo controlador del audio. A su vez, el agente generador de comandos solicita el bloqueo del sistema al

agente maestro para poder efectivamente desarrollarse. Dado que el sistema no se encuentra bloqueado, el

agente maestro le regresa un mensaje de autorización, en cuyo caso el agente generador de comandos

determina el siguiente estado al que debe pasar el objeto que controla. Una vez calculado el siguiente estado,

el agente generador envía la secuencia de comandos al agente controlador de objeto para su interpretación,

esto es, para generar la geometría que lo representará en el espacio. Justo después de ello, el agente

generador de comandos envía al agente maestro un mensaje para desbloquear el sistema. Paralelamente, el

agente controlador de objeto, después de interpretar la secuencia de comandos, envía un mensaje de

refresco de display al agente administrador de display que detecta que el nuevo objeto colisiona con otro

objeto y lo ha hecho por una cantidad determinada de veces, después se inicia el envejecimiento, por lo que

envía un mensaje al agente controlador de objetos. Este envía el evento correspondiente al agente

sincronizador de audio. (fig. 5)

Fig 5. Diagrama de secuencia para el escenario 6.

//// iinn ssiilliiccoo

110033

110055

[g] Glosario

Autómata:

Un autómata es un dispositivo mecánico que realiza tareas automatizadas, es

decir, que no requiere forzosamente de operación humana directa para operar.

Suele utilizarse como sinónimo de robot y generalmente se usa para describir

maquinas de movimiento, no electrónicas, como los relojes cucú o las figuras

animadas que representan hombres o animales y simulan acciones como si

estuvieran vivos.

Existen registros de autómatas de la antigüedad. Ya sean griegos, egipcios y

babilónicos. Los utilizaban los sacerdotes para impresionar al pueblo. Estos

ya utilizaban leyes de la física. Eran hidráulicos, eólicos, con mecanismos

simples de poleas y engranes, o por ejemplo actuaban en función de la

temperatura ambiente.

En Japón, los Karakuri, se crean desde el siglo XV,

como marionetas de teatro, y para sorprender o

engañar. El nombre significa “truco”.

El primer diseño de autómata humanoide se le atribuye a Leonardo Da Vinci

alrededor del año 1495. Los diseños se recuperaron a mediados del siglo XX.

No se sabe si alguna vez fueron realizados.

Para el siglo XVIII, en el apogeo de la relojería, los autómatas que

comprendían diversas acciones, utilizaban complejos sistemas

mecánicos, programando sus acciones con engranes. En este periodo

se destacaron Vaucanson, Pierre Jacquet-Droz y Maillardet. Sus

autómatas circulaban por las cortes de Europa causando admiración.

Algunos de ellos son el pato, el flautista, los músicos, el dibujante, y

“el turco” o ajedrecista.

//// gglloossaarriioo

110066

El significado de autómata se ha modificado con el tiempo, actualmente a los

autómatas antiguos se les llamaría mecanismos automatizados.

Actualmente, tanto en robots como en autómatas celulares utilizados en

computo, la retroalimentación es dada por un programa predefinido, un

conjunto de reglas generales, o utilizando técnicas de inteligencia artificial,

como la reacción al entorno. No es forzosa su supervisión, puede tomar los

parámetros de inicio del ambiente, procesarlos, en algunos casos tomar

decisiones y entonces actuar.

Autopoiesis

La autopoiesis (del griego a?t ?-, auto-, "sí mismo", y p???s??, poiesis,

"creación" o "producción") es una propiedad de la teoría de sistemas que

designa la dinámica de una estructura no estática pero capaz de mantener

estable durante períodos prolongados su estructura.

Quimiosintéticas:

Capacidad de algunas bacterias de formar compuestos orgánicos,

a partir de sustancias inorgánicas, sin la presencia de la luz del sol.

Teoría general de sistemas (wikipedia)

La teoría general de sistemas o simplemente teoría de sistemas es un campo

de estudio interdisciplinario, que investiga las propiedades de los sistemas

que se presentan consistentemente en los distintos campos científicos. La

primer aproximación en este sentido se atribuye al biólogo Ludwig von

Bertalanffy, quien acuñó la denominación a mediados del siglo XX.

Von Bertalanffy entendía la teoría de sistemas como un mecanismo de

integración entre las ciencias naturales y sociales, que proporcionaría una

herramienta fundamental para la preparación científica. Desde el nivel de la

teoría de sistemas, las disputas científicas en torno al mecanicismo y la

//// iinn ssiilliiccoo

110077

estructura determinista de la causalidad podrían solventarse de una manera

apta para ambos campos.

La noción de totalidad orgánica o Gestalt es fundamental en la teoría de

sistemas. La definición más precisa de sistema en la que se basa la forma

contemporánea de la teoría vino dada por las investigaciones de los biólogos

chilenos Francisco Varela y Humberto Maturana, que desarrollaron la noción

de autopoiesis en los años 70.

El sociólogo Niklas Luhmann formuló la teoría de sistemas en términos

aplicables a las entidades sociales.

Termodinámica: (wikipedia)

La Termodinámica es la parte de la física que se encarga del estudio de la

energía, de su transformación entre sus distintas manifestaciones, como el

calor, y de su capacidad para producir un trabajo. Está íntimamente

relacionada con la mecánica estadística de la cual se pueden derivar

numerosas relaciones termodinámicas. La termodinámica estudia los sistemas

físicos a nivel macroscópico, mientras que la mecánica estadística suele

hacer una descripción microscópica de los mismos.

ß Principio 0 de la termodinámica: Si dos sistemas A y B están a la

misma temperatura, y B está a la misma temperatura que un tercer

sistema C, entonces A y C están a la misma temperatura. Este

concepto fundamental, aun siendo ampliamente aceptado, no fue

formulado hasta después de haberse enunciado las otras tres leyes.

De ahí que reciba la posición 0.

ß Primer principio de la termodinámica: También conocida como la ley de

la conservación de la energía dice que en un sistema con una

determinada energía interna, si se realiza un determinado trabajo, la

energía interna del sistema variará. A la diferencia entre la energía

interna del sistema y la cantidad de energía se la denomina calor.

(Propuesto por Lavoisier)

//// gglloossaarriioo

110088

ß Segundo principio de la termodinámica: Con numerosos enunciados,

quizás el más conocido es el que dice que la entropía de un sistema

aislado aumenta con el tiempo hasta alcanzar un valor máximo. En

palabras simples, este principio dice que la cantidad de desorden

(entropía) de un sistema crece con el tiempo. (Propuesto por Sadi

Carnot.)

ß Tercer principio de la termodinámica: Es imposible alcanzar una

temperatura igual al cero absoluto mediante un número finito de

procesos físicos. (Propuesto por Nernst)

Topología (wikipedia)

Rama de las matemáticas que estudia las propiedades de las figuras

geométricas o los espacios que no se ven alteradas por transformaciones

continuas, biyectivas y de inversa continua (homeomorfismos). Es decir, en

topología está permitido doblar, estirar, encoger, retorcer... los objetos pero

siempre que se haga sin romper ni separar lo que estaba unido (la

transformación debe ser continua) ni pegar lo que estaba separado (la inversa

también debe ser continua). Por ejemplo, en topología un triángulo es lo

mismo que un cuadrado, ya que podemos transformar uno en otro de forma

continua, sin romper ni pegar. En topología una taza es lo mismo que una

dona.

110099

Notas

i José Ortega y Gasset (1883-1955) nació en Madrid en el seno de una familia

burguesa, liberal e ilustrada, propietaria del periódico madrileño “El

imparcial”. Estudia filosofía en la universidad de Madrid. 1905-1908, pasa

por las universidades alemanas de Leipzig, Berlín y Marburgo. En 1910, gana

la cátedra de Metafísica de Madrid. En 1917 funda el diario “El Sol”; y en

1923 la “Revista de Occidente”. Desde 1914 interviene en la política, se

opone a la dictadura de Primo de Rivera. En este periodo publica “La

deshumanización del Arte” y “La rebelión de las masas” entre otros ensayos

y destaca su fuerte compromiso político así como un raciovitalismo heredado

de los hermenéuticos (Dilthey y Husserl). Posteriormente sirve como

diputado en la segunda republica, pero la política se vuelve inestable. Cuando

estalla la guerra civil, en 1936 se exilia en París y luego Holanda, Argentina,

Portugal dando cursos. En este periodo pública “Meditación de la Técnica” y

“Los papeles sobre Goya y Velásquez”. Regresa a España en 1945. En 1951 y

1953 realiza dos encuentros con Heidegger. Muere en Madrid en 1955.

Ortega y Heidegger no sólo son contemporáneos, sino que escribieron

ensayos acerca de la técnica en el mismo periodo. Ortega escribió

“Meditación de la Técnica” (1939) algunos años antes que Heidegger

escribiera “La pregunta por la Técnica” (La conferencia en la Academia de

Munich es de 1953), no se tradujo al alemán hasta varios años después, pero

es posible que hayan tenido contacto. Pero en la filosofía occidental ha sido

más reconocido Heidegger como el fundador de los estudios acerca de la

técnica.

Heidegger

Filósofo alemán. Nació en Messkirch, Baden, Alemania (1889). Inició estudios

de teología pero pronto los abandonó para dedicarse a la filosofía, que estudió

en Freiburg con, entre otros, Rickert y Husserl. Discípulo destacado de este

último lo sustituyó como Catedrático en esa universidad (1929) a raíz de la

popularidad adquirida con la publicación de “Sein und Zeit” (1927), obra que

//// nnoottaass

111100

dio pie a su distanciamiento con respecto a su maestro, luego llegaría a ser

nombrado rector en esa Universidad. Debido a sus ideas políticas a favor de

los nazis fue censurado en más de una ocasión y se vio obligado a abandonar

la universidad. Fue un gran crítico de la metafísica y se apoyó en el

existencialismo con la muerte como último fin. En los últimos años de su vida

dedicó gran parte de su tiempo al lenguaje y la poesía. Es autor de "La

esencia de la verdad", "La doctrina de Platón acerca de la verdad", "Qué

significa pensar", etc. La influencia de este autor en las sucesivas corrientes

filosóficas fue determinante.

ii Pigmalión, escultor de Chipre, tenía un ideal de mujer que nunca encontró,

por lo que se quedó soltero; pero talló en marfil una escultura tan perfecta,

que de ella se enamoró. Entonces, Afrodita dio vida a la estatua, que fue

Galatea con quien Pigmalión se unió en matrimonio.

http://www.automates.info/bibliotheque/historique/ consultado 10/2003

iii En 917, dos embajadores bizantinos, en visita en Bagdad descubren el

palacio de Al-Muktadir: "ambos embajadores […] se encontraban en el lugar

que el gran chambelán les había señalado cuando un ingenioso mecanismo

puso en marcha uno de estos autómatas que se consideraban entre las

maravillas más apreciadas de la época"; vieron "salir de la tierra, por

diferentes movimientos, un árbol que llenó la cúpula e hizo brotar chorros de

agua de rosa y agua de almizcle, mientras que figuras de aves cantaban en

las ramas." (Relato de Nâsir I Kusran, cronista del califa)

http://www.automates.info/bibliotheque/historique/historique.htm, consultado

10/2003

iv Sexta Meditación , Descartes

"Y verdaderamente, podemos comparar los nervios de la máquina que le

describo, a los tubos de las máquinas de estas fuentes; sus músculos y sus

tendones, a otras máquinas y resortes que sirven para moverlos; estos

//// iinn ssiilliiccoo

111111

espíritus de animales movidos por agua, cuyo corazón es la fuente y el

concavidez del cerebro son las miradas."

v Filósofo idealista francés, representante del intuitivismo. El concepto básico

del idealismo bergsoniano es la “duración pura”, fundamento primario de todo

lo existente. Materia, tiempo y movimiento son formas distintas de “duración”,

y sólo es accesible a través de la intuición. Bergson propone una “evolución

creadora” basada en el idealismo biológico (vitalismo). Los vitalistas, creían

que la vida era dirigida desde el interior por una fuerza espiritual.

vi Las clasificaciones de los seres vivos son muy numerosas, se proponen,

desde la tradicional división en dos reinos establecida por Linné en el siglo

XVIII, entre animales y plantas, hasta las propuestas actuales de los sistemas

cladísticos con tres dominios que comprenden más de 20 reinos.

vii D’ Arcy Wentworth Thompson (1860-1948), profesor de zoología en la

Universidad de Saint Andrews, Escocia, es un hombre reconocido por los

biólogos e historiadores como una figura incontornable, dada la importancia

de carácter multidisciplinario de una de sus obras, más no la única: On

Growth and Form. El autor hace un análisis del crecimiento y las formas en la

naturaleza desde la zoología y la matemática, incorporando en las

descripciones sus conocimientos en letras clásicas.

//// nnoottaass

111122

//// iinn ssiilliiccoo

111133

Bibliografía y ligas

Arte electrónico:

ß artificial life.org http://www.alife.org/

ß .doc http://www.cnca.gob.mx/inv/doc/

ß Goldberg, Ken; Malina, Ryan, The Robot in the Garden, Ed. MIT Press, 2001

ß Hayles, Katherine, How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics, Ed. MIT Press, 2001

ß Kroker, Arthur; Kroker, Marilouise, Digital Delirium (Culturetexts), Ed. Palgrave Macmillan, 1997

ß Lunenfeld, Peter, The Digital Dialectic, Ed. MIT Press, 2000

ß Manovich, Lev, The Language of New Media, Ed. MIT Press, 2001

ß nettime http://amsterdam.nettime.org/

ß Popper, Frank, Art of the Electronic Age, Ed. Thames & Hudson, 1997

ß postmedia http://www.postmedia.net

ß RCCS: Resource Center for Cyberculture Studies http://www.com.washington.edu/rccs/

ß Rhizome http://www.rhizome.org/

ß Rhizome Artbase http://rhizome.org/artbase/

ß Ross, David, 010101: Art in Technological Times, Ed. San Francisco Museum of Modern Art, 2001

ß Spiller, Neil, Cyber Reader: Critical Writings for the Digital Era, Ed. Phaidon Press Inc, 2002

ß VIDA/LIFE x.0 (Concurso Internacional sobre Arte y Vida Artificial, Fundación Telefónica)

http://www.fundacion.telefonica.com/at/vida/index.html

ß Wikipedia www.wikipedia.org

ß Wilson, Stephen, Information Arts, Ed. MIT Press, 2001

ß Wilson, Stephen,“Dark and Light Visions: The Relationship of Cultural Theory to Art that Uses Emerging Technology” en la página

web Information Arts, Stephen Wilson, 1993 (consultado en octubre 2004) http://userwww.sfsu.edu/~swilson/papers/postmodern.pap.html)

ß Wilson, Stephen, “Art as Research” en la página web Information Arts, Stephen Wilson, 1996 (consultado en octubre 2004)

http://userwww.sfsu.edu/~swilson/papers/artist.researcher.html

ß Weibel, Peter; Druckrey, Timothy, Net Condition, Ed. MIT Press, 2001

Filosofía:

ß Beardsley; Hospers, Estética: historia y fundamentos, Ed. Catedra, Colecc. Teorema, Madrid, 1984

ß Broncano, Fernando, Mundos Artificiales: Filosofía del cambio tecnológico, Ed. Paidos/ FFyL UNAM, México, 2000

ß Dawkins, Richard, The selfish gene, Oxord University Press,1989

ß Gould, Stephen Jay, The Structure of Evolutionary Theory, Harvard University Press, 2002.