in silico (BFA thesis), 2002 [español]
Transcript of in silico (BFA thesis), 2002 [español]
33
Agradecimientos
Quiero dedicar este trabajo a mi familia Jean-Pierre, Sonia e Yves sin cuyo
apoyo no hubiera sido posible realizarlo. También a Ernesto que pasó largas
horas discutiendo conmigo cada parte del proyecto.
Un agradecimiento especial a Ana Lilia por su guía y su paciencia; a mis
colaboradores del Centro Multimedia y amigos: Alejandra Gilling, Hugo,
Cuau, Pedro, Marcela, Humberto y Mariana entre otros por que estuvieron
conmigo desde el principio y se involucraron en todo; en particular Marco
por la programación, Lalo por el audio, Amanda por la página, Myriam por el
mapa, Karla por el texto para exposición y Tania y Liliana por su asesoría y
correcciones.
También quiero agradecer al FONCA que apoyó en la realización de la pieza
y especialmente a José Luis García Nava por su ayuda y asesoría.
A todos los del IIF, en particular a Fernando Broncano, por su gran
entusiasmo y apoyo, pero sobre todo por que me ayudaron a redescubrir la
teoría.
Por último a mis amigas que insistían en que estudiara arte y a las bestias
por estar siempre ahí.
México, D.F, Agosto 2005.
55
Prólogo
La pieza central de este documento es una simulación por
computadora, llamada “in silico”, que realicé en el Centro Multimedia
del CENART con la beca Jóvenes Creadores del FONCA en el
periodo 2002-2003. Se expuso por primera vez al término de ese
periodo en la Galería de arte binaria del CENART en agosto 2003.
Desde entonces se ha expuesto en varias ocasiones.
Este proyecto tuvo diversas implicaciones. En primer lugar, tomó
mucho tiempo ya que tuve que involucrarme en procesos
computacionales que no conocía a parte de trabajar con el ingeniero
Marco Antonio Montes de Oca, que realizó una gran parte del código.
Por otro lado el proyecto requirió de una investigación en diversas
disciplinas, amplia y especializada, que me tomó un año más. Gran
parte de esa investigación está en este documento. Por último, los
temas que traté me llevaron a profundizar en otras áreas. Por lo cual
continué mis estudios con la maestría en filosofía de la ciencia en el
Instituto de Investigaciones filosóficas de la UNAM,
especializándome en filosofía de la tecnología. La tesis “Artificial: un
enfoque filosófico” es un estudio más amplio y profundo del capítulo
II presentado aquí.
Esta investigación determinó mi obra y el tipo de proyectos tanto
artísticos como académicos en los que ahora me involucro. Me
adentró en el arte electrónico, que me parece una práctica fascinante
por su movilidad y riqueza conceptual pero también me permitió
producir obra desde la frontera entre arte, ciencia, tecnología, y
filosofía. Por último, me permitió acercar a personas de esas
disciplinas al arte electrónico.
66
En la primera parte de este documento encontrarán una revisión de
algunos temas importantes en el arte electrónico. Estos temas no se
desarrollan después, pero era necesario comentarlos para entender
el contexto de la pieza. En primer lugar rastrearemos los orígenes
del arte electrónico, la relación arte y ciencia, y algunas
características comunes en este tipo de piezas. En segundo lugar,
hay una breve reflexión histórica y filosófica acerca de la
separación entre arte y técnica, seguida de una revisión de la
relación tecnología y pensamiento contemporáneo, para terminar
con algunos comentarios acerca de la relevancia de “la Teoría” en
el Arte Electrónico.
En el primer capítulo, se revisarán distintas posturas filosóficas
frente a la relación entre lo natural y lo artificial, ya que ese es el
eje teórico de la pieza “in silico”. Revisaremos algunos
representantes de las corrientes más relevantes que tratan el
problema. Estas son la filosofía española, que proviene de la escuela
de Salamanca, el constructivismo social y las ciencias cognitivas.
En el segundo capítulo, trataron de rastrearse varias nociones para
entender que era lo importante al hacer una pieza de vida artificial,
es decir, cuáles eran los puntos de contacto con filosofía, ciencias,
biología, cómputo, ciencias cognitivas, etc. Aquí se presenta un
panorama de estos campos de conocimiento, sus antecedentes,
historia y evolución.
El tercer capítulo presenta distintas piezas que tratan problemáticas
de vida e inteligencia artificial, haciendo un análisis de los distintos
enfoques.
Los capítulos 4 y 5 son específicos a la pieza. El cuarto capítulo es
un análisis de la obra de arte: descripción, metodología y un mapa.
El mapa presenta los distintos ejes que estructuran tanto la pieza
como la investigación, así como sus relaciones. Estos son los ejes
teórico, tecnológico y artístico. El quinto capítulo es un anexo
técnico. Aquí continúa el capitulo anterior con el eje tecnológico y
se describe el funcionamiento del software.
In silico es un neologismo que surge
del silicio en que están basados los
microprocesadores. Significa “en
computadora o vía simulación por
computadora” y se deriva de in vitro,
frase utilizada en biología para
referirse a experimentos realizados en
organismos vivos. La frase se utiliza
comúnmente en artículos y
legislaciones para hacer referencia a la
vida artificial”.
77
I. El Arte Digital
Al contemplar a la máquina como factor emancipador del orden social y elevarla
como tal al valor estético y cultural universal, los artistas de las vanguardias
restablecieron aquella dimensión como identidad del desarrollo científico técnico y
moral. La experimentación artística con la tecnología de comienzos del siglo XX, era
la característica común de diversos movimientos de vanguardias modernistas.
(Eduardo Subirats)
Es posible rastrear como orígenes del arte electrónico el momento
en que los artistas contemporáneos a la revolución industrial
empiezan a utilizar las herramientas y las máquinas para hablar de su
sociedad o generar imaginarios. La máquina se convierte en icono de
la modernidad, del movimiento, de la fuerza de trabajo, del progreso,
del dominio del hombre sobre la naturaleza.
Durante la primera mitad del siglo XX, la revolución tecnológica sale
de las industrias y entra a la vida de las personas. Se forman varias
empresas que unen una gran creatividad, espíritus innovadores,
grandes inventores y los mejores científicos, bajo expectativas de
crear objetos y llenar las casas de inventos que facilitarían y harían
más cómoda la vida. En una carrera industrial muy competida se
electrifican países enteros en algunos años y se extienden redes
telefónicas. Las máquinas se vuelven parte de las rutinas personales.
En la segunda mitad del siglo XX, varios laboratorios abren sus
puertas a artistas para experimentar con sus tecnologías y colaborar
con su equipo de científicos e ingenieros. Así empieza a
estructurarse lo que conocemos como arte electrónico.
En los laboratorios Bell participan Emmanuel Ghent, Billy Klüver,
Ken Knowlton, Max Mathews (considerado el padre de la música por
//// EEll aarrttee ddiiggiittaall
88
computadora), Michael Noll, Laurie Spiegel, Jerry Spivack, Doree
Seligmann, Carl Machover, entre otros [ 1 ]. En los laboratorios
Lincoln del MIT, fundados por la fuerza aérea, Steven Coons, Ivan
Sutherland y Timothy Johnson comienzan a manipular imágenes con
la computadora. Brenda Laurel participa en Atari, Myron Krueger y
Jaron Lanier desarrollan las primeras nociones de la realidad virtual
y las interfaces de inmersión entre otras, Douglas Engelbart inventa
el mouse y participa en la invención de las interfaces gráficas y
ARPANET (precursor de internet).
Desde 1957, con “Oscillons” de Ben Laposky empiezan a crearse
esculturas cibernéticas e imágenes con osciloscopios y
computadoras, que empiezan a aparecer en concursos y
exposiciones artísticas. Klüver y Raushemberg se unen para fundar
“Experiments in Art and Technology” (E.A.T), primer grupo de arte
y tecnología. En 1965, se organiza en Stuttgart, Alemania la primera
exposición de obras computacionales “Computer Graphics”. En 1968,
Jasia Reichardt, directora del Instituto de Arte Contemporáneo de
Londres (ICA), asesorada por Max Bense, organiza la exposición que
consagró al arte por computadora Cybernetic Serendipity. Las cuatro
secciones consistían en gráficos generados “por computadora”,
películas animadas “por computadora”, composiciones y ejecuciones
musicales “por computadora” y textos y versos creados también
“por computadora”. Científicos, ingenieros y compositores
generaban imágenes con ayuda de las computadoras, pero fueron los
artistas quienes crearon máquinas. Entre ellas estaban Metamatic de
Tinguely, Robot-456 de Nam-Jun Paik y Rosa Bosom de Bruce
Lacey. Pronto (1979) surgieron más ferias de arte y tecnología como
la Siggraph art gallery y Ars Electrónica que continúan fomentando
este genero hasta nuestros días.
[1] (http://www.asci.org/BellLabs/)
//// iinn ssiilliiccoo
99
En los últimos cincuenta años, los artistas se han relacionado de
distintas maneras con la tecnología y aunque se utilice popularmente
para cualquier tipo de edición de imagen o página Web, las piezas
más interesantes son las que se involucran directamente en los
procesos computacionales, código y algoritmos, piezas con
comportamientos emergentes, discursos no lineales, etc., es decir,
las piezas que se construyen desde la lógica de la máquina
interpretada por el artista. Esto se debe a que se construye un
diálogo entre los dos y se convierten en piezas complejas en su
naturaleza y en el discurso. Estos criterios, fundamentales en el arte
electrónico reflejan el pensamiento de la época. La tecnología y los
avances siempre han influido en la cultura, pero actualmente la
sociedad está articulada en función de la actividad tecnológica. La
industrialización de la ciencia y la técnica no plantea sólo problemas
económicos, políticos, o morales, sino también otros relativos a
nuestro conocimiento del mundo, es decir, modifica la manera en que
se articula la sociedad, pero también modifica la manera en que lo
entendemos. La tecnología esta presente en el mundo que nos rodea,
como sugiere el filósofo español Miguel Ángel Quintanilla “la
sustancia misma de la realidad que nos circunda es intrínsecamente
tecnológica o artificial”. Por otro lado también se vuelven criterios
importantes la interdisciplina, ya que no es posible elaborar este tipo
de piezas desde un sólo ámbito, y la interacción con el espectador,
ya que es parte de las dinámicas que tenemos con la tecnología.
De acuerdo a Stephen Wilson director del Conceptual Information
Arts Program de la Universidad de San Francisco existen tres
modelos de prácticas artísticas con ciencia y tecnología. El primero
es una continuidad modernista en la cual los artistas se apropian de
las tecnologías contemporáneas para crear nuevos tipos de imágenes
sonidos, instalaciones, etc. El segundo consiste en una práctica
crítica. En esta el papel principal del arte es deconstruir patrones
culturales que integran la ciencia y la tecnología. Utilizan la
//// EEll aarrttee ddiiggiittaall
1100
tecnología para conocerla mejor, analizarla y criticarla. El último
modelo plantea el arte como proyecto de investigación. Los artistas
tratan de insertarse en el corazón de la investigación científica y la
innovación tecnológica para llevar a cabo investigaciones ignoradas
regularmente por la ciencia.
Es en este último tipo de práctica artística donde tiene más
relevancia la ciencia. Suele pensarse en ciencia y tecnología como
un sólo campo. Aunque la relación arte-tecnología es muy común, la
relación arte-ciencia no lo es tanto, dado que es más difícil
integrarse en campos tan especializados. Podemos decir que existen
pocas piezas esencialmente científicas. Algunas tratan temas
científicos, otras hacen crítica o paráfrasis y pocas se involucran en
los procesos. Por lo tanto los proyectos artísticos-científicos no son
producto de la creación de un artista, sino de un grupo
interdisciplinario, o de la colaboración entre un artista y un instituto
de investigación y desarrollo. Algunos de los temas que más tratan o
utilizan los artistas son las ciencias computacionales, electrónica,
telecomunicaciones, la cibernética, interfaces hombre-máquina,
matemáticas y algoritmos y en menor cantidad la genética, química,
biología, ciencias cognitivas y lingüística.
Stephen Wilson hace notar que la influencia no es en los dos
sentidos, la práctica artística está influenciada por las tecnologías
emergentes y la innovación científica, pero el arte no tiene la misma
influencia. Es decir, el arte no se considera como una investigación
seria en el campo de la ciencia o la tecnología. Sin embargo, cada
vez hay más residencias artísticas en laboratorios [ 2 ], con
motivaciones económicas detrás, ya que se ha observado que la
[2] Las residencias artísticas en centros de investigación científica y/o tecnológica existen en Europa, estados Unidos y Japón.
Algunos ejemplos son las trece residencias por parte de la comunidad europea en laboratorios, el Interactive Institute de Suecia
liga cinco escuelas nacional de arte y teatro con institutos de investigación, las residencias artsinlabs en laboratorios suizos, las
becas en las industrias del país Vasco, y en E.U.A en Bell, MIT, Xerox PARC y NASA entre otros.
//// iinn ssiilliiccoo
1111
colaboración y la interdisciplina son fundamentales a la creatividad y
la innovación. Myron Krueger va al extremo de decir que la
tecnología de realidad virtual no hubiese existido sin la intervención
de los artistas.
//// EEll aarrttee ddiiggiittaall
1122
En el pensamiento occidental, la historia de la reflexión filosófica en
torno a las artes empieza en la antigua Grecia. El primer “juicio
estético” acerca de la imagen grabada en el escudo de Aquiles es
“que constituía una obra maravillosa” manifestando el asombro
frente a la imitación y la relación entre representación y objeto,
apariencia y realidad. Para Platón, las invenciones auténticas son
imposibles. Los valores de la obra de arte son belleza e imitación:
“mimesis”, enfatizando su imperfección al ser una imitación de
segundo grado, una copia de lo que vemos, que en sí ya es una copia.
Los artefactos, incluyendo las obras de arte, son imitaciones de lo
natural. Aristóteles acentúa el “producto humano” como
característica única del hombre. Lo “natural” y lo “artificial” son
epistemológicamente distintos. El término techné se refiere al
conocimiento práctico, al “know-how”, a diferencia de epistéme: el
conocimiento “teórico”. El término techné reúne las nociones de arte
y técnica.
A principios de la época moderna (s. XV), el mundo deja de
determinar al hombre y es el hombre el que determina al mundo. El
hombre se convierte en el centro de su reflexión. A partir de ese
momento la idea de arte como la concebían los griegos llega a su fin.
La estética se convierte, en términos de Baumgarten, en una “lógica
de sensibilidad”, es decir, la manera en que el artista capta
sensiblemente la realidad. Arte y Técnica se alejan. El arte
pertenecía al mundo de lo bello y lo sublime, y la técnica es
puramente instrumental. Aunque Descartes no había elaborado
ninguna teoría estética, su método (búsqueda de la claridad
conceptual, del rigor deductivo y certeza intuitiva de los principios
básicos) se extiende a otros campos. Gottlieb Baumgarten, acuña el
termino “estética” (1750) en un intento sistemático de metafísica del
arte y la búsqueda de una forma de conocimiento “sensorial”.
//// iinn ssiilliiccoo
1133
La Ilustración es un periodo fecundo en teorías estéticas. Para Kant
(Observaciones acerca del sentimiento de lo bello y lo sublime,
1764), lo común a lo bello y a lo sublime es un sentimiento de placer
o de displacer. Lo sublime, contiene un sentimiento de placer
ambiguo, mezclado con horror, temor, angustia, dejando sabor
amargo, frente al carácter risueño y alegre de lo bello. Hegel finaliza
la construcción de la “teoría estética” (Filosofía de las Bellas Artes,
1835), separando el arte de la naturaleza, como una práctica
exclusivamente humana, presentándose en “ascendente
espiritualización”. La separación arte y técnica culmina con el arte
romántico, que anunciaba ya la muerte de “el arte por el arte”, al
tomar conciencia de la imposibilidad de encarnar lo esencial.
No es hasta las vanguardias de finales del siglo XIX que arte y
técnica se reconcilian en la teoría y en la práctica. Hay una
reafirmación por la máquina, se adoptan los nuevos materiales y
técnicas, los modos de producción, el movimiento, el dinamismo y la
luz, resignificando los criterios artísticos y estéticos. Al mismo
tiempo se genera una postura crítica frente a la tecnología, la
creciente industrialización y la modernidad. Algunos de estos
movimientos fueron Arts&Crafts, Art Nouveau, Art Deco, Deutsche
Werkbund, Bauhaus, Futurismo, etc. A mediados del siglo XX, con las
primeras piezas de arte electrónico, el artista y el ingeniero
empiezan a fundirse en uno sólo, recuperando la noción de techné, e
intercambiando los valores entre arte y técnica.
Actualmente la filosofía y la teoría no sólo tienen cabida en esa
relación, sino que se hace indispensable. La tecnología se ha filtrado
en la cultura de tal manera, que el arte la ha adoptado como una más
de sus herramientas.
La filosofía, en particular la estética, ha dado cuenta de la relación
amor-odio entre arte y técnica. Actualmente, el pensamiento
//// EEll aarrttee ddiiggiittaall
1144
contemporáneo se incorpora a esa relación. La relación tecnología-
teoría es fundamental en la práctica artística.
El impacto de la tecnología en la vida y cultura contemporáneas es
un problema vital en nuestra época. La teoría crítica y los estudios
culturales pretenden relacionar arte, literatura, política, sociología,
antropología, filosofía y tecnologías en una búsqueda
multidisciplinaria de conceptos y modelos relevantes con los cuales
entender el mundo. La práctica artística y la teoría están siendo
radicalmente remodeladas por esta actividad. La crítica ha tomado
conciencia de la importancia del impacto de las tecnologías
emergentes en el arte. Televisión, sistemas computacionales,
telecomunicaciones, así como las tecnologías utilizadas en medicina,
biología, o milicia no son industrias aisladas. El mundo actual está
configurado bajo esquemas de economía de la información, modelos
de distribución, sistemas de mercadotecnia y publicidad masiva, etc.
que nos determinan. Dentro de las visiones del pensamiento
contemporáneo acerca de la tecnología, se destacan la del
postindustrialismo, que explica que nuestra era se distingue porque
existe más gente trabajando en organización, distribución e
información que en la producción misma de objetos. McLuhan, por su
lado había ya hecho notar que el medio impactaba más allá que el
mensaje y transformaba la manera en que nos veíamos a nosotros
mismos y al mundo. Haraway denota el impacto ideológico de las
tecnologías en medicina y biología, Virilo de la industria militar,
Foucault de la vigilancia y Baudrillard de los mass-media, e
industrias de entretenimiento y publicidad.
Por último, no es posible utilizar un medio sin preguntarse acerca de
su naturaleza, sus alcances, valores o implicaciones, ni sin tomar una
postura. En el arte electrónico este fenómeno se intensifica, ya que
se destaca por reunir tecnología, ciencia y arte. El artista digital a
diferencia de artistas en otros campos debe involucrarse en distintos
//// iinn ssiilliiccoo
1155
espacios teóricos especializados e integrarse en discusiones latentes
en tecnología, ciencia, estudios culturales, teorías de la información
y teorías del diseño. El artista que trabaja con medios electrónicos
debe tomar una postura tanto práctica como teórica. Se convierte en
muchos casos en investigador o en artista “de laboratorio”. La teoría
se vuelve fundamental pero también la metodología, surgen híbridos
entre tecnología, ciencia, arte y teoría. Los discursos se especializan.
Es muy posible que la teoría en el arte digital esté totalmente alejada
de la teoría en el performance, la gráfica o la escultura.
En mi caso, la investigación pretendía contextualizar la obra en las
distintas disciplinas que atravesaba, encontrar o generar las
relaciones entre ellas; historizar el punto en el que ahora se
encontraban. Podría decirse que la obra era un nodo en el cual arte,
ciencia, filosofía, tecnología, e historia se intersectaban. Los
capítulos a continuación son una búsqueda en reversa de cada
disciplina que atraviesa el nodo. La metodología consistió en rastrear
los antecedentes de cada una de ellas, en indagar cómo acontecieron
los eventos, las relaciones y procesos de intercambio entre las
mismas, así como el que desembocaran en esa intersección. Por
ejemplo, dado que la biología es una de las disciplinas, rastree sus
orígenes y trayectos hasta el momento en que desemboca en la vida
artificial.
1177
II. El problema de lo artificial: Algunas posturas filosóficas
Dado que la pieza “in silico” trata de manera importante la relación
entre lo natural y lo artificial, en este capítulo se revisarán distintas
posturas filosóficas frente a este problema. Iniciaré con los primeros
acercamientos de los griegos y herméticos y el “problema de la
técnica” presente en la filosofía de Heidegger y Ortega y Gasset,
como antecedente a la filosofía de la tecnología; para seguir con una
revisión de la manera en que abordan lo artificial algunos pensadores
contemporáneos de los estudios sociales de la ciencia y la tecnología.
Para ello tomaré a dos grupos preponderantes en filosofía de la
tecnología. Dentro de los estudios conocidos como CTS (Ciencia,
Tecnología y Sociedad) se encuentra la “Escuela de Salamanca” [3],
y en los conocidos como SSS (Social Studies of Science) veremos
algunos representantes del constructivismo social. [4]
En las distintas posturas filosóficas las argumentaciones son
distintas, los presupuestos y las conclusiones varían pero el
resultado es el mismo. Existe la noción de artificial, pero no se
opone a lo natural. Su relación es mucho más difusa y compleja de lo
que se pretende en un primer acercamiento.
Con divisiones, clasificaciones, e imitaciones hemos querido ver una
separación de lo natural y lo artificial, buscando tal vez en ello el
rastro de nuestra humanidad y nuestra superioridad intelectual frente
a los demás animales.
Finalmente, todas las posturas coinciden en que no es posible
separar lo natural de lo artificial, que esencialmente son lo mismo, y
que lo artificial, como toda construcción, es parte de lo que somos.
[3] Los mayores representantes de la Escuela de Salamanca son Miguel Ángel Quintanilla, Fernando Broncano y Javier
Echeverría.
[4] En el constructivismo social se destacan autores como Latour, Haraway, Woolgar, Collins y Bloor entre otros.
//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall
1188
En el pensamiento griego existe una clara división entre lo natural y
lo artificial. “Natural” y “artificial” tienen valores distintos. Lo dado
por la naturaleza existe por la physis y tiene más valor que lo
fabricado por el hombre. Lo natural significa orgánico, vivo,
autónomo y espontáneo, mientras que lo artificial es algo muerto,
inerte.
Para Platón, los artefactos son imitaciones de lo natural, de lo
genuino y original. Decir que algo es artificial es decir que esa cosa
parece ser pero no es. Lo artificial es aparente; muestra cómo es
otra cosa. Por lo tanto es una metailusión, ya que lo visible, ya es en
si, una ilusión de lo real.
Para Aristóteles lo natural y lo artificial son dos esferas distintas de
la realidad, difieren en el plano ontológico, pragmático y epistémico.
Lo natural y lo artificial difieren de forma esencial, las leyes que los
gobiernan son diferentes y por lo tanto el conocimiento de ambas
también es distinto.
Ontológicamente los entes naturales tienen una forma primaria y los
artificiales una forma secundaria que los agentes humanos imponen.
Aristóteles empieza a darle valor a la artificialidad de los objetos. Lo
natural tiene en sí mismo la fuente de su propia formación mientras
que en lo artificial la fuente es distinta y externa. Los artefactos no
son imitaciones de algo ya existente sino invenciones auténticas que
constituyen algo nuevo y no sólo una copia imperfecta. La rueda -
como base para transportar- es un ejemplo de un objeto autentico
que no existía previamente en la naturaleza y por lo tanto no podía
haber sido imitado.
La relación natural-artificial se modifica en el pensamiento
hermético. Los herméticos se distinguen por su ruptura en la
comprensión del mundo. Creen que el hombre está dotado de un
poder creativo divino análogo al de “Dios”. Surge la idea del
Hombre-Mago, del alquimista que comprende el curso de la
//// iinn ssiilliiccoo
1199
naturaleza y por lo tanto tiene el poder de inferir en él para generar
algo nuevo y reorganizar lo existente. El hombre-mago crea un
universo dentro del universo creado por Dios, pero no es inferior al
suyo. Su propósito es crear herramientas (simbólicas o instrumentos)
para tener poder sobre la naturaleza. Este hombre considera ya,
mucho antes que en la modernidad, que tiene dominio sobre la
naturaleza y los objetos. En esta tradición pueden situarse los
orígenes de los conceptos modernos de tecnología y
experimentación aún entretejidos con conceptos de magia.
Ortega y Gasset y Heideggeri publican en la primera mitad del siglo
XX sus artículos acerca de la técnica.
Ortega y Gasset decía que la técnica es intrínseca al hombre y no
podemos deslindarnos de la manera en que nos acercamos y
modificamos el mundo con artefactos a nuestra conveniencia para
obtener lo más posible con el menor esfuerzo. Para el filósofo
español, la técnica es la adaptación del medio al sujeto, el hombre no
se adapta al entorno, se confronta con el y lo transforma, creando
una sobrenaturaleza. No basta estar en el mundo, hay que estar
“bien” en el mundo.
Para Heidegger, el pensamiento parte de una búsqueda ontológica. El
filósofo alemán no parte de la técnica sino de la esencia de la misma.
Esta es la noción de desvelamiento, la técnica no es medio, ni acto,
sino lo que está detrás. El hombre moderno ve la naturaleza como
desafió, como energía acumulada que debe ser explotada, a
diferencia de los griegos que tienen una relación no violenta con la
naturaleza. El hombre se convierte en un creador de artificios. En La
pregunta por la técnica, el autor usa de manera paradójica las
nociones de amenaza y salvación. “Amenaza” por la devastación
generada por la tecnología, y “salvación”, ya que considera que la
respuesta está en ella misma. Va a proponer que la técnica sea
pensada como techné, como acto poiético, en una reconciliación con
el pensamiento griego.
//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall
2200
1. Fernando Broncano
Son muchos los animales que disponen de técnicas, de patrones de
conducta que transforman el medio. Lo que hace de los humanos una
especie técnica no es la fabricación de artefactos, sino la fabricación
de artefactos necesarios para producir otros artefactos. Es decir, el
hombre se distingue de los demás animales por la complejidad de los
artefactos que genera. Es la instrumentalidad de segundo orden que
sólo puede ser producida mediante racionalidad instrumental
compleja.
En “Mundos artificiales: filosofía del cambio tecnológico” (2000)
Fernando Broncano indaga en los criterios de división entre lo
natural y lo artificial, explicando que la cultura, la intencionalidad y
el control son criterios necesarios más no suficientes para definir los
sistemas artificiales en relación con los sistemas naturales.
Criterio de naturaleza y cultura
Un criterio para demarcar lo artificial no debe ser un criterio que
separe lo artificial de lo natural sino un criterio que establezca qué
partes del mundo natural son artificiales. Sería sencillo distinguir lo
natural de lo artificial si tuviéramos un criterio claro de distinción
entre naturaleza y cultura. De acuerdo con Mosterín, en “Filosofía de
la Cultura” (1993), una distinción entre naturaleza y cultura es:
naturaleza es la información transmitida genéticamente y cultura es
la información transmitida no genéticamente.
En este caso, las técnicas para cazar que enseñan los animales a sus
hijos serían parte de la naturaleza y la enseñanza de modales en los
humanos sería información cultural, reconociéndose ya que cambian
de una cultura a otra.
El problema que surge con esta distinción es que no permite
distinguir entre productos animales y productos humanos. ¿No serían
//// iinn ssiilliiccoo
2211
lo mismo el dique que fabrica el castor y la barda que construye el
hombre? Muchas especies dependen de técnicas que adquieren
culturalmente para su supervivencia para construir artefactos.
Criterio de intencionalidad
Un segundo criterio que de manera intuitiva caracteriza lo artificial
es el criterio de intencionalidad. Con este suponemos que es
artificial todo objeto que haya sido realizado de acuerdo a un plan
con el objetivo de producirlo con una función particular. Es decir,
una dimensión antecede la realización del objeto (sistema u artefacto)
en la que existe una representación de la realidad que modificará el
artefacto.
Esto quiere decir que una lanza es un artefacto ya que el fabricante
se imaginó qué tipo de objeto requeriría para labores de caza a
distancia y después lo fabricó de acuerdo a un diseño, para ese
objetivo particular. El diseño en la representación mental de la
realidad modificada no es un diseño formal con planos y medidas,
puede ser un diseño mental, o el resultado de sucesivas pruebas y
correcciones del modelo. Entre más complejo se vuelve el artefacto
más complejo es el diseño y se involucra la creación previa de
herramientas necesarias para la fabricación del artefacto.
Pero la intencionalidad y la representación no son criterios
determinantes. Existen artefactos que no surgen en diseño de la
realidad final, sino que surgen de manera no intencional en una de
las partes del diseño total. Es el caso que señala Broncano con el
sendero que se crea a fuerza de pasar por el mismo camino día con
día. No existe la intención de crear el sendero, pero sí existe la
intención de buscar una ruta corta y directa y este plan o diseño
implica el paso por un camino que se transforma en sendero. Esto lo
convierte en un artefacto porque la realidad ha sido modificada. No
es producto directamente intencional, sino un subproducto no-
//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall
2222
intencional. Por otro lado existen objetos elaborados con materiales
naturales que no muestran signos de artificialidad y sin embargo se
realizaron con intención de modificar la realidad, representándose el
objeto modificado y fabricando el artefacto de acuerdo a un diseño,
como por ejemplo una vara larga tallada en punta utilizada para
pescar de cerca.
Estos artefactos subproductos no-intencionales de un plan general,
como los artefactos intencionales cuya artificialidad y diseño no son
evidentes, demuestran que el criterio es útil en algunos casos, pero
no necesario ni suficiente.
Criterio de control
En este criterio se establece la característica intuitiva de un sistema
técnico creado por el hombre. El grado de artificialidad está
determinado por el grado de control. Tomemos un ejemplo: se cree
que un objeto creado puede controlarse. Pero si no pudiésemos
controlar nuestras máquinas, artefactos o invenciones estaríamos
lanzando al mundo objetos que no nos serían útiles cuando queremos
y para lo que queremos -esto es un problema recurrente con la
tecnología-. Otro punto, es que controlamos las piezas de un sistema,
es decir, un artefacto va a tener sólo las piezas que son necesarias
para que pueda cumplir su objetivo final. Un reloj o un avión no
tienen piezas sin una función específica en el diseño. Ya sean
funciones parciales o finales, los elementos suelen estar bajo control
desde el diseño. A esto, en términos ingenieriles, se le llama
supuesto de optimización de recursos. Por ejemplo, en un reloj, no
sobran tuercas, cada pieza está ahí porque cumple una función en el
sistema.
Pero este criterio tiene un problema. Un sistema complejo, está
definido por sus partes, que se encuentran controladas desde el
diseño, pero el interés primordial de un sistema complejo, ya sea una
máquina compleja, un sistema tecnológico complejo, o un sistema de
//// iinn ssiilliiccoo
2233
vida o inteligencia artificial, es la emergencia de particularidades no
determinadas en el sistema. Estas no están diseñadas ni controladas,
por lo tanto este criterio es importante pero no absolutamente
necesario para definir que algo sea artificial.
Estos conceptos establecen condiciones necesarias, pero no suficientes.
Dado que establecer criterios definitivos no es posible, podemos
establecer una distinción desde dentro: encontrar una propiedad que
identifique una característica de nuestras técnicas y de los artefactos
que fabricamos con ellas. Esto, en términos del autor, es la
“composicionalidad” de técnicas y artefactos. Los artefactos y los
organismos comparten características de la complejidad (complejidad
material, formal y funcional). Pero lo que destaca a los artefactos es
la correlación entre complejidad de artefactos y complejidad de
causas. Se dice que son objetos con una composicionalidad se
segundo orden, que sólo puede ser producido mediante racionalidad
instrumental compleja, por el hombre. Un ejemplo:
No es tejer telas de lino lo que hace de los humanos una
especie técnica, es el plantar campos de lino para tener
materiales disponibles.
(Broncano, 2000)
Con esto concluimos que la diferencia está en los procesos, más no
en el artefacto como tal. No podemos hablar de diferencias
fundamentales entre un artefacto y un organismo.
La complejidad en organismos y artefactos
La complejidad funciona en tres niveles: complejidad material, formal
y funcional. La complejidad material implica la fabricación de nuevos
materiales. Se cree que actualmente hay alrededor de 70,000
materiales, de los cuales una gran parte no existían hace algunos
cientos de años. Ahora se crean materiales desde su composición
//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall
2244
química para lograr más eficiencia en algún aspecto: estabilidad,
elasticidad, resistencia, conducción, etc. En la complejidad formal, la
misma información puede tomar distintas formas. Sabemos por
ejemplo que una máquina compleja es un conjunto de formas
elementales cuya conducta depende de la composicionalidad
anatómica de las partes. Si se varía la composición formal la máquina
variará de conducta, o no tendrá ninguna. En la complejidad funcional,
las funciones son conductas de las partes de un sistema que
justifican la existencia de esa parte. Existen dos nociones para la
función: La noción sistémica recoge nuestra idea de “buena
estructura”, es decir, que las partes se conduzcan de manera que la
conducta total del sistema sea óptima. La noción histórica se refiere
a nuestro supuesto de adaptación, esto es cuando un elemento se
encuentra en ese lugar porque ha probado que requiere estar ahí, o
se ha modificado para obtener un lugar.
Las mismas funciones pueden ser realizadas con formas diferentes y
las formas pueden conformar materiales diferentes.
//// iinn ssiilliiccoo
2255
2. Haraway y Latour (representantes del constructivismo social)
Donna J. Haraway
Con fines abiertamente políticos y sociales, Donna Jeanne Haraway
utiliza la distinción entre natural y artificial para resaltar la
desigualdad y la relación de poder en contra de las mujeres. Su
objetivo de reivindicación feminista podría debilitar el argumento del
“híbrido” para romper antiguas clasificaciones. Dejando a un lado el
objetivo feminista y político, exploraremos el argumento que sigue
siendo válido al analizar lo artificial y lo natural como dicotomía.
Para ello parte del supuesto que existe una separación entre natural
y artificial, y argumenta por qué ésta no debería de existir.
Haraway, en el libro“ModestWitness@SecondMillenium. FemaleMan
©MeetsOncoMouse” plantea un manual para negociar con el “Nuevo
Orden Mundial Inc.”. Su “modesto testimonio” actúa como guía en
una perspectiva sobre la ciencia y el progreso.
Según Haraway, nuestros conceptos de lo natural y lo artificial
provienen de las taxonomías del siglo XVIII. La bióloga hace una
revisión de algunos ejemplos de híbridos que ya no tienen cabida en
estas taxonomías.
Como los elementos transuránicos, las criaturas transgénicas,
que llevan genes de organismos que no están relacionados,
tienen cabida simultáneamente en discursos taxonómicos y
evolutivos bien establecidos, pero también arruinan el sentido
entendido de lo natural.
(Haraway, p.56)
¿Es posible seguir conservando clasificaciones que no abarcan los
organismos creados a partir de la tecnociencia? Haraway retoma la
separación de los reinos de lo natural y lo artificial desde las
nociones de pureza racial. Si los límites entre los reinos no son
//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall
2266
nítidos, surge la amenaza como medio para mantener estos límites a
como dé lugar.
Por otro lado tenemos el resultado de la desaparición de limites y
protección de “nuevas especies” como lo son los animales o plantas
transgénicos y sus patentes a cargo de las grandes empresas o
industrias.
La biología molecular y la genética hicieron tales progresos que
podemos alterar la estructura misma de la materia viva y modificar o
crear especies vegetales o animales. Plantas y animales se
convierten en objetos manufacturados en un laboratorio o una
empresa multinacional y en fábricas simples se producen
innovaciones alimenticias o farmacéuticas. En Gran Bretaña, entre
1990 y 1999, el número de animales genéticamente modificados (GM)
empleados para propósitos científicos aumentó un 960%.
En 1981 aparece el primer ratón transgénico y en 1985 la primera
carne de cerdo transgénica. En 1987 se obtiene la primera rata
transgénica que produce leche modificada y las primeras ratas
transgénicas portadoras de ADN humano. En 1988 aparece la
primera cabra cuya leche contiene una proteína humana. Ese mismo
año, el primer animal transgénico es patentado en los Estados Unidos;
se trata de un ratón, el OncoMouse™ de DuPont, genéticamente
modificado para ser portador de cáncer. Las primeras vacas capaces
de producir proteínas humanas en su leche aparecen en 1991, y en
1997 es el famoso nacimiento de la primera oveja clonada (nacida sin
espermatozoide): Dolly.
La alianza de la clonación y de la transgénesis da al hombre la
posibilidad de crear poblaciones enteras de animales quiméricos,
especializados en la producción de sustancias de interés terapéutico,
en el abastecimiento de órganos para la especie humana por
//// iinn ssiilliiccoo
2277
xénoimplante, o aún la tradicional producción de carne o leche. El
animal se convierte así en una fábrica de productos biológicos,
abriendo un paraíso a las multinacionales de la química.
Los híbridos de Haraway
El OncoMouse, el FemaleMan y el Flavr Savr son ejemplos que
utiliza Haraway para exponer los seres u organismos que no tiene
cabida en las clasificaciones tradicionales. No son naturales y no son
artificiales, pero son ambas. No se definen con las características de
una sola categoría.
El OncoMouse o ratón transgénico fue inventado y patentado por
Dupont. Es un producto farmacéutico, un desarrollo tecnológico, un
artefacto. Es un ratón de cultivo que no puede reproducirse, debe
comprarse directamente con Dupont. Esta diseñado con un gen que
lo hace portador de cáncer, para en él poder ejecutar pruebas y
experimentos contra el mismo cáncer.
Flavr Savr es un jitomate genéticamente modificado para soportar
cambios de clima, durar más en mejores condiciones, tener mejor
sabor, tamaño, forma, brillo y claro está: no produce semillas.
Calgene Inc. la empresa que produce este producto patentado no lo
considera un organismo transgénico, únicamente considera que le
han sido implantados algunos genes fabricados con ingeniería
genética para mejorarlo, pero estos pueden ser reversibles.
Estos ejemplos nos llevan a las variedades de humanos modificados,
el hombre que consume químicos sintetizados en alimentos,
medicinas, hormonas, etc. También están los hombres y mujeres con
prótesis y órganos artificiales. El transexual, que se modifica a base
de hormonas, cirugías y prótesis. Cada uno de nosotros tiene alguna
modificación: químicos en la sangre, anteojos, clavos o placas
quirúrgicos en los huesos o bypass cardiovasculares. En este sentido
//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall
2288
podemos llamarnos cyborgs o híbridos. No somos los mismos que
existían en la naturaleza hace algunos cientos de años, es el tipo de
variaciones que no se consideran en las clases naturales, pero hoy
que existen no tienen cabida en la pureza de antiguas clasificaciones.
Deben redefinirse las categorías o desaparecer.
Haraway utiliza los híbridos para destacar que en un mundo marcado
por distinciones tan radicales entre el mundo de lo material y el
mundo de la cultura, la emergencia de híbridos inclasificables
provoca que las viejas distinciones pierdan su sentido explicativo y
descriptivo.
//// iinn ssiilliiccoo
2299
Bruno Latour
Para el sociólogo francés, curador de la exposición ICONOCLASH, la
contaminación de los ríos, los embriones congelados, el virus del
sida, el agujero de ozono, los robots con sensores son objetos
paradigmáticos. En su libro “Nunca fuimos modernos” se pregunta si
estos objetos extraños que invaden nuestro mundo dependen de la
naturaleza o de la cultura y cómo deben comprenderse. Explica que
hasta ahora, las cosas habían sido más sencillas ya que los
científicos se encargaban de la naturaleza y los políticos de la
sociedad, pero que esa separación ancestral se ha vuelto ineficiente
con la multiplicación de los híbridos. “De ahí el sentimiento de terror
que procuran y que no logran calmar los filósofos contemporáneos,
ya sean antimodernos, posmodernos o éticos.” El autor se pregunta
si no hemos estado viviendo bajo una separación equívoca, ya que
nuestra sociedad “moderna” nunca funcionó conforme a la gran
separación que funda su sistema de representación del mundo: el que
opone radicalmente la naturaleza de un lado y la cultura del otro.
Aunque los modernos no han dejado de fabricar objetos híbridos,
entre natura y cultura, se rehúsan a poner en duda el esquema
tradicional. En su estudio el autor toma el caso de algunos
experimentos científicos que no hubiesen sido posibles sin las
condiciones sociales, políticas, económicas, que atravesaba la región,
país o continente. Estos generan discusiones que cobran énfasis en
torno a los intereses y las necesidades de los gobiernos, cuestiones
ajenas al experimento en sí. El sociólogo habla de la intrincada
relación de la ciencia con el mundo, de la experimentación y de la
invención de todo tipo de teorías o artefactos. A todos estos
elementos que pueden intervenir en la trayectoria de cualquier
objeto, Latour y los adeptos al constructivismo social le llaman
agentes y a la relación entre ellos, se le llama redes de agentes o
actantes. El contexto de un desarrollo tecnológico no es el espíritu
//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall
3300
de la época, sino la acumulación de las decisiones tomadas por cada
uno de los agentes. En su libro Aramís ejemplifica la manera en que
se desarrolla un artefacto dentro de una red de agentes con distintas
intenciones o intereses. Cuenta la historia del asesinato de Aramís.
Trata de la invención, desarrollo y desaparición de un tren
automático que estuvo en desarrollo durante treinta años y nunca se
termino de llevar a cabo. A través de un recuento de su historia,
muestra como se relacionan los agentes. Por ejemplo, el ingeniero
heterogéneo debe ensamblar e interesar en el proyecto a agentes
animados e inanimados (elementos materiales, instituciones,
individuos). Algunos colaboran, y otros impiden alianzas u
obstaculizan. Hay que negociar con todos. Aramís falló porque nunca
logró ser metabolizado. Permaneció sin modificación alguna en un
estado de irrealidad de 1970 a 1987. Sus fallidos autores creían en la
autonomía de la tecnología: que ella sola iba a ser capaz de despegar,
sin su intervención. El libro termina explicando que Aramís murió
porque no recibió suficiente amor.
En la visión de Latour podemos entender una noción de artificialidad
distinta a las demás. Lo artificial no existe por si mismo. Un objeto
se genera dentro de una red de agentes intencionales y el objeto
termina siendo lo que los agentes con más influencia en el proyecto
requieren que sea. Por sí mismo no existe. Se construye a través de
su entorno. Por otro lado todos los objetos (artefactos o situaciones)
han sido producto de estas redes y dado que han surgido de las
necesidades y respuestas de diversos grupos, terminan siendo
híbridos. Híbridos entre lo natural, lo cultural, lo social, lo político, lo
económico, lo científico.
//// iinn ssiilliiccoo
3311
3. Dawkins
Richard Dawkins argumenta en el ensayo “El gen egoísta”, que los
seres vivos son navíos corporales obligados a prestar atención a los
dictados principales de genes egoístas inmersos en su propia réplica
y propagación. Retomando la idea del novelista ingles del siglo XIX,
el biólogo propone que no somos más que la expresión de nuestros
genes egoístas en el proceso de crear más genes egoístas. Llevando
la idea aún más lejos, Dawkins propuso que los genes mismos son
expresiones elegantes de código manipulando el mundo a su
alrededor para su propio fin reproductivo.
Dawkins insiste en saber qué sucede en la vida, o en la vida artificial,
cuando la unidad mínima de observación de la evolución es el
replicante. El autor ve la vida y su evolución en un contexto de
replicantes y redes de replicantes. Desarrollando este concepto notó
que la evolución de las aves sin prestar atención a la evolución de
los nidos, o de los castores sin considerar la evolución de sus presas
sería absurda. La combinación es fundamental a la supervivencia de
ambos. Es una coevolución. No sólo los organismos siguen la
dirección de sus genes, también lo hacen los artefactos que el
organismo construye o emplea. En este sentido, el huevo usa tanto
pollo como nido para hacer otro huevo, entonces el nido, es también,
una extensión evolutiva del huevo.
En biología, a los genes en el huevo se les llama el genotipo y a la
expresión física de estos genes, es decir el pollo, su fenotipo.
Dawkins llamó al par genotipo-fenotipo, el “Fenotipo Ampliado”.
Yendo mas lejos en la idea de réplicas y replicantes Dawkins usó
este modelo de fenotipo ampliado para observar al organismo con su
organismo social y sus artefactos. Este fenotipo ampliado es parte
del código que se reproduce en las réplicas. Actualmente con las
tecnologías de consumo en masa se han ampliado nuestros fenotipos,
como ampliaron los fenotipos de pájaros, castores, y marmotas los
//// EEll pprroobblleemmaa ddee lloo aarrttiiffiicciiaall
3322
nidos, presas o túneles subterráneos. Para Dawkins, nuestra
evolución está atada a la evolución tecnológica hasta el punto de una
coevolucion entre hombre y artefactos.
3333
III. Algunas preguntas, viejas y nuevas, acerca de la vida
En la pieza “in silico” tuve que rastrear varias nociones para
entender qué es lo importante al hacer una pieza de vida artificial, es
decir, cuáles son los puntos de contacto con filosofía, ciencias,
biología, cómputo y ciencias cognitivas. Al revisar estos campos de
conocimiento, sus antecedentes, historia y evolución, y al ver cómo
se conectan al final en la búsqueda de vida artificial, quedó claro que
la pieza no consiste únicamente en crear objetos que se modifican
con el paso del tiempo, sino que es más compleja y las relaciones
con otras áreas de conocimiento son lo que la convierten un
proyecto interesante.
Antecedentes al estudio de “la vida”
Desde la antigüedad, el hombre se ha preguntado cómo dar vida
(como en el mito hebreo del Golem). Los griegos aunque partiendo de
una cosmología muy distinta a la moderna, suponían que todo lo que
se movía era vida. En la mitología se describen personajes
artificiales que funcionan como hombres y cumplen con actividades
propias al hombre (“Pigmalión y Galatea” ii, las esclavas hechas de
oro y el gigante de metal hecho por Dédalo para el rey Minos). Por
otro lado ya se imitaba la realidad para fines lúdicos y religiosos con
autómatas [g] que reproducían la apariencia y el movimiento de seres
en estatuas, mascaras y animales (jardines de pájaros mecánicos del
palacio de Al-Muktadir, año 917 iii ) o mecanismos automáticos
utilizados por los sacerdotes egipcios para impresionar al pueblo
supersticioso. Los pueblos árabes refinaron los dispositivos para
fines prácticos (relojes, fuentes, dispensadores).
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
3344
Posteriormente, tras la quema de Giordano Bruno en 1600, y la
nueva ciencia de Galileo, Cópernico y Kepler nacía el subjetivismo,
acompañado de una serie de descubrimientos (telescopio,
microscopio, relojería). Con esta ruptura epistemológica, el mundo se
reducía a fórmulas matemáticas y la naturaleza se convierte en un
juguete mecánico. Las causas milagrosas eran reemplazadas por
causas físicas que consagran el modelo mecanicista. Descartes decía
“El individuo está dividido entre su espíritu y su cuerpo
simplemente conectados por la glándula pineal. El cuerpo está
descentrado del sujeto y asimilado a un esquema mecanicista.
Un autómata movido por un alma” […] “considero al hombre
como un reloj compuesto de engranes y contrapesos”iv.
Junto con él, filósofos como Pascal, Leibnitz y Malebranche
reflexionaban acerca de la relación mente-cuerpo. Descartes
elimina la noción clásica del alma como principio de vida y
movimiento, estableciendo el dualismo sustancial: los cuerpos se
rigen por causas mecánicas y son incapaces de pensar y el alma es
pensamiento puro y carece de extensión. Alma y cuerpo son dos
sustancias de naturaleza totalmente distinta, se encuentran
separados, y se comunican a través de la glándula pineal. Esta
teoría causaba un problema: ¿De qué manera las afecciones de uno
podían afectar al otro, cómo se comunicaban ambas sustancias? Los
filósofos racionalistas intentaron resolver ese problema. El
ocasionalismo de Malebranche pretendía que cada vez que se
produce un movimiento en el alma, Dios interviene para
corresponder el movimiento con el cuerpo. En el monismo de
Spinoza, extensión y pensamiento no son dos sustancias sino dos
atributos de una sustancia infinita: Dios o Naturaleza. Para Leibnitz
y su armonía preestablecida, Dios establece una perfecta armonía y
ambas sustancias funcionan como relojes sincronizados.
Durante el siglo XVIII, se
extendió la fascinación por los
autómatas, Pierre Jaquet Droz
(1721-1790) y Jacques de
Vaucanson (1709-1782) crean
autómatas (androides) que
reproducen las funciones
principales de la vida, (digestión,
circulación, respiración)
utilizando mecanismos de
relojería, hidráulicos, eólicos,
poleas, y algunos engaños que
fueron descubiertos más tarde.
//// iinn ssiilliiccoo
3355
El empirismo y el positivismo eliminaron el dualismo sustancial de
Descartes descartando la noción cartesiana de sustancia.
Los filósofos empiristas del siglo XVII y XVIII, rechazan la afirmación
cartesiana de que las leyes lógicas del pensamiento estén inscritas
en el pensamiento desde el nacimiento, recuperando la idea
aristotélica de que la mente no tiene ningún contenido inicial y que
todas las ideas, inclusive las leyes de pensamiento, se adquieren a
través de la experiencia, ya sea del mundo exterior o de los estados
internos. Para el positivismo, postura que dominó el pensamiento
europeo durante el siglo XIX, el único conocimiento es el que
proviene de los hechos y a través de la experiencia sensible. El
positivismo trata de extender el método de investigación de las
ciencias naturales al estudio de la mente humana, formulando leyes a
partir de hechos comprobables por la experiencia. Con ello, se abrió
el camino para el estudio de los fenómenos mentales utilizando la
metodología aplicada a los fenómenos físicos.
Más tarde apareció la termodinámica [g] y los organismos vivos se
entienden como máquinas que producen calor (queman glucosa,
glucógeno o almidón, grasas y proteínas y producen bióxido de
carbono, agua y urea). Después, durante el movimiento vitalista a
mediados del siglo XIX, aparece Frankenstein. Continúa la búsqueda
por entender la creación y funcionamiento de la vida, así como la
relación vida-mente. Es hasta 1815 que Lamarck instaura la biología
como “ la ciencia que engloba, todo lo que es generalmente común a
vegetales y animales, así como los atributos que son propios a cada
uno de esos seres sin excepción ”. Darwin cuestionó la separación
entre el hombre y el animal. El evolucionismo abre la posibilidad de
que los animales también tuvieran mente. Desde la biología, Mendel,
Morgan, Watson y Cricks contribuyen con los conceptos de la
evolución, la genética, los cromosomas y los ácidos nucleicos. De
esta manera, a partir de ver mas factible la comprensión formal y
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
3366
científica de la vida, la posibilidad de crear seres vivos y orgánicos
se hace latente.
Actualmente la ingeniería genética, la inteligencia artificial y la vida
artificial nos acercan más al objetivo, aunque aún de manera muy
rudimentaria. La vida artificial es el resultado de la integración de
varias disciplinas (informática, robótica, ingeniería genética,
bioquímica, ciencias cognitivas), y de una pregunta a lo largo de
2500 años. ¿Cómo crear vida?
//// iinn ssiilliiccoo
3377
1. En la ciencia
1.1. Orígenes de la biología como disciplina
Aunque la palabra “Biología” sólo tiene dos siglos, la pregunta “¿Qué
es la vida?” es más vieja. Para Aristóteles, es el “alma” lo que hace
que un ser esté vivo. Esta alma no es más que una forma, que juega
el papel de la causa final: una función. Para los materialistas como
Demócrito (y más tarde Epicuro y Lucrecio) la vida es un conjunto de
propiedades resultantes de la combinación de átomos materiales. Ahí
inicia el enfrentamiento entre materialistas y vitalistas. Descartes
con sus “animales-máquina”, cuyo problema (que no se reproducen,
ni reparan sólos) lleva a un nuevo impulso vitalista durante el siglo
de las luces, por ejemplo Diderot. En el siglo XIX, es la “fuerza vital”
de los biólogos o el “impulso vital” para filósofos como Bergsonv, lo
que se encarga de explicar fenómenos orgánicos así como teorías
acerca de la evolución.
La biología molecular se sitúa dentro del mecanicismo y el
materialismo. Explica lo vivo a través de la estructura físico-química
de sus elementos y sus interacciones.
De acuerdo a la enciclopedia Wikipedia
La Biología proviene del griego bios -vida- y logia -tratado.
Es una rama de las Ciencias Naturales que estudia la vida
desde todos los puntos de vista: tipos y características de los
seres vivos (zoología, botánica, microbiología, etc.); su
estructura y su funcionamiento (bioquímica, biología molecular,
celular, genética), sus relaciones con el entorno físico y
biológico (ecología) y la clasificación de las especiesvi
. La
biología estudia algunos "organismos", a pesar de que la
mayoría de los biólogos no los consideren seres vivos. Estos
son: virus, viroides, priones.
Para un biólogo, no existe una definición exacta de la vida, sino que
es una característica común a todos los seres vivos. Los fenómenos
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
3388
vitales o manifestaciones de vida son principalmente la asimilación o
transformación de elementos nutritivos en diversas sustancias, la
reproducción y la auto-reproducción, la reactividad, es decir, una
respuesta adaptada a estímulos y la homeostasis. La vida concluye
con la muerte.
Del latín vita, la “vida” es un concepto abstracto y por lo tanto difuso
y difícil de definir, es por esto que se suele definir en contraposición
a la no vida o lo inerte, aludiendo a las propiedades que los
diferencian.
La frontera entre lo vivo y lo no vivo tampoco es clara, existen
estructuras que no comparten todas las propiedades de la materia
viva, como son los virus.
Dar una definición de la vida sería más cercano a una descripción
intuitiva que a una ciencia exacta. Reconocemos si un objeto está
vivo al verlo. Pero ningún científico aceptaría una impresión tan
subjetiva.
//// iinn ssiilliiccoo
3399
1.2. ¿Qué es la vida?”
-Lo primero que llama la atención en los seres vivos es que se
mueven sólos- Así, Xenophano, filosofo griego del siglo 6 a.c.
proclama que las rocas magnéticas tienen alma.
(anónimo)
Ha habido varias definiciones que se han venido abajo. Algunos
ejemplos:
Vivo es aquello que goza de motricidad autónoma. Esta definición no
era suficientemente restrictiva, ya que fuego, agua, plantas y robots
cumplen con la característica.
Vivo es aquello que genera y consume calor. El fuego anulaba esta
definición.
Vivo es aquello que posee una integración entre sus órganos. Pero los
robots diseñados antropomorficamente imitan las estructuras de
interdependencia de los órganos para funcionar como un sistema.
Vivo es aquello capaz de reproducirse. La noción de reproducción
hace llamado a varios comentarios. Se aplica indistintamente a
bacterias, plantas o animales. Suelen utilizarse la mula o el ceburro,
como contraejemplo, pero esto es un error porque pertenecen a una
especie estéril, son individuos que descienden de padres distintos y
esto modifica el funcionamiento de los órganos reproductivos. La
“especie” se conserva sólo si continúa mezclándose con individuos
de la misma especie.
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
4400
Algunas definiciones más recientes:
(Definición fisiológica) Un organismo vivo es aquel capaz de llevar a
cabo funciones tales como comer, metabolizar, excretar, respirar,
moverse, crecer, reproducirse y responder a estímulos externos.
Sin embargo existen máquinas que cumplen muchas de ellas, y
bacterias quimiosintéticas [g] que no necesitan respirar.
(Definición metabólica) Un organismo vivo es aquel que intercambia
sustancias con el medio circundante sin alterarse, es decir, que puede
reconstruir su propia sustancia orgánica a partir de energía,
moléculas, o iones provenientes del medio ambiente.
(Definición bioquímica) Un organismo vivo contiene información
hereditaria reproducible codificada en los ácidos nucleicos los cuales
controlan el metabolismo celular a través de unas moléculas
(proteínas) llamadas enzimas que catalizan o inhiben las diferentes
reacciones biológicas.
Esta definición es de las más precisas, pero sólo incluye la vida a
base de carbón y excluye vida en químicas que no conocemos o en el
campo cibernético (hecho que aún no se demuestra)
(Definición genética) Un organismo vivo es todo sistema capaz de
evolucionar por selección natural. Muchos biólogos no aceptan esta
definición ya que incluye a los virus dentro de los seres vivos y esto
abriría la puerta a introducir algún virus informático polimórfico que
incluyera algún tipo de algoritmo de evolución darwiniana.
(Definición termodinámica) Un organismo vivo es aquel que constituye
un sistema de entropía [g]. Esta definición es la mejor y más completa
hasta ahora. Surge de la nueva y mejor comprensión del universo
que se ha tenido en este último siglo y se basa en el segundo
//// iinn ssiilliiccoo
4411
principio de la termodinámica: la entropía del universo, o desorden
del sistema, siempre aumenta. El aumento de orden en un sistema
vivo no incumple el principio ya que ello se hace siempre a expensas
de un incremento de entropía en el universo. Por lo tanto, la vida
formaría parte también de los llamados “sistemas complejos.”
Gracias a los trabajos de Ilya Prigogine la Biofísica proporciona una
comprensión general de los fenómenos de la vida a partir de los
procesos alejados del equilibrio. Desde estas teorías, la vida consiste
en mantenerse alejado del equilibrio termodinámico, es decir, en el
desorden máximo. Para ello, un sistema vivo debe ser capaz de
interactuar con su entorno para disipar la entropía que produce (a
esto se le llama sistema disipativo). La vida evoluciona desarrollando
formas infinitas de disipar la entropía. Dado que disipar entropía
significa producir desorden en el entorno, el principio de
supervivencia de Darwin, resulta ser una noción acertada del
principio de disipación de entropía.
Algunos otros aspectos a tomar en cuenta son la clonación y la
autopoiesis. [g]
La clonación (ej. “Dolly”), la fecundación in vitro, la generación de
bacterias, virus y vacunas son procesos sintéticos de elementos
orgánicos, por lo tanto es posible producir organismos. La vida
artificial por su lado, no pretende producir individuos orgánicos.
Podemos sin embargo definir un equivalente más abstracto de
“metabolismo”.
Esto es la idea de autopoiesis. El término proviene de las palabras
griegas auto y poïesis, que significan si-mismo y producción y
connota el objeto que posee la cualidad de crearse por si mismo,
mantener su estructura y regenerarse. La autopoiesis caracteriza
toda unidad construida por una organización de partes más o menos
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
4422
constante independientemente de los cambios del entorno. No
solamente su organización interna mantiene la unidad del conjunto,
sino también tiene la capacidad de recrear su propia estructura
dinámica a pesar de la influencia de circunstancias externas que
pudiesen arrastrar a su separación. Vemos que se trata allí de una
noción más abstracta que el metabolismo, ya que no se precisa
ninguna limitación en cuanto al tipo de materia que podría realizarlo.
Sin embargo el metabolismo puede estar considerado como un caso
particular de autopoiesis, ya que los sistemas digestivos y
respiratorios (pilares principales del metabolismo) cumplen
exactamente las funciones que se le atribuyen a la autopoiesis. En
efecto, podemos comprobar que los órganos de los seres vivos,
gracias a sus funciones metabólicas, satisfacen perfectamente la
condición previa.
La ventaja de la noción de autopoiesis reside justamente en que su
abstracción es mayor, y no excluye la posibilidad de una vida que no
sea orgánica. De hecho, el virus es un tipo de entidad que se sitúa al
margen de los seres vivos propiamente dichos, y que algunos
quieren incluir, mientras que otros lo excluyan de esta categoría.
Los biólogos aíslan las características propias a un ser vivo. La
estructura celular es una de ellas. Esto excluye los virus, seres de
estructura más sencilla y de tamaño menor a una célula. Además, los
virus son incapaces de reproducirse por si mismos, salvo a través de
una célula viva que infectan y cuya estructura utilizan para replicarse.
Los virus no tienen la capacidad de autopoiesis; están totalmente
privados de órganos de metabolismo. Un virus esencialmente
consiste en un trozo coherente de sustancia genética que contiene
las instrucciones necesarias para su propia duplicación. Pero al estar
privado del citoplasma que permite a la menor bacteria mantener su
estructura, no tiene ningún medio propio de asimilar la energía ni los
//// iinn ssiilliiccoo
4433
elementos del entorno que le rodean en su propia sustancia y debe
tomar del medio los recursos materiales y energéticos que necesita
para reproducirse. Por consiguiente, si se toma la definición que
acabamos de exponer, los virus quedan excluidos del dominio de los
seres vivos, aún así, son seres intermediarios entre los organismos
vivos y la materia inerte.
En conclusión, con principios necesarios pero no suficientes,
podemos decir que un organismo está vivo si hay intercambio de
materia y energía con el entorno, si se reproduce y evoluciona por
selección natural, si el sistema es capaz de auto-organizarse sin ser
programado.
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
4444
1.3. La noción de “evolución” en la ciencia moderna
Antes de Lamarck y Darwin, existía el fijismo, es decir, se pensaba
que la vida no cambiaba ni desaparecía, hasta que el Baron Cuvier
encontró esqueletos de animales desconocidos, y aceptó la
“extinción” pero no la evolución. Hasta el siglo XIX, se sostenía la
teoría creacionista que consideraba que por “acto divino” la Tierra
se había creado 6000 años atrás tal como se le conocía actualmente.
La teoría fue sustituida por la hipótesis naturalista, que explica que
la vida se creó a partir de materia inorgánica. Una de las teorías que
explican el proceso es la teoría de Oparín (1950) y Miller (1953) la
demostró en un experimento que consistía en aplicar corrientes de
60.000 volts en un recipiente que contenía los gases que formaban la
atmósfera hace 3.000 millones de años (metano, amoníaco gaseoso,
vapor de agua e hidrógeno). Poco a poco se formaron varios
componentes orgánicos, especialmente aminoácidos, fundamentales
en los organismos vivos. Luego se comprobó que cuando la luz
ultravioleta actúa sobre una mezcla de anhídrido carbónico y
amoníaco, se forman substancias orgánicas: azúcares, otros
materiales que constituyen las proteínas. En ese periodo, la capa de
ozono que bloquea gran parte de la luz ultravioleta era inexistente. A
partir del experimento se dedujo que la combinación daba una
molécula imperfecta pero que se duplicaba. Esto generó diversas
versiones de la molécula y mediante un proceso de selección y
supervivencia se duplicaron las moléculas con mejores cambios: las
que favorecían la duplicación y la resistencia al ambiente. Así se
fueron formando compuestos cada vez más complejos. Esta teoría
fue introducida por Darwin y es conocida como selección natural.
Esta se basa en que ciertos animales son más aptos para sobrevivir.
Para Darwin, dado que tenían más posibilidad de sobrevivir los más
fuertes, rápidos, y ágiles, son por lo tanto los que se reproducirían
heredando sus características genéticas a sus descendientes. Y así
//// iinn ssiilliiccoo
4455
por sucesivas mutaciones genéticas, los descendientes serían más
aptos que los ancestros. A diferencia de Darwin, Lamarck pensaba
que si el ancestro se fortalecía durante su vida, los descendientes
heredarían esa fortaleza.
Actualmente la ciencia apunta hacía la auto-organización, a partir de
una molécula, ésta podría auto-organizarse de tal manera que se
cree un ser vivo. La molécula de hemoglobina es un ejemplo de la
auto-organización. Consiste en una proteína que se dobla sobre un
átomo de hierro para poder atraer un átomo de oxigeno. No hay duda
de la evolución de materia inanimada en organismos complejos. Los
comportamientos no predecibles desde la situación inicial son
conocidos como comportamientos emergentes. Existen programas de
cómputo previstos para demostrar esto, dado que los
comportamientos emergentes son fenómenos naturales en los
sistemas complejos, puede simularse una situación inicial con
autómatas celulares.
Por otro lado en la ciencia actual se ha redefinido el concepto de
evolución propuesto por Darwin, Lamarck, y otros. D’Arcy
Thompsonvii, zoólogo de principios del siglo XX, pensaba que eran las
fuerzas físicas las que modifican la estructura ósea y la morfología
general de los seres para adaptarlos a su ambiente.
Desde el punto de vista de la termodinámica, la evolución se
complejiza como consecuencia de restricciones, progresando por
saltos de manera imprevisible. Dada la complejidad de la naturaleza
su compresión total parece imposible. Aun más si aceptamos la
hipótesis del “equilibrio puntuado” de Stephen J. Gould, según la cual
el azar acumulativo es capaz de crear nuevas especies en algunas
decenas de miles de años.
Intrínsecamente, la teoría de Darwin, aún ligada a la teoría de
Mendel es imprecisa. Si encontráramos vida extraterrestre, la teoría
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
4466
de Darwin explicaría únicamente su existencia, por medio de su
suficiente adaptabilidad al medio, pero no podría prever hacía donde
evolucionaría. No pudiendo explicar este hecho, el neodarwinismo
aparece como alternativa a falta de una mejor teoría, no pudiendo
más que predecir la aparición de una variedad “si las condiciones lo
permiten”. Pero, como sentencia Popper: “decir que una especie
esta adaptada a su entorno es casi una tautología.” Y de seguir, la
pregunta fundamental consiste en saber “¿cómo medir el éxito
efectivo de un esfuerzo por sobrevivir? La posibilidad de probar una
teoría tan débil es casi nula”
De hecho, sólo una teoría permite reconstituir las relaciones
causales de los procesos. Si nos volteamos hacía la teoría de los
grandes números, de los fenómenos de masa, la teoría de Darwin
tiene un valor universal ya que predice la variación de las especies y
la mínima cantidad de mutaciones accidentales. Explica
perfectamente la lenta evolución de los organismos, y en cambio, le
es imposible predecir la evolución de un cambio en particular, ya que
esto depende del azar. Queda por saber cuando la vida emergerá,
qué diferencia una estructura física, un robot por ejemplo, de un
organismo que se desarrolla por selección natural. Si un biólogo
responde que un organismo vivo resuelve problemas, el cibernético
puede refutar su argumento recordando los robots adaptados a
ambientes hostiles.
Queda entonces el problema de la reproducción y la variación de las
especies, propia a los organismos vivos. Esta “fuerza vital”,
inherente a la vida y que depende de una selección de tipo
darwiniana, marcaría su preferencia por organismos dispuestos a
evolucionar, capaces de tener conciencia a fin de cuentas. Es el
“principio interior de perfeccionamiento" u “ortogénesis” retomado
por el botánico suizo Kart von Nägeli en 1884. Ortogénesis y
Neolamarckismo terminaron por desaparecer ya que no podían
//// iinn ssiilliiccoo
4477
implementar los resultados de la genética desarrollados por Mendel
en 1865.
El paradigma que hoy conocemos como Teoría Sintética de la
Evolución fue establecido en los años cuarenta en una reunión en la
Universidad de Princeton por notables evolucionistas. Integra en una
teoría el Darwinismo con los principios de Herencia de Mendel y con
modelos matemáticos que describen los cambios por selección
natural de las frecuencias de los genes. Esta teoría consiste en la
evolución por selección natural y cambios adaptativos graduales.
Para Stephen Jay Gould la ausencia de etapas intermedias en los
fósiles conocidos no son como pensaba Darwin una imperfección en
el registro, sino un dato real, evidencia de saltos en la naturaleza,
pensando específicamente en el origen de nuevas especies. La
interpretación revolucionaria del paleontólogo consistió en que las
especies se originan y permanecen inalteradas durante largos
periodos hasta que se originan nuevas especies con cambios cortos
y rápidos. Este modelo de "Equilibrio discontinuo o puntuado"
(Punctuated Equilibrium) permitió incorporar nuevos modelos de
procesos evolutivos que destacaban, por ejemplo, el papel
fundamental del azar.
Para Gould existe una tendencia estadística que obliga a las especies
más simples a diversificarse o "efecto de desagüe", que conduce
siempre a un ser arrinconado contra una pared, a dirigirse al
desagüe, independientemente de las tendencias. En Full House,
Gould pone en duda la noción de progreso en la evolución
proponiendo la tendencia actual de la biología. Muestra la
imposibilidad de interpretar correctamente la evolución de todo
fenómeno si no se toma en consideración todo el abanico de sus
variaciones. Así, reducir la historia de la vida a la de los organismos
más complejos es desconocer gravemente la naturaleza misma de la
teoría de la evolución, y el alcance radical de la visión darwiniana.
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
4488
En esta visión holista de la vida el ser humano no goza de ningún
estatuto privilegiado, es la forma de vida dominante sobre la Tierra y
posiblemente en otro lugar lo son las bacterias. La aparición de una
vida inteligente y conciente no era necesaria ni previsible. Lejos de
decepcionarnos, ésta contingencia de la existencia humana revelada
por la ciencia, sólo realza su grandeza.
Actualmente, con los trabajos de Ilya Prigogine, los biólogos
contemporáneos consideran a los seres vivos como “estructuras
disipativas” y les aplican las leyes de la termodinámica. Esta visión
neodarwinista parece prometedora, se aleja del esquema de
reduccionismo tradicional para orientarse hacia un concepto holista y
dinámico: la co-evolución.
El otro pedestal de la biología moderna es Richard Dawkins. En 1976,
por primera vez se planteó la manera de extender la teoría
darwiniana a los fenómenos culturales. Esto constituye el avance
teórico más importante de la biología del siglo XX. Para ello el
biólogo inventó el termino “meme” como analogía cultural al “gen”.
Los memes son la unidad mínima de información cultural y se
transmite socialmente, mientras que los genes son la unidad mínima
de información biológica y se transmiten genéticamente. Los memes
son ideas, conocimientos, costumbres, valores, estereotipos, etc. Se
almacenan en conexiones neuronales de los cerebros de los seres
vivos y son capaces de reproducirse a otros cerebros a través de la
comunicación oral, libros o televisión). Los memes son todo lo
imitado. Luchan para reproducirse con éxito y, así, evolucionar y
perdurar. A esto se le llama imitación selectiva. Los memes se
propagan a través del hombre como un virus ya sea biológico o
informático. En su último libro River Out of Eden el autor presenta
una teoría unificada de la evolución, argumentando que la vida en sus
entrañas no es más que un proceso de transferencia de información
digital.
//// iinn ssiilliiccoo
4499
2. Historia y fundamentos de la vida artificial
“In silico” es un sistema de vida artificial, en el que varios
organismos conviven en un ambiente y se afectan. Pero para
entender las condiciones con las que se comporta es necesario saber
qué es la vida artificial.
Existen dos hipótesis alrededor de la vida artificial (VA o Alife). La
primera, la hipótesis fuerte, plantea una definición más amplia de
vida. Ésta es información y auto-organización y puede tomar forma
en una química a base de carbono (wet life o in vitro), a base de
silicio (in silico), es decir, a nivel de un programa computacional, en
sistemas tecnológicos (robots), o en cualquier otro material. En esta
se considera que la vida es un proceso que puede ser abstraído de
cualquier medio”. Steven Levy [5] recordando a Farmer explica que
esas creaciones se entienden como algo “vivo bajo cualquier
definición razonable del término”.
En este sentido Tom Ray [ 6 ] declaró en torno a su programa
“Tierra”, que no simulaba vida, que la sintetizaba.
La hipótesis débil plantea que las creaciones no son más que simples
simulaciones de la vida real y cuya meta se centra en proveer de
información para una mejor comprensión de la vida “real”.
En los años cuarenta del siglo XX, Alan Turing dió inicio a las
investigaciones de inteligencia artificial cuando después de haber
trabajado en los sistemas de criptografía británicos durante la
segunda guerra mundial se enfocó a la comparación del poder de
cómputo de una máquina frente al de un cerebro humano. Esto se
reflejó en la “prueba de Turing”. Está fundamentada en la hipótesis
[5] Autor de Artificial Life: the frontier where technology meets biology (1993)
[6] “Tierra” de los primeros programas de cómputo en la intersección del arte y la tecnología.
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
5500
positivista de que, si una máquina se comporta en todos los aspectos
como inteligente, entonces debe ser inteligente.
La prueba consiste en un desafío. Si una máquina tiene una
conversación con un hombre, a través de una comunicación de texto,
sin que a este se le avise si está hablando con una máquina o una
persona y el sujeto es incapaz de determinar si la otra parte de la
comunicación es humana o máquina, entonces se considera que la
máquina ha alcanzado un determinado nivel de madurez: es
inteligente.
La “Sala China” es un experimento mental, propuesto originalmente
por John Searle y popularizada por Roger Penrose, con el que se
trata de rebatir la validez de la prueba de Turing.
La “Sala China” consiste en lo siguiente:
Supongamos una sala completamente aislada del exterior, salvo por
algún sistema (como una ranura) por el que se pueden hacer entrar y
salir textos escritos en chino. En la sala hay una persona que no
sabe chino pero está equipada con una serie de manuales que indican
las reglas que relacionan los caracteres chinos (por ejemplo "Si
entran ciertos caracteres, escribe tales otros"). De manera que la
persona que manipula los textos es capaz de responder a cualquier
texto en chino que se le introduzca, y hacer creer a un observador
externo que entiende el chino.
Las preguntas son:
¿La persona en la sala entiende chino?
¿Los manuales entienden chino?
¿Es “la sala” en conjunto la que entiende chino?
De acuerdo con Searle los defensores de la IA deben admitir que la
sala comprende el idioma chino o bien el pasar la prueba de Turing
no es prueba suficiente de inteligencia.
//// iinn ssiilliiccoo
5511
La prueba de Turing se publicó en 1950 en el artículo "Computing
Machinery and Intelligence", convirtiendose en uno de las piezas
fundamentales de la inteligencia artificial y de la filosofía.
Posteriormente John von Neumann (1903-1957) a quien se
reconoce como el “padre de la Vida Artificial” se interesó en el
problema de la auto-reproducción, se preguntaba si una máquina
artificial podría producir una copia de sí misma capaz a su vez de
crear más copias. Tiempo después con el desarrollo de la
computación, emergieron varios grupos interesados en el campo de
la VA.
Aunque varios grupos de investigadores estudiaban el campo de VA
la primera aplicación popular de vida artificial fue en 1970 con el
programa “The Game of Life” de John Conway. El programa
introdujo masivamente el concepto de “autómatas celulares” que
hasta ese momento se entendía únicamente de manera teórica.
En septiembre de 1987 Christopher Langton organizó la primera
conferencia sobre Vida Artificial en Los Alamos, Nuevo México.
Participaron más de un centenar de personas interesadas en el tema.
Desde entonces los eventos y aplicaciones se han multiplicado.
La biología pretende estudiar la “vida”, pero estrictamente hablando
sólo estudia los seres vivos basados en la química de carbono
presentes en la tierra. En principio, no hay nada que impida la
existencia de seres a base de otro tipo de química. Pero a falta de
ejemplos reales la biología teórica no puede deducir principios
generales. No existen otros ejemplos con que compararnos para
saber cuales son las características fundamentales de la vida y
cuales las accesorias.
Alan Turing
John Von Neumann
Christopher Langton
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
5522
La Vida Artificial estudia la “vida natural” trasladando fenómenos
biológicos a la computadora u otros medios artificiales así como
simulando estructuras sociales para entender como se relacionan los
seres vivos.
Algunos problemas fundamentales que abordan los estudiosos de la
Vida Artificial son: la definición de “vida” y de sistema vivo,
sistemas autoorganizados, Algoritmos genéticos, autorreplicación,
cómputo evolutivo, aprendizaje evolutivo, adaptación, dinámica de
sistemas complejos.
Del primer congreso sobre vida artificial se pueden extraer algunas
conclusiones fundamentales.
ß Alife es la biología de lo posible, se ocupa de las alternativas a
la “vida tal como la conocemos” (life-as-we-know) presentando
formas de “vida como podría ser” (life-as-it-could-be)
ß La VA sintetiza procesos vitales a diferencia de la biología
clásica que se centra en el análisis de los mismos.
ß La similitud que existe entre organismos vivos reales y
artificiales consiste en que la conducta y organización de las
comunidades es la misma, lo que los distingue son los elementos
que constituyen estos organismos. Unos son orgánicos, naturales
y otros son sintéticos, inorgánicos (procesador de computadora a
base de silicio).
ß La vida es el conjunto de procesos que ejecutan los seres, no se
reduce únicamente al material que constituye esos seres. La VA
muestra la lógica que gobierna los procesos. La vida es un
sistema complejo.
//// iinn ssiilliiccoo
5533
La VA, como todo sistema complejo cumple con varias
características:
- Unidades simples con interacción local.
- Procesamiento en paralelo
- Aparición de comportamientos emergentes
El “Juego de la vida” de Conway
El juego de la vida no es un simple juego, es un autómata celular,
consiste en una colección de celdas y reglas. Si la celda está
ocupada por un punto, esto quiere decir que su estado es “viva”. Si
la celda está vacía está “muerta”. En función de las reglas puede
vivir, morir, o multiplicarse. Dependiendo de la configuración inicial,
las celdas pueden crear patrones diversos a lo largo del tiempo.
Las reglas son:
Para un espacio “poblado”:
- Cada celda con uno o ningún vecino muere, “como por soledad”
- Cada celda con cuatro o mas vecinos muere, “por sobrepoblación”
- Cada celda con dos o tres vecinos sobrevive.
Para un espacio vacío o “despoblado”:
- Cada celda con tres vecinos será poblada.
El juego de la vida http://www.bitstorm.org/gameoflife/
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
5544
Los autómatas celulares así como las redes neuronales se inspiraron
desde el inicio en la observación de la actividad del cerebro humano,
de los organismos vivos y su manera de procesar la información, de
la organización de las sociedades y de eventos en la naturaleza. La
naturaleza está llena de ejemplos y situaciones en que ciertos
elementos interactúan localmente para producir comportamientos
globales, como la propagación de un gas o la organización
“espontánea” de un evento social. Se habla entonces de sistemas
complejos ya sea físicos, biológicos, o sociales.
//// iinn ssiilliiccoo
5555
3. Sistemas Complejos
Definamos primero qué es un sistema y qué es un sistema complejo.
Un sistema es un conjunto de elementos organizados que interactúan
entre sí y con su ambiente para lograr objetivos comunes, operando
sobre información, energía o materia u organismos para producir
información, energía, materia u organismos. Un sistema cerrado no
hace intercambios con el medio ambiente. (Wikipedia) Una máquina
puede ser un sistema y formar parte de un sistema más grande. Un
sistema complejo, posee más información que la que da cada parte
independientemente. Para describir un sistema complejo hace falta
no sólo conocer el funcionamiento de las partes sino conocer cómo
se relacionan entre sí, también existen variables indeterminadas
cuyo desconocimiento nos impide analizar el sistema con precisión,
es un sistema abierto. Algunas características son: el todo es más
que la suma de las partes, comportamiento difícilmente predecible,
emergencia de un sistema, son sistemas fuera del equilibrio,
autoorganización, las interrelaciones están regidas por ecuaciones
no-lineales, es un sistema abierto y disipativo, es un sistema
adaptativo.
Un sistema autopoïetico (definido como una unidad) está
organizado como una red de procesos de producción
(transformación y destrucción) de componentes que producen
componentes: 1. que a través de sus interacciones y
transformaciones constantemente regeneradas y realizan las
redes de procesos (relaciones) que las producen y 2. que la
constituyen (a la máquina) como una unidad concreta en el
espacio en el que habitan, especificando el dominio topológico
de su realización como red. (Varela, Principles of Biological Autonomy, NorthHolland, NY,1979)
La “Complejidad” no es exactamente lo mismo para computólogos,
biólogos, sociólogos, economistas, etc. Varios autores han dado su
propia definición dirigida a un área específica. (Christopher Langton
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
5566
la define como la ciencia que trata de describir los sistemas que se
encuentran en el “borde del caos”.)
Las ciencias de la complejidad son un conjunto de herramientas y
métodos concebidos para analizar, modelar y simular sistemas
dinámicos complejos para entenderlos mejor y predecir su
comportamiento. Un sistema complejo es un sistema compuesto de
un gran número de elementos (a veces idénticos) que interactúan
localmente y dan lugar a un comportamiento global. No puede ser
explicado con el análisis por separado de los elementos o con las
propiedades de un sólo individuo, sino como resultado de las
interacciones de un colectivo. Modelar y simular un sistema
complejo permite probar distintos escenarios, lo cual permite
descubrir nuevas reglas de funcionamiento del sistema y la manera
en que reacciona a perturbaciones. Pequeñas modificaciones locales
pueden tener un impacto importante a nivel global.
El cerebro, una computadora, una colonia de hormigas, un sistema
social o económico son algunos ejemplos de “sistemas complejos”.
El hormiguero es el ejemplo más común. Esta formado por miles de
hormigas mas o menos idénticas. Cada una interactúa con las
hormigas que la rodean y desconoce lo que sucede con las que están
más alejadas. No las organiza un administrador de tareas, un capataz
o un grupo de individuos que decidan lo que deben hacer las demás.
La organización global se da por las relaciones locales. En
computación, en un sistema complejo, se utilizan autómatas celulares
(o agentes) para simular a los individuos idénticos de una sociedad.
Un “sistema complejo” se caracteriza por:
- Gran número de individuos (idénticos)
- Interacción local.
- Comportamiento emergente.
//// iinn ssiilliiccoo
5577
En cómputo, un sistema se modela con autómatas celulares,
autorreplicación, e inteligencia colectiva entre elementos.
a. Autómatas Celulares
Un autómata celular (AC) es un programa que ejecuta una tarea local
específica. Un AC es un modelo formal compuesto por un conjunto
de celdas, células, entes o agentes, cada una tiene un sólo estado a
la vez: activada o desactivada, que varía en función de las celdas
vecinas. En un sistema compuesto por AC se evidencia el
comportamiento emergente que puede producirse. Los AC han sido
utilizados y redefinidos muchas veces desde distintas áreas. En
matemáticas forman parte de la dinámica topológica, en ingeniería
son matrices con secuencias iterativas.
El ejemplo más simple, en el caso del “juego” de Conway, es el de
tres celdas formando una línea. Cada celda comprueba el estado de
sus vecinas y en función de este “deduce” su estado siguiente.
Con reglas distintas surgen universos y patrones distintos:
Las celdas de AC, pueden estar colocadas en una dimensión (en
línea), en dos (en una retícula en un plano), o cubriendo un espacio
tridimensional. En una línea las vecinas más próximas son izquierda
y derecha. En un plano, las ocho vecinas inmediatas son las celdas
situadas al N, NE, E, SE, S, SO, O y NO. A estos rangos se les llama
radio de vecindad. En tres dimensiones, el rango se amplía a un
tercer eje con 26 celdas inmediatas. Cuando el número de celdas es
finito, los bordes deben manejarse escogiendo la condición de bordes
absorbentes o de bordes periódicos. En el primer caso las celdas de
los bordes no tienen vecinos más allá de los límites de la retícula en
el segundo las celdas opuestas se consideran vecinas, de modo que
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
5588
una línea recta se convierte en un circulo y un plano se convierte en
un toro (una dona).
El primer AC, en los años cuarenta, se debe a von Neumann, quien
buscaba definir una estructura capaz de auto-replicarse, similar a los
organismos biológicos. Al mismo tiempo, pero sin tanto impacto, el
ingeniero alemán Konrad Zuse desarrollaba otro concepto de AC,
enfocándose en la construcción de modelos digitales de la Mecánica.
Pronto nacieron las redes neuronales. McCulloch y Pitts observaron
que dado que el cerebro es un conjunto de células (neuronas)
interconectadas, los modelos formales podrían utilizarse para
describir la actividad cerebral. La primera aplicación (1959) fue por
parte de F. Rosenblatt quien inventó el Perceptron, una arquitectura
de red simple con una regla de aprendizaje asociada. Este era capaz
de reconocer patrones gráficos. En los años sesenta John Holland
empezó a aplicar los AC a problemas de optimización, convirtiéndose
en el fundador de los algoritmos genéticos.
En 1970 apareció en la revista Scientific American un artículo acerca
de “el juego de la vida” del matemático de Cambridge John Conway
[7].
Este programa modela el desarrollo de una población en función de
ciertas reglas preestablecidas, por ejemplo: un habitante (un punto
en una celda) muere si no tiene dos o tres vecinos en las celdas
vecinas inmediatas. En los años ochenta, fue el apogeo de estos
modelos y se popularizaron las investigaciones y aplicaciones de
inteligencia artificial, reconocimiento de patrones o discriminación de
señales, aprendizaje. La ciencia se vio favorecida con simulaciones
de procesos macroscópicos a una escala tangible. Los simuladores
de AC son capaces de actualizar millones de generaciones en un
tiempo muy corto. Por lo tanto se utilizaron mucho para modelos en
física, en particular en dinámica de fluidos. Una de las ramas en que
[7] http://ddi.cs.uni-potsdam.de/HyFISCH/Produzieren/lis_projekt/proj_gamelife/ConwayScientificAmerican.htm
//// iinn ssiilliiccoo
5599
más se han desarrollado los AC, es en sistemas dinámicos, en la
aparición de fenómenos colectivos, caos y fractales.
Desde el surgimiento en los años sesenta de las primeras
computadoras, el hombre sueña con crear sistemas capaces de
convivir con él, con crear un ente con el que pueda dialogar,
interactuar, un ente que reaccione como lo haría otro hombre. De
esta manera surgen la inteligencia artificial y una de sus ramas: la
vida artificial.
b. Autorreplicación
Los AC son estructuras autoreplicantes. Von Neumann consideraba
que una característica fundamental de los seres vivos era la
capacidad de auto-reproducción. Las máquinas pueden producir
estructuras sencillas, mientras que los seres vivos son capaces de
producir sistemas casi tan complejos como ellos mismos. En la época
de Von Neumann aún no se habían desarrollado las teorías del ADN
de las células sin embargo él propuso mecanismos de auto-
reproducción en el código de los autómatas, captando los
fundamentos de la reproducción celular.
c. Inteligencia Colectiva: Sistemas multiagentes
Los sistemas de Inteligencia Artificial (IA) ponen en ejecución
conocimientos de sentido común o especializados y los explotan en
mecanismos de raciocinio, es decir, en sistemas deductivos a base
de conocimiento. El fundamento de esta aproximación de IA es la
posibilidad de representar el saber en diferentes tipos de lógica.
//// AAllgguunnaass pprreegguunnttaass,, vviieejjaass yy nnuueevvaass,, aacceerrccaa ddee llaa vviiddaa
6600
Otro aspecto de la inteligencia a base de conocimientos es el de la
inteligencia colectiva. Esta consiste en suscitar un comportamiento
inteligente de manera emergente por cooperación entre un conjunto
de entidades (agentes) con autonomía y tareas propias. Estos
agentes pueden ser dotados de una capacidad cognoscitiva, de
conocimientos previos y de mecanismos de raciocinio. En este caso
hablamos de “sistema multiagentes”.
En los sistemas multiagentes cada agente tiene un comportamiento
puramente reactivo y aunque está desprovisto de inteligencia,
emerge un comportamiento inteligente que resulta de la pertinencia
de los intercambios entre agentes. Estos sistemas permiten, por
ejemplo, modelar la construcción de un nido de termitas o
comportamientos distribuidos para lograr un fin de manera colectiva.
HAL en la película de Stanley Kubrick
“2001, odisea del espacio”
//// iinn ssiilliiccoo
6611
A manera de conclusión y retomando los términos vistos en este
capítulo: El proyecto “in silico” es un sistema de vida artificial (a-
life en software) cuyos elementos básicos, es decir, los individuos
que lo conforman, son agentes con reglas. Por lo tanto es un sistema
multiagentes. No es sólo el entorno o sólo los individuos, sino las
relaciones entre los elementos que lo hacen un sistema vivo,
dinámico. Aunque simple, cumple con las características de un
sistema vivo. Todo funciona en base a reglas: los individuos
pertenecen a cuatro familias distintas con reglas generales de
interacción entre ellas y cada familia posee reglas determinadas de
crecimiento. Así mismo, están previstos los trozos de código que
generan las variaciones y cuales son las reglas de la variación. El
código de los individuos fue creado utilizando las formas que según
D’Arcy Thompson son recurrentes en la naturaleza: curvas,
autorepetición, bifurcaciones, simetría y estabilidad. La pieza es un
sistema complejo dado que a través de las mismas reglas que rigen a
los agentes el comportamiento local genera un comportamiento
global. Por último, respondiendo a las hipótesis de la vida artificial,
cuyas premisas son ya sea imitar o crear, es decir, simular o
sintetizar la vida, “in silico” se encuentra entre las dos. Es un
sistema simple con pocos elementos que aún así crea un ambiente en
el cual la vida y las relaciones entre sus habitantes están presentes.
No imita ni simula una situación real sino que crea su propio ámbito.
Adoptando la postura que la vida artificial es la biología de lo posible,
los individuos que habitan el sistema bien podrían existir. Cumplen
con características comunes a los seres vivos y se comportan como
tales, logrando la actitud esperada en el espectador -especialmente
en científicos- reconocer a estas criaturas como posiblemente reales,
pero desconocidas.
6633
IV. La noción “artificial” en el arte electrónico
En esta sección se revisarán los distintos medios que utiliza el arte
que trata problemáticas de vida e inteligencia artificiales.
Posteriormente se hará un análisis sobre cómo abordar el problema
de lo artificial, proponiendo las categorías “lo artificial como tema”
y sus particularidades: la replica y la sobrenaturaleza; y “lo artificial
como medio”, con su particularidad: el proceso. También se
analizarán piezas híbridas, que inician en una categoría y detonan la
segunda.
Una preocupación importante en la historia del arte fue, y sigue
siendo, la representación física y emocional del hombre y de la
naturaleza. Hoy en día, se utilizan tecnologías y artefactos para
abordar esa misma preocupación, se sigue buscando mostrar cómo
se ven la naturaleza y la vida, pero también la manera en que
funcionan. Esta última inquietud había estado restringida a la ciencia,
pero dado que el arte contemporáneo cada vez es más cercano a
utilizar los mismos recursos que la ciencia, la búsqueda por
responder a esta inquietud se expande al campo del arte. Por
ejemplo en el caso del cómputo, dado que fue creado análogo a la
mente humana, el artista electrónico no quiere únicamente utilizarlo
superficialmente, sino intervenir en sus procesos para explorar y
entender los procesos de la vida y la mente. Por otro lado, es
necesario tener un conocimiento que rebasa el ámbito de la simple
utilización de las tecnologías como herramientas, si queremos ir más
allá de la tecnología como herramienta. Por ultimo, un tema de
reflexión que emerge naturalmente de esta relación del artista
digital con la máquina, es la noción de artificialidad, ya que al crear
piezas cuyo funcionamiento imita la naturaleza, se ponen en duda
los limites entre lo artificial y lo natural y sus significados.
La categorización que se propone en
este capítulo se construyó en conjunto
con Liliana Quintero del Centro
Multimedia del CENART.
6644
Aquí analizaremos piezas que a través de distintos medios tratan la
noción de “artificial”.
Los medios son diversos. Pueden ser inorgánicos si son sistemas
robóticos y/o computacionales, llamados de hardware o de software.
Pueden ser mecánicos, electrónicos, o electromecánicos. Pueden
estar controlados por sensores o por una computadora que lo
controla desde software, es decir, un programa computacional
creado para ese objetivo particular. El programa puede recoger
información de sensores, de variables determinadas, de un público
que se convierte en usuario de la obra, del ambiente o de internet.
Muchas veces las piezas son simulaciones. Toman elementos que
caracterizan una situación y la recrean en otro medio obteniendo así
una situación cuyas variables pueden controlar, o al contrario, crear
una situación y esperar para ver de que manera se desarrolla. Estas
piezas suelen utilizar recursos de vida artificial o inteligencia
artificial para establecer la relación pieza-entorno.
Aunque en la ciencia la vida artificial orgánica es un área más común,
existen pocas piezas artísticas orgánicas. El artista que más ha
utilizado este medio involucrándose en los procesos es Eduardo Kac,
quien propone piezas de modificación celular, pero cuyo resultado se
muestra tanto a nivel celular como animal.
Los proyectos alrededor de vida e inteligencia artificial suelen
requerir recursos y conocimientos de distintas ciencias: matemáticas,
física, biología, lógica, ciencias cognitivas, ciencias computacionales.
Estas disciplinas se utilizan desde un aspecto teórico y cuando el
proyecto involucra conocimientos de ingeniería puede lograrse con
el apoyo de un pequeño equipo de gente y sin recursos excesivos.
La razón por la que las propuestas orgánicas son pocas, es que
suelen requerir de un perfil científico más especializado y el apoyo
de un laboratorio.
//// iinn ssiilliiccoo
6655
Existen varios acercamientos del arte frente al problema de lo
artificial.
Uno de ellos sería tratar lo artificial como tema:
En estas piezas hay elementos comunes. Como la creación de un
mundo, abriendo la posibilidad a un usuario de crear seres dentro de
los parámetros definidos. Comúnmente el objetivo es crear una
plataforma donde el usuario puede generar organismos con su propia
combinación de cuerpo, cabeza y miembros. Eso sucede en las
piezas Technosphere de Jane Prophet, Iconica de Troy Innocent o
Life Spacies II de Christa Sommerer y Laurent Mignonneau.
“Life Spacies” trata de un entorno de vida artificial en el que pueden
interactuar entre sí los visitantes remotos, por Internet, y visitantes
de la instalación en el propio museo, a través de formas e imágenes
en evolución. En la página web "Life Spacies II", personas de todo el
mundo interactúan con el sistema basta escribir y enviar un mensaje
por correo electrónico para crear una criatura artificial propia. Este
proyecto cuenta con un sistema que permite utilizar texto escrito
como código genético y traducirlo en seres visuales en una analogía
al código genético de la naturaleza. Se utilizan letras, sintaxis y
secuenciación del texto para codificar determinados parámetros en
el diseño de la criatura como forma, color, textura y el número de
cuerpos y miembros.
//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee
6666
“Technosphere” es un mundo modelado tridimensionalmente
habitado por formas de vida creadas por usuarios en internet. En el
mundo hay cientos de criaturas compitiendo para sobrevivir. Comen,
luchan, se unen y crean descendencia, evolucionan y se adaptan al
entorno. Cuando el usuario crea una criatura ésta le envía
periódicamente un correo electrónico informándole de los sucesos en
el mundo. La criatura posee herramientas con las que el usuario
puede averiguar cómo está sobreviviendo, qué está haciendo en ese
momento y en qué zona del terreno se encuentra.
Estas piezas suelen darle gran importancia a la apariencia, son
piezas visuales y agradables y la interacción con seres de nuestra
propia creación en un mundo imaginario enfatiza un aspecto lúdico.
Este tipo de obras se sitúa a nivel de la simulación de un mundo, por
lo tanto comprende la vida como un sistema cerrado. Se crea un
entorno definido y se puede jugar con los elementos deterministas
que lo construyen.
Es importante resaltar el carácter antropocéntrico, típicamente
moderno en el que se pretende, crear, controlar y manipular, pero
todo dentro de un mundo definido y delimitado, en el que no es
posible la generación de comportamientos emergentes.
“Icónica” de Troy Innocent funciona de la misma manera pero
involucra códigos culturales que enriquecen la evolución del sistema.
//// iinn ssiilliiccoo
6677
Muchas de estas piezas tienen el sentido de “réplica”.
En este caso se retoman elementos que caracterizan lo vivo y se
construye una metáfora de ellos. Se trata de recrear la naturaleza,
los artefactos surgen de imitarla.
La búsqueda por replicar se ha tratado desde la antigüedad de la
misma manera, con la intención de imitar lo vivo o lo natural pero
con distintos fundamentos. En la antigüedad el fundamento era la
religión o la magia, mientras que desde la modernidad hasta hoy, es
a partir de la nueva ciencia y de la razón.
La pretensión de entender la naturaleza recreándola se mantiene.
Es decir, se toman las propiedades que la caracterizan, se utilizan en
un artefacto para de esta manera lograr la apariencia de un ente
natural. Esta visión la encontramos en los autómatas hidráulicos de la
antigüedad, en los karakuri japoneses del siglo XV, en los autómatas
europeos con mecanismos de relojería del siglo XVII y XVIII y en los
animatronics de hoy.
El caso de la escultura robótica “Senster” es un parteaguas, inicia
con la intención de simulación y de aparentar lo natural y termina
poniendo sobre la mesa el fundamento de las piezas complejas.
El Senster se creó en 1970 para la compañía de electrónica Phillips
en el marco de la exposición tecnológica “Evoluon”. Es de las
primeras esculturas robóticas que funcionan con una computadora.
Este ente electromecánico reaccionaba al ruido y al movimiento
acercándose al público. Ruidos fuertes o movimiento bruscos lo
intimidaban. La acústica del espacio y el impredecible
comportamiento del público lo hacia parecer mucho más complejo e
intrigante de lo que en realidad era. Pronto se volvió evidente que
era el comportamiento y no la apariencia el responsable del impacto
del Senster en el público.
//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee
6688
Otra forma de reflexión sobre lo artificial es el de la sobrenaturaleza, siguiendo la idea de Ortega y Gasset quien plantea que el hombre
nunca pudo integrase a su ambiente natural y por ello crea su propia
naturaleza: la técnica.
Lo interesante en esta idea es que no se trata de sólo utilizar
técnicas para modificar la naturaleza sin intervenir el orden natural,
sino de crear artefactos que configuren un nuevo entorno, un
entorno que se adapta más a la naturaleza artificial del hombre.
En la categorización que intentamos hacer, podemos decir que
existen piezas artísticas que recuerdan la idea de sobrenaturaleza,
porque crean objetos que reemplazan a los naturales para obtener un
nuevo entorno.
Un ejemplo es “office plant #1” de Michael Mateas y Marc Böhlen, es
un objeto tecnológico adaptado a la ecología de una oficina que
desempeña el mismo papel social y afectivo que una planta. Los
autores plantean este objeto como reemplazo de las plantas ya que
consideran que en la sociedad actual, especialmente en las oficinas
modernas, llenas de artefactos, no nos relacionamos con una planta,
y tendemos a abandonarla. Consta de un gran bulbo rodeado de hojas
metálicas montado sobre una base. La esfera, de aluminio forjado, se
abre y se cierra. La pieza monitoriza el audio en el entorno y el nivel
de luz, y responde con movimientos lentos y rítmicos emitiendo un
sonido ambiental. Además, utilizando técnicas de clasificación de
textos, supervisa la actividad del correo electrónico de su dueño.
//// iinn ssiilliiccoo
6699
Un segundo acercamiento al lo Artificial es utilizarlo como medio y
tomar los recursos de la ciencia. Es decir, se exploran los procesos
y a partir de crear las pequeñas partes de un mundo, los elementos
del sistema interactúan y emergen las cualidades de ese mundo. Este
tipo de piezas son complejas porque funcionan como un sistema
abierto, dinámico, basado en la retroalimentación entre sus partes, el
entorno y el espectador.
La pieza autopoiesis de Ken Rinaldo es un ejemplo de este tipo de
propuestas. Está formada por quince esculturas robóticas con sonido,
que interactúan con el público y modifican su comportamiento. Estos
cambios de comportamiento se producen a partir de la información
que recogen sensores de infrarrojos, de la presencia de
espectadores en la exposición y de la comunicación que se establece
entre las esculturas. Las esculturas robóticas de la instalación se
comunican a través de una red electrónica y de tonos audibles de
teléfono que constituyen un lenguaje musical para el grupo.
Autopoiesis "se hace a sí misma", una característica típica de todos
los seres vivos que fue descrita y revisada por Varela y Maturana. El
espectador afecta la pieza con su presencia, participando en la
evolución, y la emergencia del sistema. Se produce de manera
simultánea una estética escultórica del grupo.
Otras piezas dentro de este acercamiento son Genesis y Alba de
Eduardo Kac.
//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee
7700
“Genesis” (1999) es una obra transgénica que indaga en la intrincada
relación entre biología, sistemas de creencias, tecnología de la
información, interacción dialógica, ética e Internet. El elemento clave
de la obra es un "gen de artista", es decir, un gen sintético que el
artista inventó y que no existe en la naturaleza. Este gen fue creado
traduciendo una frase del libro del Génesis al código Morse y
convirtiéndolo en una secuencia de ADN de acuerdo con un principio
de conversión especialmente desarrollado para este trabajo
El proceso inicial de esta obra es la clonación del gen sintético en
plásmidos y su posterior transformación en bacterias, el gen a su vez
produce una nueva molécula de proteína. Se utilizan dos tipos de
bacteria que tienen incorporado un plásmido. Estas bacterias
fluorescentes emiten luz cian y amarilla cuando están expuestas a
radiación ultravioleta. A medida que se multiplican, se producen
mutaciones en los plásmidos de forma espontánea.
“Alba” por su lado, es un conejo modificado genéticamente. Este es
un proyecto importante porque es el primero que esta determinado
por la ciencia, la intención es ironizar sobre las posturas éticas de la
ciencia, utilizando sus mismos recursos.
Eduardo Kac con Alba
//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))
7711
V. “In silico”: análisis de la obra de arte
La pieza “in silico” consiste en la reproducción en tiempo real de
imágenes generadas por un software realizado expresamente.
Presenta imágenes de objetos tridimensionales que crecen en un
ambiente computacional. Estos objetos tienen elementos en común
con animales, células o plantas cómo son ramificaciones, simetría y
bifurcaciones. La finalidad de la pieza es jugar con la percepción del
espectador, que tenga la sensación de estar frente a seres vivos en
su medio natural.
“In silico” es una simulación por computadora que consiste en el
software y en la secuencia de imágenes que se producen con la
computadora. Los organismos son representaciones gráficas de
códigos que imitan códigos genéticos. Tanto la representación como
la estética son abstracciones, no existe una dimensión narrativa.
Aunque es una simulación basada en aspectos científicos, no es una
simulación científica. No tiene los mismos objetivos, características o
condiciones. Por lo tanto no es necesario que represente algo real,
como mostrar un objeto o exponer un comportamiento, ni que
funcione rápidamente para observar la secuencia, llegar a un
resultado bajo ciertas condiciones, u obtener conclusiones. La
finalidad de la pieza es el planteamiento de un espacio imaginario, la
función estética es una abstracción de algunas propiedades que
considero representan “lo vivo”.
//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee
7722
En esta pieza la estética del ambiente, de los individuos, e incluso el
montaje para exposiciones, tiene influencia de las muestras de
tejidos o células en biología, de las observaciones microscópicas y
de las texturas, patrones y formaciones que se crean en la
naturaleza. En mi obra anterior, ya estaban presentes estos
elementos visuales, influencia de mi breve paso por disciplinas de
medicina y biología. En mi trabajo de gráfica (huecograbado) era
común que utilizara recursos naturales y sintéticos para generar
texturas orgánicas en la imagen.
//// iinn ssiilliiccoo
7733
Es una pieza flexible que se adapta a diferentes espacios, la limitante
para su reproducción es el poder de graficación de una computadora.
Evidentemente la recepción por parte del público varía dependiendo
de las condiciones del montaje. “In silico” ha sido expuesta en
diferentes espacios y situaciones.
En una situación ideal, cómo lo fue la galería de arte binario en el
2002, la imagen se obtiene por retroproyección en una pantalla
circular de un metro de diámetro, situada al frente de un cilindro de
aluminio que aísla la proyección del restante y oculta el proyector.
La pantalla está suspendida en el centro de una sala obscura. El
espectador se encuentra con una imagen circular flotando en la
oscuridad y rodeado de un sonido especializado, de manera que
aislado del exterior, puede integrarse al ambiente.
//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))
7744
El sonido fue realizado por el músico Eduardo Meléndez, inspirado en
las cualidades del sonido en un ambiente natural. Es decir, un sonido
de base, presente constantemente punteado con audios incidentales
que representan cada evento de los organismos (nacimiento,
crecimiento, interacción, reproducción, muerte).
//// iinn ssiilliiccoo
7755
En la exposición “juego doble: dos ecosistemas” que se presentó en
el Centro Cultural España en el 2005 se expuso con otras
condiciones y con otra finalidad. Las piezas “in silico” y “Palabra de
bacterias” de Santiago Ortiz tienen en común el constituir un
ecosistema. Cada obra se relaciona con un mapa de textos y
relaciones que establece su contexto. Se expusieron en una misma
sala, relacionando las piezas y ambos mapas. Bajo el criterio de que
un ecosistema es un sistema abierto afectado por el ambiente y por
lo tanto por otros ecosistemas, cada pieza afectaba el sonido de la
otra, retroalimentándola. La imagen no se encontraba aislada de las
fuentes de luz, ya que estas eran necesarias para ver los mapas. El
sonido no estuvo espacializado. Frente a cada una de las piezas era
posible escuchar el sonido de la otra pieza. Sin embargo estas
condiciones favorecían la finalidad de dos ecosistemas relacionados.
//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee
7766
Con condiciones menos propicias se presentó en la exposición
itinerante “Creación en movimiento” de Jóvenes Creadores del
FONCA en la galería central del Centro Nacional de las Artes en el
2004. La pieza se encontraba rodeada de otras 60 piezas en un gran
espacio. Por lo tanto no podía aislarse ni de las fuentes de luz, ni del
sonido ambiental. No fue posible contar con una computadora, por lo
tanto se proyectó en el tubo con pantalla circular un registro en
video del sistema funcionando.
Aprovechando al máximo estas condiciones, el video mostraba
acercamientos y detalles de los organismos, que en otras ocasiones
no podían mostrarse ya que esto hubiera interrumpido la dinámica
del ecosistema.
El cilindro de aluminio, la pantalla circular, las condiciones de luz, el
sonido espacializado y el aislamiento del entorno, fungen como
puesta en escena y escenografía para permitir que el espectador
pueda estar inmerso en el ambiente.
//// iinn ssiilliiccoo
7777
La investigación se estructuró según tres ejes: ¿cómo funciona?,
¿qué significa? y ¿cómo se representa? Es decir, un eje tecnológico,
un eje teórico y un proceso artístico. La investigación y el proceso
iniciaron con la pregunta: ¿qué significa que algo esté vivo? Esta
pregunta se fue respondiendo y al mismo tiempo se fue modificando.
Con respecto al eje teórico, se partió del supuesto que lo vivo o lo
natural podría definirse por oposición a lo artificial, pero esta visión
del mundo se modificó en el transcurso de la investigación. El eje
tecnológico se fundamenta en la noción de sistema y de vida artificial
situando la relación individuo-grupo como núcleo de un sistema. En
referencia al proceso artístico, este se inició con las preguntas
¿cómo se reconoce lo vivo?, y ¿cómo se representa lo vivo?
Dados esos tres puntos de arranque, la pieza se desarrolló de
acuerdo a la retroalimentación entre los tres ejes y los intercambios
a veces antagónicos, otras complementarios entre las disciplinas.
Los ejes teórico y tecnológico se muestran a través de citas
provenientes de los capítulos de este documento intercaladas en los
nodos con imágenes de la pieza.
El mapa a continuación, no explica la pieza, forma parte de ella junto
con la teoría y la programación; en todo caso explica los procesos de
investigación. Se hizo como una representación de la manera en que
se construyó la pieza. Es una estrategia para mostrar el sistema de
relaciones entre distintas disciplinas y para encontrar los puntos en
donde se cruzan, se separan o se intervienen, destacando cómo dos
líneas que se intersectan determinan nuevas relaciones.
A continuación se encuentra la pieza “in silico: un diagrama hacia lo
artificial” que se expuso en el 2004 en la exposición “Diez años de la
Esmeralda” en la galería central de Centro Nacional de las Artes, y
en el 2005 en la exposición “Juego Doble: dos ecosistemas” en el
Centro Cultural España. Posteriormente se incluyen las citas y textos
numerados que componen el mapa.
//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee
8800
El eje artístico. El proceso conlleva una etapa de investigación
histórica. Busqué como había respondido el hombre a la misma
pregunta que yo me hacía “¿Qué es la vida?” o a preguntas similares.
Encontré que los autómatas han sido imitaciones de hombres o
animales, que la ciencia ha querido entender la vida recreándola
(Miller, Oparín), y cómo las teorías acerca de la evolución se han
modificado (Darwin, Thompson Gould, Dawkins). El hombre ha hecho
réplicas del “cómo se ve”, antes de recrear el “cómo funciona”.
Antes de su realización los objetivos se establecieron de tal modo
que la pieza pretendiera engañar la percepción. Utilizaría criterios de
“cómo funciona lo vivo” para establecer cómo debía verse, ya que el
reconocimiento de otro ser vivo se da a través del comportamiento.
Tendría que cambiar el contenido de un continente a otro, es decir,
retomar atributos de seres vivos e insertarlos en otro tipo de objetos
(virtuales). Aquí debían reconocerse formas orgánicas, movimiento,
reproducción, crecimiento y muerte. Por otro lado para hacer
reconocibles a las formas como vivas, debían tener organicidad
visual como ciertos elementos de simetría, ángulos, bifurcaciones,
pero también organicidad funcional variaciones e improbabilidades,
desorden y factores azarosos, únicamente generables cuando se
diseñan desde el código genético.
Por último, me encuentro en la intersección de varias disciplinas:
arte, filosofía, ciencia y tecnología. De esta intersección surge la
obra, de la reflexión e interpretación de un área desde otra, pensar
la ciencia con recursos de la tecnología, desde el arte. No es una
obra que reflexione acerca de si misma, sino que representa los
puntos de encuentro y las zonas donde se vuelven difusas las
fronteras. El artista que está en contacto con áreas tan distintas,
obviamente no es especialista en todos los campos, pero a través de
un trabajo de tipo laboratorio, logra un diálogo entre ellos. Las
piezas surgen naturalmente, se convierten en la representación de
una discusión.
//// iinn ssiilliiccoo
8811
El eje tecnológico. En lo que concierne a la parte tecnológica, la
pieza se estructuró desde dos puntos: individuo y sistema. Para los
individuos me centré en una investigación más científica y para el
sistema en un desarrollo computacional. Pero antes recordemos qué
son un sistema y un individuo, para hacer más claro por que son
necesarios para la creación de la pieza
Un sistema es un conjunto de elementos organizados que interactúan
entre sí y con su ambiente, para lograr objetivos comunes. Un
sistema complejo, posee más información que la que da cada parte
independientemente. Los seres vivos, la tierra, los ecosistemas son
sistemas complejos.
“In silico”, como ecosistema pretende ser un sistema complejo
aunque limitado. Los organismos que lo habitan son los elementos
del sistema. Existe una infinidad de configuraciones posibles, pero
dentro de un rango de posibilidades que yo decidí.
El sistema se consideró bajo los criterios de la inteligencia colectiva
y los agentes inteligentes y se programó con el lenguaje orientado a
objetos (JAVA), esto significa que cada individuo, el universo en el
que viven y cada evento (nacimiento, crecimiento, interacción,
muerte) que sucede es un agente, u objeto, que se comunica con
todos y cada uno de los demás antes de actuar.
Los individuos se crearon con un código (en “Sistema L”) análogo al
código genético. El sistema L fue desarrollado por el biólogo Aristid
Lindenmayer en 1968 como una formalización matemática de una
teoría axiomática del desarrollo biológico. Algunos orígenes de este
desarrollo que tomé como fundamentos para el diseño de los
individuos fueron las teorías de Lindenmayer en “The Algorithmic
Beauty of Plants” (1991), de Sir Theodore Andrea Cook, quien en
“Spirals in Nature and Art” (1903) y “The Curves of Life” (1914)
realiza un exhaustivo recorrido y clasificación de las espirales en la
//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee
8822
naturaleza. También de D’Arcy Thompson “On growth and Form”
(1917 y 1942), cuya teoría establece las fuerzas físicas como
modeladoras de crecimiento y motores de la evolución, explicando
que la eficacia mecánica que presentan la mayoría de las estructuras
se explica por la adquisición de características y por adaptación al
entorno y a las fuerzas mecánicas y físicas. Existen otras críticas y
enfoques más contemporáneos como René Thom “Stabilité
structurelle et morphogenèse” (1972), para quien el problema
fundamental de la biología, es un problema de topología [g] –
disciplina matemática que permite pasar de lo local a lo global. -
Para él los seres vivos son las “singularidades estructuralmente
estables” de un campo, interactúan por simbiosis, depredación,
parasitismo, sexualidad, etc. Se trata de dar al campo de la vida una
“descripción geométrica” y de determinar sus “propiedades
formales” y sus “leyes de evolución”.
Los individuos están determinados por su código genético, pero esa
estructura tiene elementos paramétricos y estocásticos, de manera
que cada vez que se producen son distintos en función de el azar y
de su cercanía con otros individuos del ambiente.
El eje teórico. Partí de la hipótesis de que lo artificial se puede
definir por oposición a lo natural. Para ello recurrí a autores de
distintas corrientes en filosofía de la tecnología. Todos ellos
coinciden en que lo artificial no puede oponerse a lo natural. Estos
nuevos enfoques me parecieron mucho más interesantes ya que
plantean la técnica y sus resultados como intrínsecos a la naturaleza
del hombre y aportan la noción de híbridos. La hipótesis se modificó
entonces a que lo artificial forma parte de lo natural.
Los autores de la escuela de Salamanca definen la técnica y la
tecnología, sus estructuras y propiedades. La técnica es una entidad
abstracta, se transmite como información, requiere de habilidades.
//// iinn ssiilliiccoo
8833
Una realización técnica es un sistema intencional de acciones. Un
artefacto es el resultado de una acción intencional sobre un sistema.
Un artefacto también puede ser el estado de un sistema si el proceso
que lo determina es artificial, independientemente de las propiedades
de los objetos del sistema. El campo de “lo artificial” se define como
un subconjunto de lo natural. Por ejemplo, la técnica no puede
distinguirse del hombre ya que con ella modifica su ambiente al
fabricar instrumentos que le facilitan o le hacen más confortable la
vida. La técnica es parte de su naturaleza. De la misma manera los
objetos “artificiales” los creamos nosotros de manera directa o
indirecta (a través de objetos o sistemas intermediarios), por lo tanto
lo artificial es parte de lo natural. Por último, puesto que la
tecnología está presente en el mundo que nos rodea, “la sustancia
misma de la realidad que nos circunda es intrínsecamente
tecnológica o artificial” (Quintanilla, 1989). Todo lo que conocemos
no es natural, ya ha sido diseñado para mostrar algún aspecto en
particular. Conocemos el mundo a través de lo que percibimos como
realidad, pero esa realidad ya ha sido manipulada. Lo artificial es
parte de la realidad o al menos es la única realidad a la que podemos
acceder desde nuestra sociedad.
En la visión del constructivismo social en torno a la tecnología,
aparece la idea del híbrido. El híbrido como un objeto (jitomate
transgénico, Dolly) que no es únicamente natural o únicamente
artificial, sino ambos, y el híbrido social que perturba el esquema en
que se oponen firmemente naturaleza y cultura. En realidad todas las
estructuras y fenómenos son muestra de híbridos políticos,
culturales, científicos y económicos (embriones congelados, virus del
sida, agujero de ozono).
Por último surgió el concepto del cyborg, mitad humano, mitad
máquina. Esta idea puede extrapolarse a un ser digno de ciencia
ficción. Más cercano a nuestra realidad se encuentra el cyborg como
//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee
8844
hombre contemporáneo, modificado por alimentos transgénicos,
medicinas, vacunas o drogas de síntesis, prótesis (cardiovasculares,
gástricos, dentales, oculares).
Lo artificial empezó como algo extraño y externo y terminó siendo
parte de nuestra naturaleza, está presente en todos los tipos de
híbridos y cyborgs, cada vez más diluidos en nuestro entorno. En
este sentido, fue evidente que las fronteras “teóricas” deben
reconsiderarse ya que en la práctica no se sostienen y tienden a
desaparecer.
“tratando de distinguir lo natural de lo artificial, un criterio para enmarcar lo artificial no sería un criterio que separe lo artificial de lo natural, sino un criterio que establece que partes de mundo natural son artificiales.”
LÍNEAS AZULES: TEORÍA LINEAS VERDES: “IN SILICO” LÍNEAS ROJAS: TECNOLOGÍA
//// iinn ssiilliiccoo
8855
LÍNEAS AZULES: TEORÍA
2.< Miguel Ángel Quintanilla “Tecnología: Un enfoque filosófico” “No es sólo nuestro conocimiento de la realidad o nuestra forma de comportarnos
ante ella, sino la sustancia misma de la realidad que nos circunda la que es
intrínsecamente tecnológica o artificial. La teoría filosófica de la realidad no puede
ya pasar por alto la teoría de lo artificial”
Si la manera de conocer el mundo es a través de lo que percibimos como realidad,
pero esa realidad ya ha sido manipulada, ¿qué es lo que debemos ver para poder
entender el mundo? Lo artificial es parte de la realidad o es la única realidad a la
que podemos acceder desde nuestra sociedad. A donde quiera que volteemos, el
mundo no es “natural” como lo fue hace algunos cientos de años, está plagado de
artefactos, los paisajes han sido “diseñados”, la realidad está alterada. Pero es la
única realidad que conocemos. >
3.< Bruno Latour “Nunca fuimos modernos” “Contaminación de los ríos, embriones congelados, virus del sida, agujero de ozono,
robots con sensores ¿Estos objetos extraños que invaden nuestro mundo dependen
de la naturaleza o de la cultura? ¿Cómo comprenderlos? Hasta ahora, las cosas
habían sido más sencillas: los científicos se ocupaban de la gestión de la naturaleza,
los políticos de la sociedad. Pero esa separación tradicional de las tareas se vuelve
de más en más impotente al tomar en cuenta la proliferación de los híbridos. De ahí
el sentimiento de terror que procuran y que no logran calmar los filósofos
contemporáneos, ya sean antimodernos, posmodernos o éticos.
¿Y si hubiésemos equivocado el camino? En efecto, nuestra sociedad “moderna”
nunca funcionó conforme a la gran separación que funda su sistema de
representación del mundo: el que opone radicalmente la naturaleza de un lado y la
cultura del otro. En la práctica, los modernos nunca han dejado de crear objetos
híbridos, que dependen de ambas y que se rehúsan a pensar. Por lo tanto nunca
fuimos modernos y es ese paradigma fundador el que hoy debemos poner en duda
para comprender nuestro mundo.” >
4.< Liliana Quintero Artificial. 04 ¿Será entonces que la separación entre natura y artificio ya no es pertinente?
Si esto es afirmativo, el planeta entero es ya un cyborg, mezcla de organismos
digitales in silico, organismos biológicos in vitro y organismos naturales que
cohabitan y hacen la línea de la vida mucho más compleja y difusa.
¿Habrá entonces, una vez más, que replantear el concepto de vida, de humanidad,
para no hablar de un posthumano, sino de un prototipo de eso que creímos alguna
vez que éramos? >
//// iinn ssiilliiccoo:: aannáálliissiiss ddee llaa oobbrraa ddee aarrttee
8866
5.< SI… Si los objetos artificiales son objetos producidos por la
cultura y los naturales por la naturaleza, si los productos
culturales se sobreponen a los naturales, si la naturaleza es
información transmitida genéticamente (genes) y la cultura
es la información transmitida no genéticamente (memes), si
los objetos artificiales son aquellos producidos
intencionalmente y el objeto se produce con un grado de
control sobre el sistema. MUCHOS ARTEFACTOS
QUEDARÍAN AÚN SIN DEFINIRSE.
La artificialidad es un sistema complejo. La complejidad
emerge de lo natural. >
6.< Fernando Broncano “Los mundos artificiales” “La distinción entre lo natural y lo artificial sigue siendo una de
las cuestiones más debatidas y es una importante división que
afecta a otras también muy importantes, como es la distinción
entre normativo y descriptivo. El caso es que como tantas veces
suele ocurrir, tenemos muy clara la división mientras nadie nos
pregunte por ella. [...] para distinguir lo natural de lo artificial: un
criterio para enmarcar lo artificial no es un criterio que separe lo
artificial de lo natural, sino un criterio que establece que partes de
mundo natural son artificiales.” >
7.< Donna Haraway “Modest_Witness@Second_Millenium.FemaleMan©_Meets_OncoMouse™” Los híbridos no existen en la naturaleza como tal, pero eso no quiere decir
que no existan. Están ahí y no pertenecen a las clasificaciones con las que
contamos. El OncoMouse de Dupont, el FlavrSavr de Calgene Inc., o Dolly
no son los únicos híbridos en el mundo. El cyborg contemporáneo, el
“híbrido”, se asoma en los hombres y mujeres modificados con prótesis,
anteojos, cirugías y órganos artificiales, en cada uno de nosotros que
consume químicos sintetizados en alimentos, medicinas, hormonas y
respiramos aire modificado.
Haraway utiliza los híbridos para destacar que en un mundo marcado por
distinciones tan radicales entre el mundo de lo material y el mundo de la
cultura, la emergencia de híbridos inclasificables, y son orden las viejas
distinciones pierden su sentido explicativo y descriptivo. ¿Deben
redefinirse las categorías o desaparecer? >
//// iinn ssiilliiccoo
8877
LINEAS VERDES: “IN SILICO” (texto de sala)
1.< Karla Villegas In silico 3 In Silico es un proyecto artístico interdisciplinario que busca investigar y explorar como se define "lo vivo" a
partir de un sistema de vida artificial. En el proceso de la obra, se exploran sistemas de crecimiento,
comunicación e interacción de un organismo con su ambiente a la vez que se propone el acercamiento visual
a un ambiente que no describe un mundo “real”. Uno de los objetivos de esta pieza es cuestionar y entender
nuestra relación con lo que percibimos como vivo. >
Con el objetivo de generar un sistema de simulación de crecimiento de vida artificial, Florence Gouvrit
decide rastrear los signos con los que asociamos el concepto de vida, trasladándolos al contexto de este
sistema. Esto con la intención de provocar en el sujeto percipiente, un reconocimiento en los organismos
artificiales de In Silico de aquellos signos que comúnmente asociamos con los prototipos de desarrollo de
organismos naturales. >
8.< Karla Villegas In silico 1 Una de las problemáticas en las que se centró la discusión científica hacia finales de
siglo XX, fue la simulación de vida e inteligencia artificial. Muchos de los intereses
sobre este tema se concentraron en la recuperación y reinterpretación de
características biológicas, la herencia en los algoritmos genéticos, los sistemas de
reproducción y la constante orientación a la morfogénesis; esto condujo a varias
áreas del conocimiento hacia un replanteamiento de las fronteras entre lo humano, lo
orgánico y lo artificial.
En las prácticas artísticas contemporáneas, sobre todo aquellas que están
estrechamente vinculadas con la tecnología y la ciencia, estos problemas repercuten
y son abordados de forma que evidencian lo difuso de las fronteras entre lo vivo y lo
inerte. Proyectos como el Interactive Plant Growing, de Christa Sommerer y Laurent
Mignonneau, o el Telegarden, de Ken Goldberg, se ubican en una estética que surge
en el plano científico y, además, cuestionan la relación de los prototipos de
crecimiento orgánico que son activados a partir, en este caso, de un interactor; otros
proyectos como Génesis, de Eduardo Kac, y Office Plant de Marc Böhlen y Michael
Mateas, cuestionan a partir de una simulación en donde no importa un usuario activo
sino sólo el reconocimiento y la interacción de los patrones con los que se asocia el
crecimiento natural, y entre estos y su ambiente. >
9.< Karla Villegas In silico 2 In Silico se convierte entonces en un ecosistema simulado en donde co-existen grupos de distinta especie, que
conviven y se comunican a partir de “agentes”. Dichos organismos son generados a partir de una estructura
diseñada utilizando un formalismo matemático conocido como sistemas L. La utilidad principal de estos sistemas
es la de describir el crecimiento de organismos naturales, sin embargo, una de las funciones latentes de dichos
sistemas, que no ha sido muy explorada, es la posibilidad de reproducir y describir organismos sintéticos. Los
organismos crecen en tiempo real permitiendo su modificación constante en función de la interacción que existe
entre ellos y su relación con el ambiente. Dado que los organismos se comunican por medio de “agentes”, se
producen relaciones y un comportamiento colectivo en donde el fin común es la supervivencia. >
LÍNEAS ROJAS: TECNOLOGÍA (ver los textos en Anexo: 2. Desarrollo: organismos y sistema)
8899
VI. Anexo (documento técnico)
“In Silico”: sistema computacional de vida artificial
1. Antecedentes
In Silico es un ambiente de simulación visual tridimensional, en
donde varios objetos crecen en función de sus características e
interacciones.
El patrón de crecimiento de cada objeto es modelado a través de
sistemas L.
2. Desarrollo
a. Organismos
15.< Los Sistemas L son una formalización matemática de la teoría
axiomática del desarrollo biológico propuesta por el biólogo
Aristid Lindenmayer en 1968. Recientemente los sistemas L han
encontrado muchas aplicaciones en la computación gráfica. Las
dos principales áreas incluyen generación de fractales y modelos
realistas de vegetales. Un punto central de los sistemas L es la noción de reescritura, tal
y como sucede con las gramáticas regulares o gramáticas libres
de contexto. La idea básica es sustituir símbolos predecesores
con secuencias de símbolos, el patrón de sustitución está
determinado por un conjunto de reglas de sustitución o
producciones. La reiteración finita de las producciones de un
sistema L produce palabras. El proceso de reescritura puede
realizarse de manera recursiva.>
Los sistemas que operan bajo cadenas de caracteres han sido los
más estudiados. En 1957 Chomsky aplica los sistemas formales de la
teoría general de sistemas [g] al estudio de los lenguajes. Propuso un
modelo capaz de representar la sintaxis de cualquier lenguaje, que
llamó la atención de los computólogos interesados en aplicar los
sistemas recursivos y gramáticas formales para representar el
crecimiento.
//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))
9900
Lindenmayer introdujo un nuevo tipo de gramática que
posteriormente tomó el nombre de sistema L. La diferencia esencial
con la gramática de Chomsky se encuentra en la manera de aplicar
las producciones. En el sistema de Chomsky, las producciones son
aplicadas secuencialmente, mientras que en el sistema L estas son
aplicadas en paralelo, reemplazando simultáneamente todos los
símbolos de una sola palabra.
12.< Las palabras o expresiones pertenecientes al
lenguaje generado por un sistema L tienen una
interpretación geométrica en el espacio, esto
es, cada expresión derivada a partir de un
sistema L se corresponde con un objeto que
puede ser situado en el espacio.
El tipo de sistema L utilizado en In silico es un
sistema L paramétrico-estocástico.
Los símbolos paramétricos son símbolos de un
alfabeto asociados con números reales.
Además de expresiones paramétricas que
resultan en estructuras cambiantes en el
espacio, estos sistemas L asignan una
probabilidad de sustitución a cada producción,
haciendo que el lenguaje generado sea
"inestable". >
14.< El alfabeto está conformado por símbolos de dos categorías: símbolos no
terminales y terminales, esto es, símbolos sustituibles y símbolos no
sustituibles. Comúnmente, los símbolos terminales tienen una interpretación
geométrica, mientras que los no terminales sólo sirven para definir un patrón
de desarrollo a través de una sustitución.
Tomemos un ejemplo contenido en The Algorithmic Beauty of Plants:
Sean
Axioma = X
Producción 1= X -> A [+X][X][-X]
Producción 2= A -> FF
En este caso X se reemplazara por una fórmula que significa que la rama se
divide en 3 ramas.
“ F ” significa trazar una línea. (“ FF ” una línea después de la primera)
“ [ ] ” significa que efectúe la acción y regrese a su punto de origen
“ + ” y “ - ” estipulan una rotación de la línea con respecto a la orientación de
origen
Esto se interpreta de la manera siguiente: el axioma es el modulo básico, en
cada generación, busca si alguno de los elementos que conforman la expresión
debe sustituirse. Entonces encuentra la Producción 1 y reemplaza la X por la
fórmula correspondiente, posteriormente ejecuta la instrucción de crecimiento.
Al tiempo que va leyendo las letras va reemplazándolas si es el caso, y si no
continúa hasta el término de la expresión. >
//// iinn ssiilliiccoo
9911
(L)
7
22
A=fffff[<<<BA][&&&BA]
B=fffff[S]
S=[&N][^N][++++M]
N=F-F-F-F--F---F----Z-----
Z
M=F+Z+Z
(M)
10
11.25
A
A=[N]&---[N]&---[N]&---[N]&---[N]&---[N]&---[N]&---[N]&---[N]&---[N]
N=f-f-f-f-FR-F-F-F-Z+Z+Z+Z
R=[>%N+F>+F>+F>+F>+F>+F>+F>+F>+Z>+Z>+Z>+Z]
(T)
15
10
[|H]C[>>>>>>>>>[TF][OF]]
C=FR-C
R=[^^^^^^^^^BL][&&&&&&&&&B]
B=:F++!B
H=[^^^S]%[^^^S]>>>H
S=Z!S
T=Z+^!:T
O=Z-^!:O
(A)
10
22.5
A
A=B&>(10)A
B=-F-F-F-F-F[>%B]-F-
F-F-F-F--F--F---F
Estos son los organismos originales de la pieza,
diseñados con el programa L-Parser. Existen
variaciones entre los símbolos que utilizan los
distintos lenguajes de programación que admiten
el uso de sistemas L, así como la manera en que
reciben los parámetros.
//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))
9922
La diferencia entre la gramática de Chomsky y la de Lindenmayer
refleja la motivación biológica de los sistemas L. Las producciones
intentan capturar la división celular en los organismos multicelulares
donde la divisiones se dan de manera simultánea. El sistema L
permite no sólo la descripción y reconstrucción de estructuras
simétricas bidimensionales, sino también tridimensionales, formas
celulares esféricas, crecimientos caóticos, interrumpidos o
influenciados por fuerzas físicas.
El código que se incorporó al código de agentes se llama “Turtle” en
alusión a los primeros códigos en lenguaje “Logo”. En este lenguaje
una tortuga en pantalla dibujaba líneas o ángulos en función de los
parámetros recibidos. Cada símbolo (“F”, “+”,”-“, “&”corresponde a
una instrucción. Cada una (move, turn, set) se acompaña del eje en el
que debe actuar (forward, turn, pitch, roll), además entre paréntesis
se agrega el parámetro de magnitud. Estos valores se le asignan a la
tortuga “turtle”, que a su vez es un agente, y ésta dibuja en el
espacio tridimensional el organismo descrito.
13.< 'F': turtle.moveForward (param); 'f': turtle.moveForward (param,false); '+': turtle.turnAroundUp (param); '-': turtle.turnAroundUp (-param); '&': turtle.pitchAroundLeft (param); '^': turtle.pitchAroundLeft (-param); '/': turtle.rollAroundHeading (param); '\\': turtle.rollAroundHeading(-param) '|': turtle.turnAroundUp (Math.PI); '[': turtle.pushState (); ']': turtle.popState (); '#': turtle.setWidth (param);
'!': turtle.setWidth(param);>
//// iinn ssiilliiccoo
9933
b. Ambiente
10.< Los sistemas de Inteligencia Artificial (IA) ponen en ejecución
conocimientos de sentido común o especializados y los explotan
en mecanismos de raciocinio, es decir, en sistemas deductivos a
base de conocimiento. El fundamento de esta aproximación de IA
es la posibilidad de representar el saber en diferentes tipos de
lógica.
Otro aspecto de la inteligencia a base de conocimientos es el de la
inteligencia colectiva. Esta consiste en suscitar un
comportamiento inteligente de manera emergente por cooperación
entre un conjunto de entidades (agentes) con autonomía y tareas
propias. Estos agentes pueden ser dotados de una capacidad
cognoscitiva, de conocimientos previos y de mecanismos de
raciocinio. En este caso hablamos de “sistema multiagentes”. >
En los sistemas multiagentes cada agente tiene un comportamiento
reactivo y está desprovisto de inteligencia. Es de la interacción entre
agentes que emerge un comportamiento inteligente.
11.< El sistema multiagentes en In silico La interacción entre objetos y la base de tiempo utilizada para permitir el
desarrollo de los mismos es controlada por una colección de agentes. Los
agentes utilizados son del tipo reactivo, por lo que el comportamiento del
sistema en su conjunto es resultado de la comunicación entre estos.
Se definen 5 tipos de agentes según sus funciones: un agente controlador del
display; un agente maestro que determina la cantidad y los tipos de objetos en
la simulación, así como también el momento en que se desarrollan; un agente
que sincroniza el audio con el display; un agente que controla el tiempo, un
agente que genera las expresiones paramétricas de un sistema L y un agente
que las interpreta y convierte en geometría.
Al inicio de la simulación se crean un controlador de display; un sincronizador
de audio y un agente maestro que crea a su vez una cantidad determinada de
agentes generadores, intérpretes y de tiempo en la misma proporción, esto
posibilita que cada objeto se desarrolle independientemente de los demás.
El desarrollo de un objeto pasa por cuatro fases: crecimiento, reproducción,
envejecimiento y muerte. Los eventos de crecimiento, envejecimiento y muerte,
dependen, aunque no exclusivamente, del tiempo, mientras que el evento de
reproducción depende de la interacción con otros objetos en el ambiente. El
tiempo de vida de un objeto puede verse reducido por la cantidad de veces que
ocurre una interacción. >
//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))
9944
Se dice que ocurre una interacción cuando un objeto invade el
espacio vital de otro objeto, definido como un volumen alrededor del
objeto en cuestión.
Es a través de la comunicación inter-agente que los objetos pueden
reaccionar, ésta se lleva a cabo mediante el envío y recepción de
mensajes asíncronos, esto es, que no se requiere el acuse de recibo
de éstos, lo cual hace posible una interacción mucho más ágil.
//// iinn ssiilliiccoo
9955
3. Objetivo
A. Los objetos deben simular un sistema vivo a través de su
comportamiento individual y colectivo.
B. El sistema debe simular el crecimiento orgánico mediante la
generación de objetos 3D en tiempo real:
Configurar y crear los diferentes objetos en crecimiento.
Arbitrar el crecimiento de los diferentes objetos.
Determinar el crecimiento de cada objeto.
- Establecer una base de tiempo para cada objeto.
- Especificar el desarrollo de cada objeto.
Administrar el display.
Interpretar comandos para representación tridimensional.
Refrescar el display.
Atender las acciones del usuario.
Sincronizar el display con el nodo de audio.
Descripción general
El sistema es un entorno gráfico tridimensional por computadora a
través del cual, el espectador podrá ver el desarrollo en tiempo real
de una colección de objetos.
El sistema se ejecuta en una sola máquina.
El desarrollo de un objeto en el sistema implica su orientación
espacial, su multiplicación o eliminación condicionada por variables
del entorno, como la proximidad con algún otro objeto. Todo lo
anterior es controlado por algoritmos recursivos y de vida artificial.
El desarrollo del ambiente depende fuertemente del estado inicial
que se define como la colección de valores que tienen las variables
reguladoras en el momento de iniciar la ejecución del sistema.
Al inicio de la ejecución del sistema se crean el agente responsable
de crear los agentes de los objetos, el agente de display y el agente
de audio. Al terminar la creación de estos tres, los activa dando
inicio a la simulación.
//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))
9966
Estado inicial
El estado inicial está conformado por los valores de las siguientes
variables reguladoras al momento de iniciar la ejecución del sistema:
• Dimensiones del universo.
Valores x,y,z que determinan el tamaño del universo a simular. Definen un paralelepípedo que
condiciona las dimensiones de los demás objetos.
• Tipo de objetos primitivos.
Un objeto primitivo es la geometría de base que se utiliza para crear un objeto en el sistema. La
geometría que define a un objeto primitivo debe poseer la siguiente característica:
Un objeto primitivo debe tener por lo menos dos puntos, que pueden o no ser parte de su geometría, ubicados de tal forma que al concatenar espacialmente otro objeto primitivo en uno de esos puntos, las geometrías de ambos objetos queden unidas en una.
El objeto primitivo más simple es una superficie plana triangular.
• Cantidad de objetos origen
Un objeto origen es una geometría resultado de la concatenación espacial de objetos primitivos.
• Configuración de los objetos origen
La configuración de un objeto origen es el resultado de varias concatenaciones espaciales de
objetos primitivos.
• Disposición espacial de objetos origen
La disposición espacial de los objetos origen se refiere a la localización en el universo de los
objetos origen así como su orientación.
• Velocidad de crecimiento
Es la tasa a la que se realizan los cálculos de orientación espacial de la siguiente generación de
objetos primitivos.
• Condiciones del ambiente
Están determinadas a su vez por una colección de variables, las cuales son:
o Fuentes de luz:
ß Tipos de fuentes de luz: ambiental, direccional, puntual, tipo spot ß Cantidad de fuentes de luz
ß Localización y orientación de las fuentes de luz
o Obstáculos.
//// iinn ssiilliiccoo
9977
ß Cantidad de obstáculos
ß Tipos de obstáculos: obstáculo esférico y obstáculo cúbico
Son cuerpos que ofrecen resistencia a la penetración por parte de otros objetos: La región
que ofrece resistencia está determinada por la forma, el radio y la influencia y el factor de
penetración.
ß Localización, orientación y apariencia de obstáculos
Ubicación en el espacio, hacerlos visibles o invisibles.
o Atractores.
ß Tipos de atractores: atractor esférico
Son cuerpos que atraen los apéndices de los objetos
ß Cantidad de atractores
ß Localización, orientación y apariencia de los atractores
La ubicación y arreglo espaciales de los atractores. También es posible hacer visibles o
invisibles a los atractores.
ß Posición y orientación del observador
Es la ubicación desde la cual se calcula la imagen que ha de ser
transferida a la pantalla o al proyector.
Características de los usuarios.
El espectador es aquella persona que presencia el proceso de
desarrollo de los objetos en el sistema. Para él, el sistema es
autónomo.
El operador es aquella persona que propone el estado inicial. Es la
persona que decide, en cualquier momento, iniciar o detener el
sistema.
Restricciones.
Una vez iniciado el sistema, el operador no puede alterar ninguna de
las variables que constituyen el estado inicial. Se deberá detener,
alterar los valores de las variables y volver a iniciar la ejecución.
//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))
9988
4. Características técnicas del sistema. (por Ing. Marco Antonio Montes de Oca )
Escenarios.
La segunda etapa es identificar escenarios de operación del sistema con el fin de determinar la
secuencia de operaciones que se ejecutarán desde una situación determinada.
Escenario 1. Inicio del sistema.
Descripción: Al inicio de la ejecución del sistema se crea un agente que tendrá la responsabilidad de crear los
agentes que controlaran el crecimiento y desarrollo de un objeto del mundo simulado. También será
responsable de crear el agente administrador de display y el agente sincronizador de eventos de audio. Al
terminar la creación de todos los agentes necesarios procederá a su activación, aquí es en donde en realidad
iniciará la simulación. (fig. 1)
Escenario 2. El agente controlador de objeto es iniciado por el agente maestro.
Descripción: El agente maestro envía a cada agente controlador de objeto un mensaje de activación. Estos al
recibir el mensaje, crean un agente base de tiempo, y un agente generador de comandos de crecimiento. El
agente base de tiempo es independiente y determinará de manera autónoma el momento en el cual el objeto
se desarrollará potencialmente.
(fig. 1) No existe mayor detalle pues no existen mensajes entre agentes, sólo son creados.
Fig 1. Diagrama de secuencia para el escenario 1 y 2.
//// iinn ssiilliiccoo
9999
Escenario 3. El agente base de tiempo determina que el objeto que controla debe crecer. El
sistema está bloqueado.
Descripción: Transcurrido el tiempo que el agente base de tiempo determina, éste envía un mensaje al agente
generador de comandos correspondiente al agente controlador de objeto que lo creó y al mismo tiempo
disemina el mismo mensaje para que el agente sincronizador de audio lo atienda y envíe un paquete UDP al
nodo controlador del audio. A su vez, el agente generador de comandos solicita el bloqueo del sistema al
agente maestro para poder efectivamente desarrollarse. Si el sistema se encuentra bloqueado, el agente
maestro le regresa un mensaje de espera, en cuyo caso el agente generador de comandos espera un tiempo
preestablecido antes de volver a intentar bloquear el sistema.
Fig. 2. Diagrama de secuencia del escenario 3.
//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))
110000
Escenario 4. El agente base de tiempo determina que el objeto que controla debe crecer. El
sistema no se encuentra bloqueado, el objeto está en etapa de crecimiento y al agregarse al mundo
simulado, no interacciona con ningún otro objeto.
Descripción: Transcurrido el tiempo que el agente base de tiempo determina, éste envía un mensaje al agente
generador de comandos correspondiente al agente controlador de objeto que lo creó y al mismo tiempo
disemina el mismo mensaje para que el agente sincronizador de audio lo atienda y envíe un paquete UDP al
nodo controlador del audio. A su vez, el agente generador de comandos solicita el bloqueo del sistema al
agente maestro para poder efectivamente desarrollarse. Dado que el sistema no se encuentra bloqueado, el
agente maestro le regresa un mensaje de autorización, en cuyo caso el agente generador de comandos
determina el siguiente estado al que debe pasar el objeto que controla y envía el mensaje correspondiente al
agente sincronizador de audio. Una vez calculado el siguiente estado, el agente generador envía la secuencia
de comandos al agente controlador de objeto para su interpretación, esto es, para generar la geometría que
lo representará en el espacio. Justo después de ello, el agente generador de comandos envía al agente
maestro un mensaje para desbloquear el sistema. Paralelamente, el agente controlador de objeto, después de
interpretar la secuencia de comandos, envía un mensaje de refresco de display al agente administrador de
display. (fig. 3)
Fig. 3. Diagrama de secuencia del escenario 4.
//// iinn ssiilliiccoo
110011
Escenario 5. El agente base de tiempo determina que el objeto que controla debe crecer. El
sistema no se encuentra bloqueado, el objeto está en etapa de crecimiento y al agregarse al mundo
simulado, interacciona con otro objeto.
Descripción: Transcurrido el tiempo que el agente base de tiempo determina, éste envía un mensaje al agente
generador de comandos correspondiente al agente controlador de objeto que lo creó y al mismo tiempo
disemina el mismo mensaje para que el agente sincronizador de audio lo atienda y envíe un paquete UDP al
nodo controlador del audio. A su vez, el agente generador de comandos solicita el bloqueo del sistema al
agente maestro para poder efectivamente desarrollarse. Dado que el sistema no se encuentra bloqueado, el
agente maestro le regresa un mensaje de autorización, en cuyo caso el agente generador de comandos
determina el siguiente estado al que debe pasar el objeto que controla. Una vez calculado el siguiente estado,
el agente generador envía la secuencia de comandos al agente controlador de objeto para su interpretación,
esto es, para generar la geometría que lo representará en el espacio. Justo después de ello, el agente
generador de comandos envía al agente maestro un mensaje para desbloquear el sistema. Paralelamente, el
agente controlador de objeto, después de interpretar la secuencia de comandos, envía un mensaje de
refresco de display al agente administrador de display que detecta que el nuevo objeto colisiona con otro
objeto, enviando un mensaje al agente controlador de objetos. El agente controlador de objeto determina si
es sólo una interacción común o se trata de una interacción de réplica o de envejecimiento. Envía el evento
correspondiente al agente sincronizador de audio. (fig. 4)
Fig 4. Diagrama de secuencia para el escenario 5.
//// iinn ssiilliiccoo ((aanneexxoo ttééccnniiccoo))
110022
Escenario 6. El agente base de tiempo determina que el objeto que controla debe crecer. El
sistema no se encuentra bloqueado, el objeto está en etapa de crecimiento y al agregarse al mundo
simulado, interacciona con otro objeto provocando su propia muerte.
Descripción: Transcurrido el tiempo que el agente base de tiempo determina, éste envía un mensaje al agente
generador de comandos correspondiente al agente controlador de objeto que lo creó y al mismo tiempo
disemina el mismo mensaje para que el agente sincronizador de audio lo atienda y envíe un paquete UDP al
nodo controlador del audio. A su vez, el agente generador de comandos solicita el bloqueo del sistema al
agente maestro para poder efectivamente desarrollarse. Dado que el sistema no se encuentra bloqueado, el
agente maestro le regresa un mensaje de autorización, en cuyo caso el agente generador de comandos
determina el siguiente estado al que debe pasar el objeto que controla. Una vez calculado el siguiente estado,
el agente generador envía la secuencia de comandos al agente controlador de objeto para su interpretación,
esto es, para generar la geometría que lo representará en el espacio. Justo después de ello, el agente
generador de comandos envía al agente maestro un mensaje para desbloquear el sistema. Paralelamente, el
agente controlador de objeto, después de interpretar la secuencia de comandos, envía un mensaje de
refresco de display al agente administrador de display que detecta que el nuevo objeto colisiona con otro
objeto y lo ha hecho por una cantidad determinada de veces, después se inicia el envejecimiento, por lo que
envía un mensaje al agente controlador de objetos. Este envía el evento correspondiente al agente
sincronizador de audio. (fig. 5)
Fig 5. Diagrama de secuencia para el escenario 6.
110055
[g] Glosario
Autómata:
Un autómata es un dispositivo mecánico que realiza tareas automatizadas, es
decir, que no requiere forzosamente de operación humana directa para operar.
Suele utilizarse como sinónimo de robot y generalmente se usa para describir
maquinas de movimiento, no electrónicas, como los relojes cucú o las figuras
animadas que representan hombres o animales y simulan acciones como si
estuvieran vivos.
Existen registros de autómatas de la antigüedad. Ya sean griegos, egipcios y
babilónicos. Los utilizaban los sacerdotes para impresionar al pueblo. Estos
ya utilizaban leyes de la física. Eran hidráulicos, eólicos, con mecanismos
simples de poleas y engranes, o por ejemplo actuaban en función de la
temperatura ambiente.
En Japón, los Karakuri, se crean desde el siglo XV,
como marionetas de teatro, y para sorprender o
engañar. El nombre significa “truco”.
El primer diseño de autómata humanoide se le atribuye a Leonardo Da Vinci
alrededor del año 1495. Los diseños se recuperaron a mediados del siglo XX.
No se sabe si alguna vez fueron realizados.
Para el siglo XVIII, en el apogeo de la relojería, los autómatas que
comprendían diversas acciones, utilizaban complejos sistemas
mecánicos, programando sus acciones con engranes. En este periodo
se destacaron Vaucanson, Pierre Jacquet-Droz y Maillardet. Sus
autómatas circulaban por las cortes de Europa causando admiración.
Algunos de ellos son el pato, el flautista, los músicos, el dibujante, y
“el turco” o ajedrecista.
//// gglloossaarriioo
110066
El significado de autómata se ha modificado con el tiempo, actualmente a los
autómatas antiguos se les llamaría mecanismos automatizados.
Actualmente, tanto en robots como en autómatas celulares utilizados en
computo, la retroalimentación es dada por un programa predefinido, un
conjunto de reglas generales, o utilizando técnicas de inteligencia artificial,
como la reacción al entorno. No es forzosa su supervisión, puede tomar los
parámetros de inicio del ambiente, procesarlos, en algunos casos tomar
decisiones y entonces actuar.
Autopoiesis
La autopoiesis (del griego a?t ?-, auto-, "sí mismo", y p???s??, poiesis,
"creación" o "producción") es una propiedad de la teoría de sistemas que
designa la dinámica de una estructura no estática pero capaz de mantener
estable durante períodos prolongados su estructura.
Quimiosintéticas:
Capacidad de algunas bacterias de formar compuestos orgánicos,
a partir de sustancias inorgánicas, sin la presencia de la luz del sol.
Teoría general de sistemas (wikipedia)
La teoría general de sistemas o simplemente teoría de sistemas es un campo
de estudio interdisciplinario, que investiga las propiedades de los sistemas
que se presentan consistentemente en los distintos campos científicos. La
primer aproximación en este sentido se atribuye al biólogo Ludwig von
Bertalanffy, quien acuñó la denominación a mediados del siglo XX.
Von Bertalanffy entendía la teoría de sistemas como un mecanismo de
integración entre las ciencias naturales y sociales, que proporcionaría una
herramienta fundamental para la preparación científica. Desde el nivel de la
teoría de sistemas, las disputas científicas en torno al mecanicismo y la
//// iinn ssiilliiccoo
110077
estructura determinista de la causalidad podrían solventarse de una manera
apta para ambos campos.
La noción de totalidad orgánica o Gestalt es fundamental en la teoría de
sistemas. La definición más precisa de sistema en la que se basa la forma
contemporánea de la teoría vino dada por las investigaciones de los biólogos
chilenos Francisco Varela y Humberto Maturana, que desarrollaron la noción
de autopoiesis en los años 70.
El sociólogo Niklas Luhmann formuló la teoría de sistemas en términos
aplicables a las entidades sociales.
Termodinámica: (wikipedia)
La Termodinámica es la parte de la física que se encarga del estudio de la
energía, de su transformación entre sus distintas manifestaciones, como el
calor, y de su capacidad para producir un trabajo. Está íntimamente
relacionada con la mecánica estadística de la cual se pueden derivar
numerosas relaciones termodinámicas. La termodinámica estudia los sistemas
físicos a nivel macroscópico, mientras que la mecánica estadística suele
hacer una descripción microscópica de los mismos.
ß Principio 0 de la termodinámica: Si dos sistemas A y B están a la
misma temperatura, y B está a la misma temperatura que un tercer
sistema C, entonces A y C están a la misma temperatura. Este
concepto fundamental, aun siendo ampliamente aceptado, no fue
formulado hasta después de haberse enunciado las otras tres leyes.
De ahí que reciba la posición 0.
ß Primer principio de la termodinámica: También conocida como la ley de
la conservación de la energía dice que en un sistema con una
determinada energía interna, si se realiza un determinado trabajo, la
energía interna del sistema variará. A la diferencia entre la energía
interna del sistema y la cantidad de energía se la denomina calor.
(Propuesto por Lavoisier)
//// gglloossaarriioo
110088
ß Segundo principio de la termodinámica: Con numerosos enunciados,
quizás el más conocido es el que dice que la entropía de un sistema
aislado aumenta con el tiempo hasta alcanzar un valor máximo. En
palabras simples, este principio dice que la cantidad de desorden
(entropía) de un sistema crece con el tiempo. (Propuesto por Sadi
Carnot.)
ß Tercer principio de la termodinámica: Es imposible alcanzar una
temperatura igual al cero absoluto mediante un número finito de
procesos físicos. (Propuesto por Nernst)
Topología (wikipedia)
Rama de las matemáticas que estudia las propiedades de las figuras
geométricas o los espacios que no se ven alteradas por transformaciones
continuas, biyectivas y de inversa continua (homeomorfismos). Es decir, en
topología está permitido doblar, estirar, encoger, retorcer... los objetos pero
siempre que se haga sin romper ni separar lo que estaba unido (la
transformación debe ser continua) ni pegar lo que estaba separado (la inversa
también debe ser continua). Por ejemplo, en topología un triángulo es lo
mismo que un cuadrado, ya que podemos transformar uno en otro de forma
continua, sin romper ni pegar. En topología una taza es lo mismo que una
dona.
110099
Notas
i José Ortega y Gasset (1883-1955) nació en Madrid en el seno de una familia
burguesa, liberal e ilustrada, propietaria del periódico madrileño “El
imparcial”. Estudia filosofía en la universidad de Madrid. 1905-1908, pasa
por las universidades alemanas de Leipzig, Berlín y Marburgo. En 1910, gana
la cátedra de Metafísica de Madrid. En 1917 funda el diario “El Sol”; y en
1923 la “Revista de Occidente”. Desde 1914 interviene en la política, se
opone a la dictadura de Primo de Rivera. En este periodo publica “La
deshumanización del Arte” y “La rebelión de las masas” entre otros ensayos
y destaca su fuerte compromiso político así como un raciovitalismo heredado
de los hermenéuticos (Dilthey y Husserl). Posteriormente sirve como
diputado en la segunda republica, pero la política se vuelve inestable. Cuando
estalla la guerra civil, en 1936 se exilia en París y luego Holanda, Argentina,
Portugal dando cursos. En este periodo pública “Meditación de la Técnica” y
“Los papeles sobre Goya y Velásquez”. Regresa a España en 1945. En 1951 y
1953 realiza dos encuentros con Heidegger. Muere en Madrid en 1955.
Ortega y Heidegger no sólo son contemporáneos, sino que escribieron
ensayos acerca de la técnica en el mismo periodo. Ortega escribió
“Meditación de la Técnica” (1939) algunos años antes que Heidegger
escribiera “La pregunta por la Técnica” (La conferencia en la Academia de
Munich es de 1953), no se tradujo al alemán hasta varios años después, pero
es posible que hayan tenido contacto. Pero en la filosofía occidental ha sido
más reconocido Heidegger como el fundador de los estudios acerca de la
técnica.
Heidegger
Filósofo alemán. Nació en Messkirch, Baden, Alemania (1889). Inició estudios
de teología pero pronto los abandonó para dedicarse a la filosofía, que estudió
en Freiburg con, entre otros, Rickert y Husserl. Discípulo destacado de este
último lo sustituyó como Catedrático en esa universidad (1929) a raíz de la
popularidad adquirida con la publicación de “Sein und Zeit” (1927), obra que
//// nnoottaass
111100
dio pie a su distanciamiento con respecto a su maestro, luego llegaría a ser
nombrado rector en esa Universidad. Debido a sus ideas políticas a favor de
los nazis fue censurado en más de una ocasión y se vio obligado a abandonar
la universidad. Fue un gran crítico de la metafísica y se apoyó en el
existencialismo con la muerte como último fin. En los últimos años de su vida
dedicó gran parte de su tiempo al lenguaje y la poesía. Es autor de "La
esencia de la verdad", "La doctrina de Platón acerca de la verdad", "Qué
significa pensar", etc. La influencia de este autor en las sucesivas corrientes
filosóficas fue determinante.
ii Pigmalión, escultor de Chipre, tenía un ideal de mujer que nunca encontró,
por lo que se quedó soltero; pero talló en marfil una escultura tan perfecta,
que de ella se enamoró. Entonces, Afrodita dio vida a la estatua, que fue
Galatea con quien Pigmalión se unió en matrimonio.
http://www.automates.info/bibliotheque/historique/ consultado 10/2003
iii En 917, dos embajadores bizantinos, en visita en Bagdad descubren el
palacio de Al-Muktadir: "ambos embajadores […] se encontraban en el lugar
que el gran chambelán les había señalado cuando un ingenioso mecanismo
puso en marcha uno de estos autómatas que se consideraban entre las
maravillas más apreciadas de la época"; vieron "salir de la tierra, por
diferentes movimientos, un árbol que llenó la cúpula e hizo brotar chorros de
agua de rosa y agua de almizcle, mientras que figuras de aves cantaban en
las ramas." (Relato de Nâsir I Kusran, cronista del califa)
http://www.automates.info/bibliotheque/historique/historique.htm, consultado
10/2003
iv Sexta Meditación , Descartes
"Y verdaderamente, podemos comparar los nervios de la máquina que le
describo, a los tubos de las máquinas de estas fuentes; sus músculos y sus
tendones, a otras máquinas y resortes que sirven para moverlos; estos
//// iinn ssiilliiccoo
111111
espíritus de animales movidos por agua, cuyo corazón es la fuente y el
concavidez del cerebro son las miradas."
v Filósofo idealista francés, representante del intuitivismo. El concepto básico
del idealismo bergsoniano es la “duración pura”, fundamento primario de todo
lo existente. Materia, tiempo y movimiento son formas distintas de “duración”,
y sólo es accesible a través de la intuición. Bergson propone una “evolución
creadora” basada en el idealismo biológico (vitalismo). Los vitalistas, creían
que la vida era dirigida desde el interior por una fuerza espiritual.
vi Las clasificaciones de los seres vivos son muy numerosas, se proponen,
desde la tradicional división en dos reinos establecida por Linné en el siglo
XVIII, entre animales y plantas, hasta las propuestas actuales de los sistemas
cladísticos con tres dominios que comprenden más de 20 reinos.
vii D’ Arcy Wentworth Thompson (1860-1948), profesor de zoología en la
Universidad de Saint Andrews, Escocia, es un hombre reconocido por los
biólogos e historiadores como una figura incontornable, dada la importancia
de carácter multidisciplinario de una de sus obras, más no la única: On
Growth and Form. El autor hace un análisis del crecimiento y las formas en la
naturaleza desde la zoología y la matemática, incorporando en las
descripciones sus conocimientos en letras clásicas.
//// iinn ssiilliiccoo
111133
Bibliografía y ligas
Arte electrónico:
ß artificial life.org http://www.alife.org/
ß .doc http://www.cnca.gob.mx/inv/doc/
ß Goldberg, Ken; Malina, Ryan, The Robot in the Garden, Ed. MIT Press, 2001
ß Hayles, Katherine, How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics, Ed. MIT Press, 2001
ß Kroker, Arthur; Kroker, Marilouise, Digital Delirium (Culturetexts), Ed. Palgrave Macmillan, 1997
ß Lunenfeld, Peter, The Digital Dialectic, Ed. MIT Press, 2000
ß Manovich, Lev, The Language of New Media, Ed. MIT Press, 2001
ß nettime http://amsterdam.nettime.org/
ß Popper, Frank, Art of the Electronic Age, Ed. Thames & Hudson, 1997
ß postmedia http://www.postmedia.net
ß RCCS: Resource Center for Cyberculture Studies http://www.com.washington.edu/rccs/
ß Rhizome http://www.rhizome.org/
ß Rhizome Artbase http://rhizome.org/artbase/
ß Ross, David, 010101: Art in Technological Times, Ed. San Francisco Museum of Modern Art, 2001
ß Spiller, Neil, Cyber Reader: Critical Writings for the Digital Era, Ed. Phaidon Press Inc, 2002
ß VIDA/LIFE x.0 (Concurso Internacional sobre Arte y Vida Artificial, Fundación Telefónica)
http://www.fundacion.telefonica.com/at/vida/index.html
ß Wikipedia www.wikipedia.org
ß Wilson, Stephen, Information Arts, Ed. MIT Press, 2001
ß Wilson, Stephen,“Dark and Light Visions: The Relationship of Cultural Theory to Art that Uses Emerging Technology” en la página
web Information Arts, Stephen Wilson, 1993 (consultado en octubre 2004) http://userwww.sfsu.edu/~swilson/papers/postmodern.pap.html)
ß Wilson, Stephen, “Art as Research” en la página web Information Arts, Stephen Wilson, 1996 (consultado en octubre 2004)
http://userwww.sfsu.edu/~swilson/papers/artist.researcher.html
ß Weibel, Peter; Druckrey, Timothy, Net Condition, Ed. MIT Press, 2001
Filosofía:
ß Beardsley; Hospers, Estética: historia y fundamentos, Ed. Catedra, Colecc. Teorema, Madrid, 1984
ß Broncano, Fernando, Mundos Artificiales: Filosofía del cambio tecnológico, Ed. Paidos/ FFyL UNAM, México, 2000
ß Dawkins, Richard, The selfish gene, Oxord University Press,1989
ß Gould, Stephen Jay, The Structure of Evolutionary Theory, Harvard University Press, 2002.