VIDA ARTIFICIAL

Un enfoque desde la Informática Teórica

Blanca Cases

Dpto. de lenguajes y Sistemas Informáticos de la UPV/EHU

Índice

  1. Introducción
  2. El marco interdisclipinar en que nace la Informática: Cibernética vs Inteligencia Artificial
    1. El Estructuralismo americano
    2. El Estructuralismo europeo
      1. La vertiente lógica
      2. La vertiente sistémica
    3. De la Informática Teórica a la Inteligencia Artificial
    4. La Cibernética: el gap intelectual en la concepción de la Inteligencia Artificial
    5. El predominio de la Inteligencia Artificial I
    6. El predominio de la Inteligencia Artificial II
  3. El enfoque sistémico en la Informática
    1. La teoría general de sistemas
    1. La máquina autorreproductiva de von Neumann y los autómatas celulares
    2. Evolución de la Teoría de Sistemas en los años 70-80
  4. La Vida Artificial
    1. La fundación de la Vida Artificial
    2. Nuevas propuestas de la Vida Artificial a la Informática Teórica
      1. El trabajo de Langton
      2. Otras aportaciones
  5. Conclusiones
  6. Bibliografía

1. Introducción

La investigación en Sistemas Complejos en general, y en Vida Artificial en particular, suele parecer a la gente de una novedad exultante. Hace diez años, teman como Teoría de Sistemas, Simulación de Sistemas Biológicos, Cibernética o Redes Neuraneles eran abordados por minorías. No en vano fueron líneas de investigación oficialmente cerradas ya desde los años 60. La excepción en los primeros 80 fueron los problemas de caracterización del comportamiento caótico en sistemas de ecuaciones no lineales, estudios que interesaron sobremanera a las Ciencias Física y Matemáticas. Aún y todo sistémicos, los caólogosa no compartían la visión de los cualitivistas.

Una de las desventajas que tuvimos la gente egresada del área de la informática en torno a la investigación interdisciplinar, casi exclusiva del área sistémica, fue la anomia. Por razones de pura descontextuación histórica de la enseñanza, no tuvimos la referencia de la Cibernética como teoría del control y las comunicaciones en animales y en máquinas. La idea de la Inteligencia Artificial exhibida en las novelas de Stanilav Lem, más allá de la Cibernética clásica, creaba en los estudiantes de los 80 un delima intelectual frente al cánon imperante de la búsqueda heurística en un espacio abstracto de estados. Estos problemas, la descontextuación histórica y el que los estudios sistémicos estuvieron apartados del paradigma oficial de la informática, hicieron de la Cibernética de Wiener y de la propuesta para una Teoría General de Sistemas de von Bertalanfy, tierra de nadie. Por eso, quienes investigábamos en Sistemas en los años 80 tuvimos como primer trabajo averiguar el nombre de la línea de investigación que seguíamos. Casi indefectiblemente estas personas nos ubicamos hoy día bajo el denominador común de la investigación en Sistemas Complejos.

Es Muy difícil, por lo tanto, ofrecer una panorámica de la Vida Artificial, ya que requiere tener en cuenta los conociminetos específicos del público al que se intenta llegar. Cuando el público es eminentemente infomático, ni siquiera puede presuponerse una buena cimentación histórica de la propia disciplina. Es por ello que esta introducción a la Vida Artificial está enfocada desde la historia de la Informática. Se pretende así mostrar de forma esquemática que la Inteligencia Artificial es a la Psicología lo mismo que la Vida Artificial a la Biología y, por otra parte, mostrar que al igual que la Inteligencia Artificial se realimentó con la Informática Teórica dando lugar modelos de cómputo que son en realidad modelos de la mente procesadora de símbolos, la Vida Artificial también está añadiendo y tomando corpus teórico de la Informática, intentando asimilar los procesos vivientes a modelos computaciobnales. Los Autómatas Celulares de von Neumman que son su modelo de cómputo clásico, aunque apartado del paradigma oficial de la Teoría de Lenguajes Formales, son, como veremos, el punto para la construcción de la Vida Artificial.

Para ello en el apartado 2 se presenta el marco interdisciplinar y los hitos históricos en la Informática que llevaron al establecimiento de la Inteligencia Artificial a partir de los años 60, en constraste con la corriente Cibernética. En el apartado 3 se habla del enfoque sistémico y se enumeran las realizaciones y propuestas de los años 70 y 80 en el marco de la Invetigación en Sistemas, Conexionismo y Caos en sistemas Dinámicos. Desde esta panorámica, en la sección 4 se define la Vida Artificial, se describen sus áreas de trabajo y realizaciones y se hace particular énfasis en los problemas que se plantean a la VA desde la Informática Teórica hoy día.

2.– El marco interdisciplinar en que nace la Informática: Cibernética vs. Inteligencia Artificial.

El positivismo del s. XIX configuró la Ciencia como corrientemente la concebimos, basada en la observación de los hechos, elaborando modelos formales predictores de los fenómenos y contrastables con la realidad, estableciendo leyes que superen las explicaciones sobrenaturales o abstractas. El fuerte desarrollo matemático de las de ecuaciones diferenciales, de la lógica y de la estadística en el s. XIX está imbuido de este espíritu, y sugería a las disciplinas humanistas herramientas para su formalización y metodologías de investigación. Las llamadas Ciencias humanas y sociales, entran en el s. XX con la absoluta necesidad de definir su objeto propio y científico de estudio, tarea harto difícil, en tanto que lo biológico, lo social y lo psicológico están sumamente imbricados en la naturaleza de los seres humanos.

Definir el objeto de estudio de la psicología, de la lingüística o de la sociología para convertir éstas en ciencias positivas implicaba determinar la naturaleza de los datos que se estudian y las metodologías válidas para su estudio, de forma que ambas se integren en un corpus teórico coherente. Dicho corpus teórico debía ser consistente también en el marco multidisciplinar. La palabra "sistema" como vocablo borroso que designa a una entidad formada por unidades interdependientes que interactúan a lo largo del tiempo entre sí y con el medio, realizando globalmente alguna tarea o proceso, o exhibiendo algún tipo de comportamiento global, apoyó la definición del objeto de estudio de las ciencias humanas, por mimetismo con las ciencias naturales a principios del s.XX. La distinción entre "estructura", las relaciones que mantienen entre sí las unidades del sistema, y "función", la contribución de las unidades al comportamiento global, orientó diferentes metodologías de análisis de los datos en las ciencias sociales y humanas ya antes de los años 30.

La aproximación metodológica de corte estructuralista en la conformación de las ciencias humanas, en concreto de la psicología y la lingüística, fue particularmente importante a principios del s.XX e influyó notablemente en el posterior desarrollo de la Informática. Una primera distinción dentro de esta corriente viene determinada por la naturaleza, mental o no, de los datos que se estudian. Podemos hablar así de un estructuralismo americano influido por la psicología conductista, y de un estructuralismo europeo, sustentado por las escuelas más relevantes (si exceptuamos al psicoanálisis de Freud, que no fue una psicología experimental sino una práctica clínica exitosa): la Psicología Evolutiva de Piaget y la Psicología de la Gestalt.

2.1.- El Estructuralismo americano.

Para la psicología conductista el objeto de estudio es la conducta de los organismos en términos de estímulo respuesta. El conductismo (BUR78) parte de las tesis de la reflexología rusa de Pavlov (1849-1936) y las teorías de Thorndike (1874-1949)', el conductismo clásico de J. B. Watson (1878-1958) ~y el neoconductismo de Skinner~, siendo fundamentalmente una psicología experimental del aprendizaje. Una de sus características fundamentales es el rechazo del mentalismo y de los datos que pudieran provenir de la introspección, ya que dichos datos no podrían considerarse como directamente observables. A pesar de que el conductismo parte de la reflexología, su evolución se aparta totalmente de la neurofisiologia, ya que ni siquiera un modelo del sistema nervioso es válido para dar cuenta de la conducta en los presupuestos del conductismo clásico. Es destacable el hecho de que la psicología conductista no se centra exclusivamente en las capacidades superiores humanas de razonamiento y lenguaje, sino en el campo más amplio de la psicología animal. El conductismo tuvo influencia en la lingüística (LYO80), ya que la comunicación verbal, al ser directamente observable, permitiría estudiar el pensamiento como conducta verbal, interpretando el pensar como "hablar en silencio", realizándose movimientos imperceptibles de los órganos fonadores. Las aportaciones más directas del conductismo a la lingüística fueron realizadas en los años 30 por el americano Bloomfield(1887-1949).

2.2.– El Estructuralismo europeo

La corriente estructuralista europea se opone a la americana en la naturaleza de los datos que se estudian: es fundamentalmente mentalista, si bien se presentan variantes en esta concepción. Podemos, con la venia de los filósofos, hablar de un estructuralismo lógico y de un estructuralismo sistémico.

2.2.1.- La vertiente lógica

La vertiente lógica es la que está directamente relacionada con el nacimiento de la Informática. La idea de la formalización del lenguaje natural y de la mecanización del razonamiento es la que subyace a la lógica, trabajada ya desde Aristóteles. La formalización de la lógica de predicados de primer orden que conocemos hoy la iniciaron Boole (1815-1869) y Frege (1848-1925), paralelamente a Peano(1858-1932), tomando inspiración de la obra de Leibnitz. Por otra parte, Hilbert propuso en 1910 el problema cuya resolución abrirá el campo de investigación de la Informática Teórica, que se desarrolló principalmente en Europa: el "Entscheidungsproblem", que se preguntaba si existía un algoritmo para deducir siempre una fórmula o su negación de un conjunto de axiomas en la lógica, es decir, si se podía decidir por algún procedimiento algorítmico la verdad o falsedad de una fórmula.

No es extraño en este contexto que la psicología se preguntase específicamente por las capacidades 16gico-matemáticas de la inteligencia humana. La psicología Evolutiva, (GAR84) cuya primera figura fue Jean Piaget (1896-1980), y cuyas investigaciones se extendieron posteriormente al campo más amplio de la epistemología, caminaba en esta dirección. Para Piaget (BUR78), es la estructura de la mente humana la que determina el aprendizaje y afirma que dicha estructura viene dada por una particular organización neurofisiológica de la especie humana que determina la inteligencia. Según Piaget se aprende a pensar, pero ese aprendizaje está condicionado por el grado de maduración somática que determina una serie de etapas en la organización neurofisiológica. Llegó a estas conclusiones observando hacia 1923 que todos los niños de la misma edad cometían más o menos los mismos errores al someterlos a ciertos test. Esto supone una evolución en cinco períodos de la infancia para el pensar humano, que determinan los esquemas relacionales y las operaciones lógico-matemáticas que una criatura es capaz de comprender.

2.2.2.- La vertiente sistémica

El enfoque que aquí llamamos sistémico, y que se aproxima más a lo que hoy podemos estudiar como Sistemas Complejos, es más antiguo. El trabajo del suizo (1859-1913) Ferdinand de Saussure (SAU89), se reconoce como el punto de partida del estructuralismo europeo. Saussure define la "Langue" (la Lengua) como objeto de estudio de la lingüística en términos sistémicos: la Lengua es la estructura del sistema lingüístico que subyace a una comunidad de hablantes, de distinta naturaleza que las producciones individuales del habla, pero emergente de la masa hablante. La Lengua es un objeto válido de estudio porque es una estructura de naturaleza psico-social representada en la mente de cada hablante. La fonología, la gramática, la semántica de la Lengua pueden ser estudiados científicamente porque son representaciones aprehensibles para el lingüista igual que para cualquier otro mortal. Saussure concibe el signo lingüístico como una entidad mental que asocia, de forma arbitraria, las imágenes sensoriales de los referentes con las imágenes sensoriales de los sonidos, significantes con significados, produciendo un sistema de valores que articulan una sustancia de pensamiento y que son creados colectivamente~.

La psicología de la Gestalt o psicología de la forma (BUR78) es una corriente que también podemos catalogar como sistémica. Aparece en Alemania entre los años 1920 y 1930, fundada por Max Wertheimer, Kurt Kofka y Wolfgang Kohler. "Gestalt" es una palabra alemana que puede traducirse por "forma", "organización" o "configuración", y su postulado fundamental es que la percepción es más que una suma de sensaciones producidas por los estímulos, y que la forma en que los estímulos están organizados interviene en lo que se percibe. Wertheimer define la Gestalt como un conjunto cuyo comportamiento o actuación no se determina desde sus elementos, sino por la organización interna del conjunto. Los elementos en singular no tienen características perceptibles, lo cual se formula en el principio del isomorfismo: "sea el hecho biológico, social o físico, en todo caso es un conjunto de elementos; pero sus propiedades no derivan de éstos, sino de la organización interna del conjunto: de su gestalt" (BUR7S). Para la psicología de la gestalt el objeto central de estudio es la conducta. Sin embargo, se estudia la conducta en su relación causal con un campo psico-físico, ya que necesariamente la conducta se desarrolla en un ámbito geográfico, en un plano objetivo. El campo psicofísico es la estructura dinámica del ámbito conductal: el dinamismo entre dos polos, físico-objetivo y psíquico-subjetivo, que causa la conducta. La percepción se organiza en base a leyes estructurales que conciernen tanto a la organización neuro-psíquica específica como al medio estimulante. La experiencia perceptiva añade contenidos a lo que se percibe, pero no determina su estructuración.

La escuela de la Gestalt mantiene una posición holista y antimecanicista. Se considera que se perciben hechos molares, es decir, globales, y que la percepción no puede explicarse como una simple suma de sensaciones. La asociación holista consiste en que las características de lo que se percibe se explican en función del todo del que forman parte. La palabra "banco" se percibe diferente cuando aparece en frases como "voy al banco" o "me siento en el banco". Los objetos individualizados en la percepción presentan propiedades en gran medida constantes, a pesar de que la estipulación física es fluctuante: lo que es constante es la diferencia de potencial estimulativo entre figura y fondo. Cuanto mayor sea esta diferencia de potencial mayor será el poder impositivo de la figura. Son famosos los dibujos ambiguos en los que, según se mire, se pueden ver dos figuras diferentes.

Para los gestaltistas el aprendizaje depende de la capacidad para percibir o pensar los posibles cambios estructurales de una situación problemática. Es una aproximación a la Inteligencia diferente de la de la logicista. Cuando un sujeto se enfrenta a una situación que no es capaz de resolver se genera una tensión que le induce a resolverlo, intentando reestructurarlo de manera diferente. Esta proceso se produce en virtud de un campo psico-físico individual en el que actúan dos tipos de factores: los estructurales, externos al sujeto e inherentes a la propia situación, y los funcionales, motivados por las necesidades y motivaciones. Según la Gestalt, la resolución del problema equivale a una percepción diferente de la solución problemática, y constituye una vivencia que se ha bautizado en la literatura como "Insight", la vivencia del ¡AH!.

2.3.- De la Informática Teórica a la Inteligencia Artificial.

El "Entscheidungsproblem" propuesto por Hilbert en la lógica, derivó en una Informática Teórica previa a la construcción de los primeros ordenadores, y que no fue en absoluto ajena al panorama interdisciplinar anteriormente descrito. La preocupación fundamental fue, desde 1910 hasta 1936 fue el determinar qué clase de problemas pueden resolverse mediante formulaciones constructivas por procedimientos algorítmicos, y cuáles eran los límites. Se buscaba una teoría de lo calculable mediante un procedimiento, un algoritmo, y por eso se formalizaban las reglas del cálculo aritmético. El verdadero padre de la informática teórica fue Kurt Godel: demostró la validez del cálculo lógico de primer orden, y este es el teorema que se conoce como el de "completitud" de la lógica. Pero el resultado más importante de Godel es el de "incompletitud" de la aritmética, 1931, por el que establece que la formalización de la aritmética en la lógica de primer orden hace que existan sentencias ciertas que no son demostrables. Estas sentencias se corresponden con paradojas del tipo "esta frase es falsa": si admitimos que es falsa, entonces se cumple lo opuesto de lo que dice la frase y por lo tanto es verdad; si admitimos que es cierta, la frase dice de sí misma que es falsa: es una paradoja. Si toda fórmula cierta fuera demostrable, ocurriría que se puede expresar una fórmula que dice de sí misma "yo no soy demostrable en la aritmética" con la que surge una paradoja como la anterior.

Ocurre entonces que cualquier demostrador automático de teoremas sobre los números naturales que construyamos se encontrará con la posibilidad de demostraciones de longitud infinita, sin tener ningún criterio para poder parar. Por lo tanto, se conocía ya el límite de lo computable antes de que se construyeran los primeros ordenadores. Posteriormente, se comprobó que cualquier formalización de la aritmética distinta de la lógica tenía el mismo límite: la paradoja. Se investigaron formalizaciones distintas de los procesos constructivos de resolución de problemas, para ver si tenían los mismos límites que la lógica, buscando la noción más general posible de "procedimiento efectivo de cómputo".

En 1935 se llegó a la misma conclusión desde una aproximación basada en funciones: Alonzo Church formalizó la aritmética en el A.-cálculo (posteriormente el lenguaje LISP), y Kleene mediante funciones p,-recursivas. Ambas aproximaciones mostraron los mismos límites que la lógica. Pero la noción más aceptada de procedimiento efectivo de cómputo fue la propuesta por el inglés Alan Turing en 1936. La máquina de Turing, un dispositivo dotado de una memoria en forma de cinta infinita sobre la cual una cabeza lectora puede leer o escribir, y desplazarse a izquierda o derecha de acuerdo con un estado interno y el símbolo leído en la cinta. También mostró la misma limitación que el resto de los modelos. Se establece así la Teroría de la Computabilidad, que es la base de la Informática Teórica. Inmediatamente después, en 1939, se abordó, en el contexto de la Il G.M. la construcción de los primeros ordenadores.

La construcción de las primeras computadoras abrió un sinfín de posibilidades para la formalización a todas las ciencias, pero sobre todo a las ciencias humanas. La lingüística encontró en el ordenador un medio adecuado para estudiar las propiedades formales de la lengua, entendida como la estructura común subyacente a las expresiones individuales del habla de una masa hablante, para estudiar los sonidos, la gramática y los significados de la lengua como sistemas abstractos con entidad propia, separados del mundo físico en el que sólo hay expresiones del habla producidas individualmente.

La psicología también tuvo en los ordenadores un medio distinto al del complicado cerebro humano en el que reproducir los fenómenos de la inteligencia humana, las capacidades del lenguaje y de realizar operaciones 16gico-matemáticas, y este es el embrión de la Inteligencia Artificial hacia 1940, gestado por Alan Turing. Los ordenadores derrumbaron el veto impuesto por el conductismo a la psicología "mentalista". El llamado "Test de Turing" acerca de la posibilidad de modelar las capacidades de razonamiento y lenguaje en un medio computacional, viene a decir que si en la interacción entre una máquina y una persona no se puede distinguir a una y a otra, entonces habrá que admitir la inteligencia de la máquina. Se abre así un intenso debate acerca la posibilidad de modelar la mente, la inteligencia, y de probar empíricamente la bondad del modelo. El área interdisciplinar de las Ciencias Cognitivas se va conformando de esta manera en estos años 40.

2.4.- La Cibernética: el gap intelectual en la concepción de la Inteligencia Artificial.

Por los datos históricos aportados, cabría esperar que la Inteligencia Artificial, que no es más que el intento de reproducir en una materialidad distinta de la orgánica las capacidades inteligentes de los seres vivos, tomara inspiración inmediata de la corriente estructuralista europea en su vertiente logicista. Y sin embargo no ocurrió así. La razón fundamental fue que la construcción de los primeros ordenadores fue posible gracias a la convergencia de la Teoría de la Computabilidad con el desarrollo de la Ingeniería Eléctrica. La influencia de Shannon (DIA84) en el desarrollo de la informática fue enorme, ya que su tesis doctoral (1937) consistió la aplicación del álgebra de Boole para circuitos de computación mediante la composición de puertas lógicas. El Colosus, europeo, se construyó en Inglaterra en 1939 siguiendo las ideas de Alan Turing, y se aplicó a la criptografía. La primera computadora americana, la Mark I, se construyó en base a las ideas de Shannon, y se empleó en la balística. El desarrollo inmediatamente posterior de la Informática Teórica a través de la Teoría de Autómatas tiene mucho que ver con la Teoría de Circuitos.

El derrumbe del conductismo no sólo abrió la puerta a la concepción estructuralista europea, sino también a la posibilidad de elaborar modelos inspirados en la materialidad del sistema nervioso. Recordemos cómo la base reflexológica del conductismo fue abandonada por razones metodológicas. La posibilidad abierta por la Ingeniería eléctrica de modelar el sistema nervioso fue la base de la Cibernética, corriente americana ocupada en estudiar los problemas de control y comunicación en animales y en máquinas y basada en el desarrollo de la tecnología de ordenadores y la automatización de procesos. La Cibernética, una disciplina fundada en 1943 por el matemático Norbert Wiener y el neurofisiólogo Arthur Rosenblueth en torno a los resultados que produjeron las investigaciones en balística llevadas a cabo en los Estados Unidos por Wiener durante la Il Guerra Mundial (WIE48/85) (GEO79). Shannon también formó parte de este equipo. Se trabajaba en la construcción de sistemas de tiro automático, capaces de derribar un avión en vuelo: el dispositivo debía seguir el objetivo y disparar en el momento adecuado para producir el impacto. El modelo fundamental de la Cibernética era el circuito de retroalimentación, es decir, un proceso dinámico en el que una canddad variable depende parcialmente del valor que tenía en el momento anterior. Cuando en un circuito de retroalimentación existe una meta que cumplir, como alcanzar y mantener un valor estable, la conducta del mismo puede controlarse comparando la cantidad variable con la meta, y la regulando la acción del proceso para acercarse a la meta en el paso posterior: en este caso hablamos de Servomecanismos.

El sistema nervioso animal y humano es el procesador de información por excelencia, pero los procesos que realiza no están todos al nivel de los que estudia la Inteligencia Artificial. Está la cuestión, abierta, de que las capacidades de razonamiento simbólico y lenguaje son a su vez sistemas independientes que emergen de la complicada dinámica de las neuronas en un cerebro humano, y un modelo que quiera no sólo describir estas capacidades mentales, sino también explicarlas, debe de imitar el funcionamiento del sistema nervioso. Los problemas que se refieren a la motricidad de los organismos, a cómo procesa el sistema nervioso la información que recibe de los sentidos para enviar órdenes a los músculos, se resisten a abstraerse de la materialidad. También éstos son comportamientos inteligentes, entendiendo la inteligencia como capacidad de adaptación de un organismo a su entorno. El medio en el que se reproducen dichos fenómenos son los robots, y estos sistemas deberían trabajar en tiempo real e interactuando con un mundo real, no de laboratorio, pues la motricidad de los animales está fuertemente adaptada a las constricciones y a la imprevisibilidad del mundo físico. La robótica será otra área de trabajo común para la Inteligencia Artificial y para la Cibernética, aunque su origen se plantea desde la Cibernética.

Wiener observó que el modelo del bucle de realimentación era aplicable a muchos otros fenómenos, pero en particular era útil como modelo del sistema nervioso~ para explicar la motricidad de los animales. Cuando depositamos un lápiz en la mesa no lo hacemos con un movimiento brusco: los sentidos observan la posición de la mano y el cerebro manda la orden a los músculos efectores del movimiento previendo la posición de la mano unos instantes después, los sentidos realimentan al sistema con la nueva posición de la mano, y así sucesivamente para conseguir un movimiento controlado que paulatinamente va frenando al llegar a la mesa. Cuando nos referimos al controlador de un robot nos estamos refiriendo casi con seguridad a un programa que rige un bucle de realimentación similar a los descritos: la Cibernética triunfó en ese campo.

En un sistema como el de tiro automático como los que inspiraron a la Cibernética, el disparo se decide en función de una serie temporal que relaciona la posición prevista del avión con la posición real, determinada por el radar y contaminada de ruido en los instantes t=O,t=l,t=2.... El problema de determinar el momento del disparo se convierte entonces en el problema de predecir una serie temporal relacionando las posiciones del proyectil y del objetivo. Shannon desarrolló una Teoría de la Información, inspirada en los problemas de transmisión de mensajes por una línea, al constatar el hecho que la realimentación excesiva de un servomecanismo podía ser tan grave como una realimentación insuficiente porque la excesiva sensibilización del aparato predictor llevaba a oscilaciones incontroladas. Ya que estos problemas aparecían cuando se contemplaban bucles de realimentación en fenómenos de naturaleza muy diversa, se planteó que el concepto central de la teoría habría de ser el de "mensaje", formalizado como una serie temporal. El problema de la realimentación se formalizaba como un problema de predicción sobre dicha serie estadística, convirtiéndolo en uno de minimización del error cuadrátice medio de la predicción. Se entraba entonces en el campo de la mecánica estadística, uno de cuyos conceptos claves es el de entropía, el cual podía asimilarse directamente al concepto de cantidad de información de un mensaje. La unidad de información "bit", que determina la longitud del mensaje necesaria para transmitir la ocurrencia de un hecho entre dos alternativas equiprobables con un alfabeto mínimo de dos símbolos, procede de esta teoría de la información. Esta es una de las confusiones más importantes del alumnado de informática: confundir el símbolo, entidad abstracta como el punto en geometría, con el bit, unidad de medida de información. En 1948, quedaban integradas la Teoría de la Información de Shannon y la Cibernética.

2.5.- El predominio de la Inteligencia Artificial.

Alrededor de la Cibernética de los años 40-50, se agrupaban fundamentalmente las matemáticas, la ingeniería eléctrica y la neurofisiología. Por el tipo de problemas que se investigaban, el tipo de modelo que se proponía y la formación científica de los investigadores, la inteligencia humana tendría que ser abordada desde la materialidad del cerebro. Para reproducir en una máquina las capacidades inteligentes tanto animales como humanas habría que reproducir la forma en que las neuronas se transmiten información unas a otras, en la simulación de redes neuronales.

Los autómatas que construyó la Informática Teórica como modelos de cómputo simbólico aceptadores de lenguajes, fueron en su inicio modelos de redes neuronales desarrollados por MacCulloch y Pitts en 1943. Una red neuronal (ARB64) intenta imitar la forma en que las neuronas reales se transmiten información de unas a otras. Los modelos de MacCulloch y Pitts fueron llamados redes "modulares" porque un "modulo" es la representación formal de una neurona real. La incidencia de un estímulo en los receptores de información, como las células nerviosas de la retina, (entradas a la red) activa un impulso electroquímico que se transmite del cuerpo de una neurona por el axón a otras neuronas. Una neurona sólo puede transmitir un impulso si recibe una cantidad suficiente de impulsos de otras neuronas. Un módulo o neurona se identifica con un elemento que tiene m entradas, x1...xm, que provienen del exterior o de otras neuronas, y una salida. Cada conexión tiene asociado un peso wi.

Una red neuronal es una colección de neuronas en las que las salidas de éstas se conectan con otros módulos o con el exterior a través de líneas de entrada y salida. El proceso de una red neuronal es dinámico: las neuronas actúan sincrónicamente a golpe de reloj, y en el instante t cada neurona puede estar activada, estado 1, si dispara un impulso, o inactiva, en estado 0. La función que rige la transición es: y(t+1)=1 <=> Sumatorio de wixi(n) mayor o igual a theta. En el instante t+1, cada unidad pondera las entradas con los pesos asignados a cada una y si el total de excitación transmitida supera una cantidad umbral 6, entonces la neurona transmite el impulso. En otro caso, permanece inactiva. Las conexiones pueden ser excitatorias, si los pesos wi son positivos o grandes, y por lo tanto contribuyen a la transmisión del impulso de la entrada xi a la unidad, o inhibitorias en el caso contrario, cuando wixi es un valor negativo que se opone a la superación de la cantidad umbral. Las entradas y salidas pueden bifurcarse y estar una neurona conectadas a otras varias, pero el impulso es el mismo para todas. Una red neuronal, como las de MacCulloch y Pitts, se puede entonces representar por un grafo valuado en el que las neuronas o nodos se conectan unas con otras de forma arbitraria, existiendo una serie de nodos que representan a las entradas y otro conjunto a las salidas.

Se ha demostrado que las Redes Neuronales de MacCulloch y Pitts y los autómatas finitos(ARB64) son equivalentes. La idea es que aunque se trabaja con información numérica, como los pesos o el umbral, en cada instante de tiempo t la red está en un estado global determinado por la configuración unidades activas e inactivas que se asimila a un estado interno del autómata, y la función que cambia este estado global por otro se puede identificar con la función de transición de un autómata transductor que pasa a otro estado interno. Los autómatas finitos fueron desarrollados por Kleene en 1951 (DIA84) como máquinas reconocedoras de secuencias regulares de eventos a partir de las las redes neuronales.

2.6.- El predominio de la Inteligencia Artificial

Una de las figuras más relevantes de la Lingüística y de la Informática Teórica a nivel mundial en la segunda mitad del siglo es el norteamericano Noam Chomsky. Elaboró un modelo mentalista del lenguaje y del entendimiento, que incluye una teoría acerca de cómo los niños son capaces de adquirir "competencia" en el uso de su lengua materna. Dicho modelo le acerca más a la línea del estructuralismo europeo representado por Piaget que al americano, del que directamente proviene: las fuentes lingüísticas para su trabajo fueron sugeridas por Bar-Hillel (DIA84), que seguía la línea conductista de Bloomfield. Frente a los estudios descriptivos de la lengua, Chomsky propone un modelo explicativo de la capacidad de producir el lenguaje. El modelo de cómputo que establece en 1955 es el de una Gramática Generativa, inspirada en la Gramática universal del Racionalismo (CHO86), capaz de dar cuenta de la capacidad creativa o generadora de la mente, y que provee de un mecanismo formal, un conjunto finito de reglas, para producir los infinitos enunciados gramaticalmente aceptables de una lengua combinando los elementos de un determinado conjunto (vocabulario, sintagmas...), y determinar como inaceptables al resto. En el desarrollo de la Informática Teórica de los años ÓO se demostré que las gramáticas y los autómatas son modelos de cómputo equivalentes.

Podría así hablarse (JOH-L) de una especie de "órgano del lenguaje" que se desarrolla a medida que el niño crece. Este 6rgano sería algo similar a una Gramática Transformacional, capaz de convertir oraciones de una estructura gramatical superficial a una estructura gramatical profunda, genéticamente determinada para la especie humana. Este principio es el mismo que se aplicó en informática a la construcción de compiladores, que traducen frases de un lenguaje de programación de alto nivel a lenguaje máquina. Podemos afirmar que el trabajo de Chomsky es el abre oficialmente la investigación en Inteligencia Artificial, cuyo desarrollo no comentaremos aquí, ya que el propósito de este artículo es seguir la línea de evolución de la Informática Teórica para presentar la Vida Artificial. La idea principal de la Inteligencia Artificial la de es formalizar las capacidades humanas de razonamiento y lenguaje elaborando modelos abstractos de "la mente", valiéndose para ello de los ordenadores y de los modelos de computación.

La Cibernética y de la Inteligencia Artificial se convirtieron en dos campos bien diferenciados en los años 50-60. El trabajo de Chomsky contribuyó a que la Inteligencia Artificial fuera el paradigma dominante hasta la década de los 80. Entrando de lleno en las diferencias entre Cibernética e Inteligencia Artificial, citamos a Sowa:

".-Desde sus mismos inicios, la cibernética ha estudiado los mecanismos de bajo nivel como los bucles de retroalimentación y los servomecanismos. Ha tenido una visión ascendente de cómo tales estructuras podrían interactuar en el control animal y de sistemas informáticos

.-La Inteligencia Artificial, sin embargo, comenzó con una visión descendente de símbolos, lenguaje y conocimiento, y se preguntaba qué clase de mecanismos y representaciones son necesarias para simular las habilidades humanas.

.-A pesar de que tanto la I.A. como la cibernética usan redes, los elementos de éstas pertenecen a diferentes niveles del procesamiento mental. Las redes en cibernética representan neuronas individuales, pero en I.A. representan conceptos de alto nivel y relaciones, cada una de las cuales depende de millones de neuronas interactuantes." p.339(SOW84)

M. Minsky (JOH88) (POL89), autor destacado en el área de la Inteligencia Artificial, publicó junto con S. Papert el tratado "Perceptrones", uno de los múltiples modelos de redes neuronales, en 1969, que anunciaba el fin del interés de investigar en este tema y otros afines mostrando sus limitaciones, y abriendo así la puerta al desarrollo de la I.A clásica.

3.- El enfoque sistémico en la Informática.

3.1.- La Teoría General de Sistemas.

La Cibernética se conformó principalmente en torno a los modelos de redes neuronales y al modelo de control mediante bucle de realimentación. del comportamiento adaptativo de los organismos. Sin embargo, muchos de los problemas que hoy competen a la Vida Artificial, como el problema de la autorreproduccion de los seres vivos, o la autoorganización, fueron ya planteados desde la Cibernética. La razón más importante fue la convergencia de esta corriente con la Teoría General de Sistemas, que se debe a Ludwig von Bertalanffy, biólogo de profesión, y que fue comenzada a formular ya a finales de los años 30 (BER75/86). Su pretensión era estudiar las características generales de los sistemas, dando especial importancia a aquellos aspectos de la realidad que no eran entonces accesibles a un tratamiento científico convencional

El tema que fundamentalmente le preocupaba era el de la organización de los sistemas vivos, ya que mientras la ciencia tradicional propugnaba el reduccionismo corno paradigma conceptual, en la explicación de la cosa viviente el hecho que ha de tomarse como fundamental es el de la globalidad, no siendo el total explicable como una simple suma de las partes. Podemos apreciar, a la vista del panorama interdisciplinar de principios de siglo, que esta noción de Sistema es un intento de formalizar conceptos difusos, como ser vivo, lengua o sociedad, para construir objetos de estudio científicos que justifiquen una determinada disciplina. La Sociología, la Biología la Psicología y la Lingüística se han realimentado constantemente a lo largo de su historia. Todas estas disciplinas han encontrado un lugar común en la Teoría General de Sistemas propuesta por Bertalanffy.

La noción de sistema de Bertalanffy estaba íntimamente ligada a la idea de "relación", a lo estructural. Era necesario encontrar una formalicen matemática más orientada a lo cualitativo, a lo relacional, que a lo cuantitativo. Su objetivo era elaborar una teoría de sistemas abiertos, que intercambian materiales con el medio ambiente, como sucede con cualquier organismo vivo. Un sistema sería un conjunto de elementos interrelacionados entre ellos y con el medio, un modelo de índole general. Se trataría además de encontrar leyes generales reguladoras de los sistemas, capaces de dar cuenta de fenómenos que aun siendo materia de estudio en disciplinas diferentes son formalmente idénticos. La lectura del "Curso de Lingüística General" de Ferdinand de Saussure (**) resultará seguramente sorprendente por su actualidad a cualquier persona introducida en la investigaci6n en Sistemas Complejos. Las dicotomías saussurianas: lengua-habla, sustancia-forma, diacronía-sincronía, relaciones sintagmáticas-paradigmáticas no hacen más que plasmar las maneras en que un sistema puede ser analizado desde el punto de vista estructural. Por otra parte, los planteamientos de la Gestalt, escuela psicología en la que se apoya oficialmente la Cibernética (WIE48/**) son absolutamente sistémicos. Desde su formulación del principio del isomorfismo, que de alguna forma justifica la elaboración de modelos generales de los sistemas aplicables a fenómenos de distinta naturaleza, a la concepción de la conducta como proceso dinámico de interacción con el medio.

Bertalanffy distingue varios procedimientos típicos para la descripción sistémica. Uno de los enfoques más generales podría llamarse axiomático, "ya que su principal interés radica en la definición rigurosa del sistema y la deducción de sus implicaciones mediante métodos matemáticos y lógicos modernos" pp.147(BER75/86). Por otra parte, está la teoría dinámica de sistemas, que se ocupa de las transformaciones de los sistemas en el tiempo o en una escala asimilable al mismo. La primera distinción que se hace en los modos de formalizar un sistema es entre descripciones externas y descripciones internas. (BER75/86) (CAS79).

En la descripción externa de un sistema (CAS79), el comportamiento global se describe como una "caja negra", representándose las relaciones con el entorno y con otros sistemas mediante diagramas de flujo. El sistema se describe mediante funciones de transferencia que relacionan una serie de variables de entrada con otras de salida, como en el caso de los sistemas de ecuaciones lineales y los programas de ordenador. Según Casti las descripciones externas de los sistemas mantienen una gran analogía con la psicología conductista. Si asimilamos el organismo estudiado a un sistema, el esquema de descripción sería el de una caja negra en la que únicamente interesa estudiar la relación de las entradas con las salidas. Nótese que este proceder sólo puede proporcionar un modelo descriptivo de la conducta, y no una explicación de por qué se produce. La metodología conductista requiere entonces de la estadística para elaborar sus resultados (por ejemplo, la regresión múltiple permite encontrar un sistema lineal que aproxima una relación entrada-salida), y más concretamente de los modelos de aprendizaje estadístico. Recordemos que la estadística era una de las tres grandes líneas de desarrollo de las matemáticas de principios de siglo.

Las descripciones internas de los sistemas, casi siempre referidas a sistemas dinámicos, se realizan clásicamente mediante ecuaciones diferenciales, pero esta no es la única forma de especificación. Un ejemplo de descripción dinámica interna de tipo algebraico (CAS79) lo constituyen los autómatas, entendidos como sistemas capaces de transformar un conjunto de entradas en un conjunto de salidas mediante la especificación de un conjunto finito de estados y de una función que permite la transición de un estado a otro al detectar una entrada. Recordemos que los autómatas son modelos de computación simbólica inspirados en la dinámica neuronal asimilables a sistemas dinámicos en los que el espacio de estados es finito. La lógica de predicados de primer orden y las gramáticas, modelos abstractos de la mente procesadora de símbolos, son otro tipo de formalismos para la descripción interna.

Queda aún otro tipo tradicional de descripciones (CAS79): a través de funciones de potencial o de entropía, cuando sólo interesa caracterizar cómo se mueve un sistema dinámico hacia un estado de equilibrio. Las funciones de potencial se utilizan cuando se quiere caracterizar el movimiento del sistema hacia un objetivo de acuerdo con las entradas que recibe, identificando el avance hacia la meta con la optimización (minimización) de la función de potencial. La descripción en términos de entropía (medida del grado de desorden de un sistema) sería un caso particular del anterior en el que la función a optimizar tiene que ver con una función de entropía. Este es el mecanismo básico de los modelos de control Cibernéticos, y es también el mecanismo que permite, según la Gestalt, percibir un objeto sobre un fondo, adaptándose el sensor para mantener constante (y máxima) la diferencia de potencial estimulativo.

3.2.- La máquina autorreproductiva de von Neumann y los autómatas celulares.

La Cibernética y la investigación en Teoría de Sistemas siguieron prácticamente el mismo camino desde la publicación de "Cybernetics" por N. Wiener en 1948, hasta el punto de confundirse, a pesar de esto algunos autores insisten en las diferencias. Esta confluencia crea el problema de cómo puede caracterizarse computacionalmente "lo vivo". Uno de los hombres más relevantes de la Informática, von Neumann, a quien debemos la arquitectura de los ordenadores programables actuales, realizó importantes avances en la Informática Teórica que hasta hace pocos años fueron relegados en la historia oficial a un plano meramente anecdótico. A través del modelo computacional de los Autómatas Celulares, desarrollado ya en los últimos años 40, intentó caracterizar una característica primordial de los sistemas vivientes: la autorreproducción. El razonamiento de von Neumann, análogo al Test de Turing en la Inteligencia Artificial, se resume así según Langton:

-La autorreproducción, se lleva a cabo por una máquina bioquímica altamente compleja.

-Entonces, el comportamiento de esa máquina es descriptible como una secuencia lógica de etapas.

-Luego, si el algoritmo se puede llevar a cabo por alguna máquina, existe una máquina de Turing que hace lo mismo (tesis de Church).

-Por lo tanto, se requiere modelar una máquina de Turing capaz de autorreproducirse. Si esta máquina de Turing autorreproductiva existe, es plausible que los procesos de autorreproducción biológicos sean algorítmicamente descriptibles, y por lo tanto la vida puede simularse en máquinas.

Von Neumann consiguió bosquejar una máquina de Turing autorreproductiva utilizando los Autómatas Celulares. Recordemos que Turing especificó una máquina universal capaz de recoger en la cinta la codificación de cualquier otra máquina (a través de un número natural) y los datos para ésta (también naturales), y ejecutar dicha máquina sobre esos datos. También demostró el resultado análogo al de el teorema de incompletitud de Godel, conocido como el Problema de Parada: el problema de decidir si una máquina codificada por un número natural n convergerá devolviendo un resultado al darle como dato el mismo natural n no es decidible.

El problema de von Neumman no era por lo tanto trivial. Un organismo vivo desarrollado A tiene un código genético Ø(A). Denotemos por (A,Ø(A)) al organismo completo, que incluye su autodescripción. A estaría representado por una máquina de Turing, mientras que Ø(A) sería el código de dicha máquina. A partir de dicho código Ø(A), por reproducción asexual (si no media mutación) se desarrolla otro organismo A que también tiene el mismo código genético. Se trataría de encontrar (HEA92) una máquina de Turing copiadora universal U tal que a partir de (A,Ø(A)) produzca dos organismos (A,Ø(A)), (A,Ø(A)). En concreto, cuando le damos a U el organismo (U,Ø(U)), la máquina produciría una autorréplica. El problema, es que el código de esta máquina, Ø(A,Ø(A))=Ø(X), debería producir al aplicarse U el resultado (X,Ø(X))=((A,Ø(A)),Ø(A,Ø(A)), y así infinitamente. Su idea era realizar un modelo material de dicha máquina autorreplicativa. Pero von Neumman prefirió para este fin una máquina U que no es una máquina de Turing, pero si un modelo de computo equivalente las máquinas de Turing: los autómatas celulares. Un autómata celular A=(T, N, M) está formado por red D-dimensional T, cuyos nodos están ocupados por autómatas finitos idénticos M, que mantienen entre sí relaciones de vecindad definidas por una plantilla de entorno N.

Cada célula está ocupada por autómatas finito M=(Z,A), todos idénticos. La célula puede tomar un estado dentro de un conjunto Z, caracterizado por un color. Se reserva un color especial, el estado quiescente qp, como color de fondo.

Lo más común es tomar la dimensión D=2, y T es una matriz m x n, aunque para propósitos teóricos como el de von Neumann se supone que la matriz es infinita en las cuatro direcciones. Se pueden tomar diversas plantillas de entorno N, pero las más comunes son el entorno de 5 elementos, en el que cada célula se conecta con sus cuatro vecinos situados en las direcciones N, E, S y O y donde el primer elemento del entorno corresponde a la dirección de la célula, C. N=(C,N,E, S, O) En el entorno de 9 elementos: N=(C, N, NE, E, SE, S, SO, O)

Cada autómata finito i realiza transiciones de un estado a otro tomando como entrada el propio estado y los estados de sus vecinos N (i) en un instante de tiempo t.

Todos los autómatas finitos realizan sus transiciones sincrónicamente a partir de una configuración de estados iniciales, esto es un movimiento del autómata celular. Un computo del autómata celular es una secuencia de movimientos. Si la función de transición de M es A, el cambio de estado de una célula a otra se realiza como en el siguiente ejemplo:

Sea N(i)=(qi1, qi2, qi3, qi4, qi5) el entorno de estados de la célula i. La expresión sigma(qi1, qi2, qi3, qi4, qi5)=q', quiere decir que toda célula que en el instante t tenga las posiciones definidas por el entorno N =(C, N, E, S, O) en los estados (qi1, qi2, qi3, qi4, qi5), pasará en el instante t+1 al estado q'. Las casillas de los bordes reciben tratamiento especial, bien cerrando la red come un toro o bien suponiendo que existe un marco formado por células en estado aquiescente. Se parte siempre de una configuración inicial, es decir de una asignación inicial de estados a las células, y el computo sigue hasta que se alcanza un punto fijo, pero puede ocurrir también que el computo sea infinito. Si la matriz es finita, siempre se alcanzará un ciclo de configuraciones que se repite infinitamente.

Los autómatas celulares se popularizaron con el llamado Juego de la Vida. Se trata de una matriz mxn en la que las células pueden estar en dos estados: vivo o muerto, representados por los colores negro y blanco (aquiescente) respectivamente. N es la plantilla de entorno de 9 elementos. Sea N(i) el entorno de estados de la célula i. La función de transición representa una constricción de tipo biológico: una célula sólo puede estar viva si en el entorno hay suficientes células vivas, al menos 3, para asegurar la reproducción y que la casilla siga ocupada, y no demasiadas células vivas, como mucho 4, para asegurar que no hay excesiva competencia y el organsimo pueda sobrevivir. Por negros (N(i)) denotemos el número de células vivas que hay en el entorno. Las dinámicas que interesa estudiar son las que permiten que una población sobreviva, es decir, que no se alcance la configuración de un tablero en estado muerto.

Aunque von Neumann apuntó a una demostración de que la Máquina de Turing puede simularse mediante autómatas celulares utilizando 29 estados por célula y entorno de 5 elementos, aunque no llegó a implementarse nunca.

3.3.- Evolución de la Teoría de Sistemas en los años 70-80

Sin entrar a profundizar en ellas, enumeramos a continuación las líneas de investigación en Teoría de Sistemas recogidas en el informe elaborado por Roger. E. Cavallo sobre el estado del arte en ese campo en 1979 y patrocinado por la "Society for General Systems Research" (fundada por Bertalanffy en) (CAV79).

  1. Caracterización algorítmica del aprendizaje y de los sistemas adaptativos.
  2. Caracterización autopoyética de la organización de lo vivo.
  3. Heurística conversacional.
  4. Teoría de Sistemas Fuzzy.
  5. Teoría General de Redes.
  6. General System Problem Solver (GSPS)
  7. Teoría Generalizada de la Información.
  8. Ley de la Variedad de Requisitos.
  9. Teoría de Sistemas Vivos.
  10. La metodología del Q-análisis.
  11. Teoría Tricotiledón del Diseño de Sistemas.

El estudio de los sistemas vivos y la conducta adaptativa ocupa, como puede verse, una buena parte de la investigaci6n en Teoría de Sistemas. El concepto que es común a varias de las propuestas que hace R. Cavallo y que es uno de los puntos centrales de la corriente denominada "Nueva Cibernética" (PAS88) es el de sistema organizacionalmente cerrado (que se corresponde al de autopoyesis en los sistemas vivos, o al de p-individuaci6n en la Teoría de la Conversación), y que se define como aquel que descrito en términos de operadores productivos que actúan sobre los elementos del sistema para producir otros elementos dentro del mismo sistema, sean estos elementos biológicos, mentales, conceptuales o sociales, creando así una separación del sistema y del medio.

En cuanto a la Teoría de la Conversación, se basa en la idea de que los individuos no pueden ser tratados como meros objetos en una investigaci6n, y que para estudiar un grupo es preferible asumir un proceso conversacional. Cada individuo físico (persona) se interpreta como un procesador o M-individuo, que constituye un conjunto de P-individuos, o individuos psicológicamente determinados, que se corresponden en gran medida con lo que los antropólogos llaman un "rol". La conversación que involucra a un grupo de M o P-individuos se interpreta como un proceso productivo y reiterado en el que los conceptos son compartidos y enriquecidos. Si los elementos fueran biológicos, se trataría entonces de un sistema vivo, acercándose aquí a la noción de autopoyesis. (PAS88) (CAV79)

En los años 80, la Inteligencia Artificial Clásica fue asimilando muchos de los planteamientos de tipo sistémico. El estudio de las redes neuronales o de mecanismos inspirados en ellas resurgió con fuerza en los primeros años 80, a partir de los trabajos en Ciencias Cognitivas del grupo interdisciplinar PDP (Parallel Distributed Processing) (RUM91). Una síntesis muy interesante entre Cibernética e I.A. es la realizada recientemente por Minsky (POL89), quien no abandonó del todo el paradigma conexionista, y ha trabajado en el desarrollo de una teoría de la mente estructurada como una sociedad de actores, que interactúan entre sí pasándose mensajes a través de k-líneas, o líneas de conocimiento, análogas a redes neuronales (SOW84) (MIN86).

A partir de aquí, la investigación en modelos de computación distribuida, redes neuronales y en general todo lo que se designa bajo el epígrafe de "conexionismo" (JOH88), ha cobrado un importante auge, convirtiéndose en el paradigma dominante de los años 90. El desarrollo de la T~ de los Sistemas Dinámicos, que consigue desde los últimos 70 importantes avances en la comprensión de los comportamientos caóticos que muestran los sistemas de ecuaciones diferenciales no lineales, ha convergido con la computación distribuida en el área recientemente creada de los Sistemas Complejos. La Vida Artificial, disciplina oficialmente fundada en 1987 es heredera en parte de la Cibernética, e intenta reproducir la vida en una materialidad distinta de la biológica. Ciertas capacidades de los seres vivos, como la reproducción y la morfogenesis (el proceso de desarrollo de un organismo vivo a partir de una célula), así como la evolución filogenética de las poblaciones de organismos vivos, se simulan en ordenadores utilizando, entre otros, autómatas y gramáticas como modelos formales. La Vida Artificial también se interesa por simular el comportamiento autónomo de los organismos vivos mediante robots.

La Inteligencia Artificial Distribuida(ERC91), que se ocupa de la elaboración de sistemas multiagente según la propuesta de Minsky y que marca la pauta de los años 90, está totalmente influida por la investigaci6n en Sistemas Complejos. P. Pollack (POL89) escribía ya en 1989 acerca que el Conexionismo introduciría a la Inteligencia Artificial en la revolución del pensamiento que actualmente se da en la física y en las ciencias biológicas. La relación entre estos temas la establece a través del grafo indicado en la figura 1. Aunque en este gráfico sólo aparecen las gramáticas como punto de interés para la Informática Teórica, en los años transcurridos se ha demostrado que son muchos más los problemas abiertos.

4.– La Vida Artificial

4.1.- La fundación de la Vida Artificial

En 1984, cuando fue fundado el Instituto de Santa Fe, entidad privada dedicada a la enseñanza superior e investigación interdisciplinar en Sistemas Complejos. La Vida Artificial es un área de investigación de reciente creación dentro del terreno más amplio de los Sistemas Complejos. El rito fundacional se celebró en los Estados Unidos en Septiembre de 1987, con sede en el Laboratorio Nacional Los Alamos de Santa Fe, Nuevo México. El nombre de este evento fue "Interdisciplinary Workshop on the Synthesis and Simulation of Living Systems", también conocido como ALIFE I, y su gestor el investigador Christopher Langton. Dicho evento, que inaugura oficialmente la Vida Artificial como área independiente de investigaci6n, fue apoyado por el "Center of Nonlinear Studies", el "Santa Fe Institute" y "Apple Computer Inc". Allí se dieron cita científicos dispersos procedentes de diversas disciplinas como la biología, informática, física, filosofía y antropología. Tras la segunda edición tomó carácter de congreso bienal. En Mayo de 1996 se celebró en Japón ALIFE IV.

La siguiente definición de Vida Artificial se debe a Ch. Langton (LAN90),

"... es el campo de estudio dedicado a la comprensión de la vida, intentando abstraer los principios dinámicos fundamentales que subyacen a los fenómenos biológicos, y recreando esas dinámicas en otros medios físicos -tales como ordenadores- haciéndolos accesibles a nuevos tipos de manipulación experimental y de pruebas."

Podemos apuntar algunas causas del nacimiento de la Vida Artificial como campo específico:

-Las grandes posibilidades prácticas de la Biología. que inducen la necesidad de una Biología Teórica con leyes universales. Se trata de determinar las características que definen a los procesos vivos independientemente de la materialidad terrestre. Es decir, definir la vida tal y como podría ser en otra materialidad (**), e investigar los mecanismos bioquímicos que hacen emerger "lo vivo" como un fenómeno no reducible a las partes.

-Los progresos en la teoría matemática de los Sistemas Dinámicos. La Caracterización de ciertos comportamientos caóticos que se producen en los sistemas dinámicos no lineales realizada en los años 80 lleva a interesarse por el análisis de la dinámica cualitativa de los sistemas que presentan patrones emergentes complejos, es decir, que alcanzan configuraciones que no son absolutamente regulares ni absolutamente caóticas.

-Nuevas necesidades y posibilidades en el campo de la robótica. Como la exploración espacial, trabajos penosos, cooperación en cuadrillas, etc. El radical empequeñecimiento de los procesadores permite construir pequeños robots dotados de autonomía, que imitan conductas animales, individuales y colectivas. Se puede así estudiar las conductas adaptativas y la cognición desde la perspectiva de la corporeidad, cuestionando a la Inteligencia Artificial (**).

-Nueva crisis del Software. Los ordenadores crecen exponencialmente en velocidad de proceso y capacidad de memoria decreciendo en tamaño (**), lo que que hace posible la distribución distribuida de información y su procesamiento. El espectacular avance de la conectividad lleva a la creación de espacios On-line, como Internet, que están adquiriendo verdadera importancia y significado social. Estos son sistemas complejos que plantean nuevos problemas de procesamiento de información y que requieren nuevos lenguajes. Los sistemas biológicos son una referencia importante, ya que sistemas como un hormiguero o un ecosistema pueden ser entendidos y servir de inspiración a para construir sistemas informáticos capaces de resolver problemas

La Vida Artificial se ha ocupado de los siguientes temas:

-Procesos dc nivel prebiótico, o de los mecanismos bioquímicos y evolutivos que llevan a la aparición de la célula. Los elementos al nivel bioquímico son proteínas, lípidos, carbohidratos y sus combinaciones forman un número tal que la organización de la célula viva tiene probabilidad casi cero. Se ha intentado explicar el surgimiento de la célula (MGR84) mediante modelos como la autopoyesis, desarrollado por Maturana y Varela, que sitúa el punto de partida para la evolución de la célula en los procesos de formación de membrana que permiten el flujo energético y que surja un metabolismo. Otros modelos se basan en la auto-organización de unidades autorreplicantes involucradas en procesos autocatalíticos, es decir, en los que el producto creado acelera el proceso de producción, y produce unidades cada vez más complejas.

-Procesos al nivel celular: El fenómeno de la auto-reproducción celular es el que ha ocupado a la Vida Artificial, ya desde su origen remoto en el planteamiento del autómata autorreplicativo de von Neumann. Christoffer Langton es el autor que, siguiendo la línea de von Neumann, más ha estudiado los autómatas celulares como modelos de cómputo que pueden dar cuenta de la auto-reproducción, característica básica de lo viviente, tratando de crear expresamente una base para la Vida Artificial dentro de la Informática Teórica, de forma análoga a como fue instituida la Inteligencia Artificial. Por ser esta la línea conductora de este escrito, su trabajo será comentada con detalle.

-Procesos al nivel del organismo: La morfogenesis, es decir, el proceso de desarrollo de un individuo desarrollado o fenotipo en su ambiente a partir de una codificación genética es uno de los temas más importantes a investigar. La naturaleza de la cognición y del aprendizaje, el papel del sistema nervioso en la conducta adaptativa de los organismos, son los que más interés han despertado en la comunidad informática, ya que son básicamente los que planteó la Cibernética clásica en su campo de intersección con Inteligencia Artificial. Las Redes Neuronales se aplican en un amplio número de investigaciones en Vida Artificial, y ellas mismas son objeto de investigación.

-Procesos al nivel colectivo. Buscando determinar los mecanismos de interacción entre los individuos de una colectividad que hacen emerger comportamientos adaptativos o inteligentes al nivel de toda la colectividad de organismos. La simulación de hormigueros es un ejemplo, y sugiere múltiples aplicaciones a la Informática, sobre todo en cuanto a que tiene un campo de interés común con la Inteligencia Artificial Distribuida. La investigación en la comunicación animal y en el origen del lenguaje entrarían también en este nivel.

-Evolución filogenética. Investigando las leyes que rigen la evolución de las poblaciones, los mecanismos de transmisión genética, selección natural y adaptación de las especies. El problema de la evolución ha tenido consecuencias en el mundo de la informática: los algoritmos genéticos ya desarrollados por Holland desde los años 70 han encontrado importantes aplicaciones en la optimización de funciones. Esto ha dado lugar al nacimiento de la computación evolutiva y de la programación evolutiva como áreas de investigaci6n específicas.

Según Etxeberria (ETX95), en la V.A. se producen dos tipos de realizaciones, modelos e instanciaciones. En los modelos se intenta abstraer lo esencial de un fenómeno biológico. Las instanciaciones son creaciones libres, sin referente concreto en lo biológico, pero que dan lugar a comportamientos "como-vivos" o que podrían ser considerados vivos. También en (ETX95) se distingue dentro de los modelos entre teoría, simulaciones y realizaciones: mientras que una teoría es un modelo conceptual de un fenómeno, de índole general, una simulación es una reproducción del fenómeno biológico en un universo abstracto, separado de las leyes físicas. La realización implicaría la reproducción del fenómeno en un universo sometido a las mismas leyes físicas que el fenómeno, por ejemplo en un robot o en material biológico. Nos interesan aquí los modelos teóricos y las simulaciones, desde la perspectiva del área de los Lenguajes y Sistemas Informáticos.

Los sistemas que estudia la V.A. manejan un número alto de componentes que se especifican localmente a través de reglas de transición muy simples que permiten el paso de un estado a otro. Son por lo tanto sistemas dinámicos, en los que interesa categorizar su comportamiento cualitativo, que es lo que puede dar lugar a generalizaciones de interés analítico. Por otra parte, la vida es un proceso esencialmente evolutivo, ya desde el nivel prebiótico. Cualquier proceso viviente se puede estudiar por sí mismo, en su tiempo de desarrollo, o bien como consecuencia de la evolución filogenética.

4.2.– Nuevas propuestas de la Vida Artificial a la Informática Teórica

4.2.1.- El trabajo de Langton.

La Informática Teórica está evolucionando a la par que la Vida Artificial. Antes se situó el origen de la V.A. en la propuesta de von Neumann de construir un modelo computacional de la Computación. Pero en realidad, el análogo al Test de Turing en la Vida Artificial fue formulando por Langton, cuya principal realización es haber sentado las bases para fundar la Vida Artificial en la Informática Teórica. El trabajo de Langton se dirige en dos vertientes:

1) Hacia la caracterización de la dinámica cualitativa de los autómatas celulares, determinando qué comportamientos emergentes son interesantes para la V.A., investigando las condiciones que cumplen las reglas locales que los producen y proponiendo criterios para establecer una noción de cómputo específica para los comportamientos emergentes complejos.

2) Hacia la consecución de modelos de máquinas autorreplicativas, proponiendo configuraciones autorreplicativas e investigando sus característica.

En el primer aspecto, Langton abordó una caracterización de "la vida al borde del caos" (LAN90). Para ello se basó en el trabajo de Wolfram (WUO84) y distinguió tres zonas de comportamiento diferente en el cómputo de los sistemas dinámicos, basándose en la noción de entropía. Por un lado estarían los cómputos de los autómatas celulares que alcanzan puntos fijos o periódicos en pocos pasos. En el otro extremo, aquellos cómputos totalmente caóticos, que no dan lugar a ningún tipo de forma perceptible. Entre ambos, estarían los comportamientos complejos, que dan lugar a formas complejas, de aspecto fractal, que convergen en periodos largos, pero que presentan subciclos de cómputo con pequeñas variaciones a lo largo de su evoluci6n.

La dinámica cualitativa de los A.C. la establece en base a un parámetro

donde k es el número de estados, n el número de k" k" k células en el entorno y nq el número de entornos de estados N(i) que producen con la transición el estado quiescente. Es decir, mide la proporción de entornos de estados que no llegan por A al estado muerto frente a todos los posibles.

Generando aleatoriamente funciones de transición A que cumplan la proporción establecida A., ejecutándolas sobre configuraciones aleatorias, y midiendo la entropía en el computo de cada célula, Langton establece un valor crítico, que coincide con la medida del índice de percolación, ( torno al valor 0,5 para los arrays usados) y que determina el paso al régimen caótico. La variación de se establece en el siguiente esquema, según crece el parámetro.

Explorando más a fondo, Langton encontró que la característica más importante de los autómatas que muestran comportamientos complejos es que entre las distintas células la información mutua es significativamente alta, mientras que es baja en los comportamientos fijos y en los caóticos. Es decir, el estado que toman las células en el comportamiento complejo está influido por el que toman las demás en mucha mayor medida que en los otros casos. Langton intuye así que estas zonas de comportamiento complejo son las interesantes desde el punto de vista computacional: tanto en los comportamientos fijos como en los aleatorios, no hay transmisión de información. El almacenamiento de información y su transmisión, son condiciones necesarias para que exista un proceso computacional. Por lo tanto, en la zona de comportamiento complejo nos encontramos con un tipo de computación que requiere ser investigado.

En cuanto a la investigación en las configuraciones auto-reproductivas, la máquina autorreplicativa de Von Neumann, requeriría un A.C. tal que representada sobre él una máquina de Turing que tenga en la cinta representados ciertos datos, realice un cómputo que permita copiar dicha máquina y la configuración de cinta en otra zona del array, y así indefinidamente. Dada la enorme complejidad de ésta, se requiere encontrar máquinas "simples" capaces de autorreproducción. Para ello contempla buscar configuraciones sobre un autómata celular que actúen como programas y como datos, en las que la construcción de la copia sea activamente dirigida por la propia configuración, pero sin estar totalmente programada en ella. Es decir, la configuración no es pasivamente transcrita por el A.C., pero tampoco es un programa que dirija totalmente la copia. Siguiendo estos criterios, en (LAN**) se explica la construcción una configuración capaz de autorreproducirse sobre un autómata celular, representada en la siguiente figura.

4.2.2.– Otras aportaciones.

Los Sistemas de Lindenmayer son formalizaciones en el terreno de la Teoría de Lenguajes Formales del crecimiento de las plantas, en concreto sistemas de reescritura, esto es una técnica para definir objetos complejos por reemplazamiento sucesivo de partes de un objeto inicial usando reglas o producciones. Un ejemplo clásico de un objeto geométrico construido por reescritura es la curva del cristal de nieve, propuesta en 1905 por Koch, y reestablecida por Mandelbrot. Para producir esta curva necesitamos un iniciador y un generador. En cada paso de la derivación se sustituye un segmento de la figura por una copia a escala del generador que tenia los mismos extremos. Cuando iteramos el proceso, obtenemos una forma similar a la de un cristal de nieve. Los L-sistemas son gramáticas que sustituyen unas subpalabras por otras a partir de una palabra axioma, y son sus derivaciones las que dan lugar a las formas arborescentes que se dan en la naturaleza.

Los Sistemas de Gramáticas y Eco-gramáticas, son formalismos muy recientes para modelar los procesos distribuidos. Se trata de sistemas de agentes modelados por gramáticas que pueden realizar todas ellas derivaciones sobre una misma forma sentencial, que podría asimilarse a una pizarra o mundo común. La característica esencial es que los símbolos que son terminales para unos agentes no lo son para otros. Se estudian las capacidades de estos modelos para dar lugar a procesos cooperativos.

En el campo de la simulación de la evolución de ciertas capacidades adaptativas, se trabaja con mundos artificiales: un tablero en el que se representan organismos y recursos. Los organismos están dotados de una función que determina su grado de adaptación al medio, y puede realizar acciones como moverse, comer, emitir señales o reproducirse, permitiendo sólo la reproducción de los individuos bien adaptados.

5.- Conclusiones

Es cierto que esta no es una visión global de la Vida Artificial, pero este aspecto se ha sacrificado con el fin de procurar al alumnado de Informática una comprensión de sus raíces teóricas, y de hacer ver la necesidad de la investigaci6n básica en Informática Teórica, al igual que la importancia que tiene el abordar un enfoque interdisciplinar.

Un curso de Vida Artificial debe tocar todos los temas antes relacionados, y muy particularmente las técnicas de simulación de la evolución mediante mundos artificiales, en las que se encuentra sentido a herramientas como los algoritmos genéticos y las redes neuronales, y a los modelos de comportamiento cooperativo, que aunque de más baje nivel que los que investiga actualmente la Inteligencia Artificial, sugieren aplicaciones útiles. La programación genética es otra herramienta importante, ya que al ser el referente de los programas más cercano se identifica más fácilmente la diferencia entre genotipos o programas y fenotipos o ejecuciones, el sentido de la reproducción genética y el papel de la selección en la evoluci6n.

6.– Bibliografía

Para las raíces históricas de la Informática Teórica

(ARB64) Arbib, Michael A. Cerebros, máquinas y matemáticas. Ed. Alianza Universidad, Madrid 1964
(BER75/86) BERTALANFFY, von Ludwig PERSPECTIVAS EN LA TEORIA GENERAL DE SISTEMAS Alianza Universidad. Madrid 1986 (1 eL 1975)
(BUR78) BURK, Ignacio DIAZ GARCIA, P J.. PSICOLOGIA. UN ENFOQUE ACTUAL Programas deEducaci6n h4edia (ciclo diversificado) y Educaci6n Superior. Caracas1978
(CAS79)CASTI, J.CONNECTIVITY, COMPLEXITY AND CATASTROPHE INLARGE-SCALE SYSTEMS John Wiley 8r. Sons. 1979
(CAV79)CAVALLO, Roger E.SYSTEMS RESEARCH MOVEMENT: CHARACTERISTICS, ACCOPLISAMENTS, AND CURRENT DEVELOPMENTS.Society for General Sistems Research. New York. July 1979
(CHO86) Chomsky, Noam; El Lenguaje y el entendimiento. Ed. Seix Barral Barcelona 1986.
(CHO78) CHOMSKI, Noam PROBLEMAS ACTUALES EN TEORIA LINGÜISTICA. TEMAS TEORICOS DE GRAMATICA GENERATIVA Siglo Veintiuno Editores. Madrid 1978 (l' ed. 1964)
(CUE81) Cuevas, Gonzalo. TEORIA DE LA INFORMACION Y LA CODIFICACION. Ed. Dpto de Publicaciones de la Facultad de Informática de la Universidad Politécnica de Madrid.
(DIA84) Díaz, Josep. Génesis y evolución de la Informática Teórica. Informe Técnico RT 84/05. Facultad de Informática de la Universidad Politécnica de Catalunya. 1984
(ERC91) ERCEAU, J. FERBER, J.."La Inteligencia Artificial Distribuída" Mundo Científico. n'l l6 vol l 1. pp.850-858
(GAR84) GARCIA-BORRON, Juan Carlos, TEORIA DEL CONOCIMIENTO Y METODOLOGIA DE LAS CIENCIAS. Vol 5 Ed. Vicens-Vives. Barcelona 1984. (GEO79) GEORGE, F. H. FUNDAMENTOS DE CíBERNETICA Ediciones Piramide. Madrid 1979
(GUI88) Guiraud, Pierre. LA SEMANTICA Fondo de Cultura Económica. México 1988
(JOH88) JOHNSON-LAIRD, P. EL ORDENADOR Y LA MENTE. INTRODUCCION A LAS CIENCIAS COGNITIVAS. Ed. Paidós. Madrid 198S
(LYO80) LYONS, John SEMANTICA Ed. Teide. Barcelona 1980
(MIN86) MINSKI, Marvin LA SOCIEDAD DE LA MENTE. LA INTELIGENCIA HUMANA A LA LUZ DE LA INTELIGENCIA ARTIFICIAL. Ediciones Galapago. Argentina 1986
(PAS88) PASK, Gordon 'The old and New in Cybernetic Fashions" OOC PROGRAMME. Amsterdam. Febrero 1988
(POL89) POLLACK, J.B. -Connectionism: past, present, and future- Artificial Intelligence Review n' 3 (SAU89) Saussure, Ferdinand de; Curso de Lingüística General Ed. Akal Universitaria. Madrid 1989
(SOW84) SOWA, J.F. CONCEPTUAL STRUCTURES INFORMATION PROCESSING IN MIND AND MACHINE Addison-Wesley p. C. USA 1984
(WIE85) WIENER, Norbert CIBERNETICA O EL CONTROL Y COMUNICACION EN ANIMALES Y MAQUINAS Superínfimos 2-TUSQUETS EDITORES. Barcelona 1985 (ed. origin. 1948) Bibliografía específica para un curso de Vida Artificial.
(RAM95) RAMOS, Isidro (director) VIDA ARTIFICIAL. Ediciones de la Universidad de Castilla la Mancha, 1995
(KOZ93) KOZA (instructor) CS.425 ARTIFICIAL LIFE. Custom Course Material Winter 1993. Proceedings de ARTIFICIAL LIFE I, II,III,IV.

 

Regresar Al Indice De Tutoriales