Historia de la vida artificial - Enciclopedia

Los humanos han considerado y han intentado crear vida no biológica durante al menos 3,000 años. Como se ve en relatos que van desde Pigmalión hasta Frankenstein, la humanidad ha estado intrigada por el concepto de vida artificial.

Antes de la computadora
Los primeros ejemplos de vida artificial involucran autómatas sofisticados construidos utilizando neumática, mecánica y/o hidráulica. Los primeros autómatas se concebieron durante los siglos III y II a.C. y estos fueron demostrados por los teoremas de Hero de Alejandría, que incluían soluciones mecánicas y hidráulicas sofisticadas. Muchos de sus obras notables se incluyeron en el libro Pneumática, que también se utilizó para construir máquinas hasta principios de la modernidad. En 1490, Leonardo da Vinci también construyó un caballero blindado, que se considera el primer robot humanoide en la civilización occidental.

Otras primeras muestras famosas incluyen los robots humanoides de Al-Jazari. Este inventor árabe una vez construyó un grupo de autómatas, que podían ser comandados para tocar diferentes piezas de música. También hay el caso del pato artificial de Jacques de Vaucanson, exhibido en 1735, que tenía miles de partes móviles y uno de los primeros en imitar un sistema biológico. El pato podía comer y digerir, beber, aullar y hacer olas en una piscina. Fue exhibido por toda Europa hasta que se deterioró.

A finales del siglo XVII, después de que René Descartes afirmara que los animales podían entenderse como máquinas puramente físicas, hubo un interés creciente en la pregunta de si se podía diseñar una máquina que, al igual que un animal, pudiera generar descendencia (una máquina autoreplicante). Después del clímax de la Revolución Industrial británica a principios del siglo XIX y la publicación de "Sobre la Origen de las Especies" de Charles Darwin en 1859, varios escritores a finales del siglo XIX exploraron la idea de que podría ser posible construir máquinas que no solo se reprodujeran por sí mismas, sino que también evolucionaran y se volvieran cada vez más inteligentes.

Sin embargo, no fue hasta la invención de la potencia de computación barata que la vida artificial como ciencia legítima comenzó a tomar forma en serio, más teórica y computacional que mecánica y mitológica.

1950s–1970s
Uno de los primeros pensadores de la edad moderna en postular las potencialidades de la vida artificial, separada de la inteligencia artificial, fue el prodigio matemático y de computación John von Neumann. En el Simposio de Hixon, organizado por Linus Pauling en Pasadena, California a finales de los años 1940, von Neumann impartió una conferencia titulada "La Teoría General y Lógica de los Autómatas". Definió a un "autómata" como cualquier máquina cuyo comportamiento procede lógicamente de paso a paso combinando información del entorno y su propio programa, y dijo que los organismos naturales al final se encontrarían siguiendo reglas simples. También habló sobre la idea de máquinas autoreplicantes. Postuló una estructura compuesta de un computador de control, un brazo de construcción y una larga serie de instrucciones flotando en un lago de partes. Al seguir las instrucciones que formaban parte de su propio cuerpo, podía crear una máquina idéntica. Seguió esta idea creando (con Stanislaw Ulam) un autómata basado puramente en la lógica, sin requerir un cuerpo físico pero basado en los estados cambiantes de las células en una grilla infinita – el primer autómata celular. Era extraordinariamente complicado en comparación con los CA posteriores, teniendo cientos de miles de células que podían existir en uno de los veintinueve estados, pero von Neumann sentía que necesitaba la complejidad para que funcionara no solo como una "máquina" autoreplicante, sino también como una computadora universal según lo definido por Alan Turing. Este "constructor universal" leía de una cinta de instrucciones y escribía una serie de celdas que luego podían activarse para dejar una copia completamente funcional de la máquina original y su cinta. Von Neumann trabajó intensamente en su teoría de los autómatas hasta su muerte, y la consideró su obra más importante.

Homer Jacobson ilustró la replicación básica en los años 1950 con un conjunto de trenes a escala – una "organismos" semilla consistente en una "cabezal" y un "cajon" de vagón podría usar las reglas simples del sistema para crear consistentemente nuevos "organismos" idénticos a sí mismo, siempre y cuando hubiera un grupo aleatorio de nuevos vagones de escala para elegir. Edward F. Moore propuso "Plantas Vivas Artificiales", que serían fábricas flotantes que podrían crear copias de sí mismas. Podrían ser programadas para realizar ciertas funciones (extraer agua dulce, extraer minerales del agua de mar) por una inversión que sería relativamente pequeña en comparación con las enormes ganancias de la creciente cantidad de fábricas. Freeman Dyson también estudió esta idea, imaginando máquinas autoreplicantes enviadas a explorar y explotar otros planetas y lunas, y un grupo de la NASA llamado el Equipo de Concepto de Sistemas Autoreplicantes realizó un estudio en 1980 sobre la viabilidad de una fábrica lunar autosostenible.

El profesor John Horton Conway de la Universidad de Cambridge inventó el autómata celular más famoso en los años 1960. Lo llamó el Juego de la Vida, y lo publicitó a través del artículo de Martin Gardner en la revista Scientific American.

El matemático noruego-italiano Nils Aall Barricelli, que trabajó principalmente en instituciones estadounidenses, fue un pionero en la simulación basada en computadora de procesos biológicos como la simbiosis y la evolución.

1970s–1980s
El filósofo Arthur Burks, que trabajó con von Neumann (y de hecho, organizó sus papeles después de su muerte), dirigió el Grupo de Lógica de Computadoras en la Universidad de Michigan. Introdujo las vistas overlooked del pensador estadounidense del siglo XIX Charles Sanders Peirce en la era moderna. Peirce era un fuerte creyente de que todas las operaciones de la naturaleza estaban basadas en la lógica (aunque no siempre lógica deductiva). El grupo de Michigan fue uno de los pocos grupos que aún interesados en la alife y los CA a principios de los años 1970; uno de sus estudiantes, Tommaso Toffoli, argumentó en su tesis doctoral que el campo era importante porque sus resultados explican las reglas simples que subyacen a los efectos complejos en la naturaleza. Toffoli más tarde proporcionó una prueba clave de que los CA eran reversibles, al igual que se considera que el verdadero universo lo es.

Christopher Langton fue un investigador no convencional, con una carrera académica poco notable que lo llevó a un trabajo programando mainframes DEC para un hospital. Se fascinó con el Juego de la Vida de Conway y comenzó a perseguir la idea de que la computadora podía emular criaturas vivas. Después de años de estudio (y un accidente de parapente casi mortal), comenzó a intentar materializar el CA de von Neumann y el trabajo de Edgar F. Codd, que había simplificado el autómata de veintinueve estados original de von Neumann a uno con solo ocho estados. Éxito en crear el primer organismo computacional autoreplicante en octubre de 1979, utilizando solo una computadora de escritorio Apple II. Entró al programa de posgrado de Burks en el Grupo de Lógica de Computadoras en 1982, a los 33 años, y ayudó a fundar una nueva disciplina.

La declaración oficial de Langton para el primer congreso de Vida Artificial fue la descripción más temprana de un campo que anteriormente apenas existía:

La vida artificial es el estudio de sistemas artificiales que exhiben comportamientos característicos de sistemas vivos naturales. Es la búsqueda de explicar la vida en cualquier de sus posibles manifestaciones, sin restricción a los ejemplos particulares que han evolucionado en la Tierra. Esto incluye experimentos biológicos y químicos, simulaciones por computadora y esfuerzos puramente teóricos. Procesos que ocurren en escalas molecular, social y evolutiva están sujetos a investigación. El objetivo final es extraer la forma lógica de los sistemas vivos.

La tecnología microelectrónica y la ingeniería genética pronto nos darán la capacidad de crear nuevas formas de vida tanto in silico como in vitro. Esta capacidad presentará a la humanidad los desafíos técnicos, teóricos y éticos más amplios que jamás ha enfrentado. Parece que es el momento adecuado para una reunión de aquellos involucrados en intentos de simular o sintetizar aspectos de los sistemas vivos.

Ed Fredkin fundó el Grupo de Mecánica de la Información en el MIT, que unió a Toffoli, Norman Margolus y Charles Bennett. Este grupo creó una computadora especialmente diseñada para ejecutar autómatas celulares, que finalmente se redujo al tamaño de una única placa de circuito. Esta "máquina de autómatas celulares" permitió un explosión de investigación en alife entre científicos que de otro modo no podrían permitir sí mismos computadoras sofisticadas.

En 1982, el científico de la computación Stephen Wolfram centró su atención en los autómatas celulares. Exploró y clasificó los tipos de complejidad mostrada por los autómatas celulares unidimensionales y mostró cómo se aplican a fenómenos naturales como los patrones de las conchas marinas y la naturaleza del crecimiento de las plantas.

Norman Packard, que trabajó con Wolfram en el Instituto de Estudios Avanzados, utilizó los autómatas celulares para simular el crecimiento de las nieves, siguiendo muy simples reglas.

El animador de computadora Craig Reynolds utilizó tres reglas simples para crear un comportamiento de agrupamiento reconocible en un programa en 1987 para animar grupos de boids. Sin ningún tipo de programación de arriba hacia abajo, los boids produjeron soluciones lifelike para evitar los obstáculos puestos en su camino. La animación por computadora ha continuado siendo un motor comercial clave de la investigación en alife, ya que los creadores de películas buscan encontrar formas más realistas y baratas de animar formas naturales como la vida vegetal, el movimiento animal, el crecimiento del cabello y texturas orgánicas complicadas.

J. Doyne Farmer fue una figura clave en enlazar la investigación en vida artificial con el campo emergente de los sistemas adaptativos complejos, trabajando en el Centro de Estudios No Lineales (una sección de investigación básica del Laboratorio Nacional de Los Alamos), justo cuando el estrella teórico del caos Mitchell Feigenbaum estaba saliendo. Farmer y Norman Packard presidieron una conferencia en mayo de 1985 llamada "Evolution, Games, and Learning", que fue a predecir muchos de los temas de las conferencias de alife posteriores.

2000s
En el frente ecológico, la investigación sobre la evolución del comportamiento cooperativo animal (comenzada por W. D. Hamilton en los años 1960, resultando en teorías de selección de parentesco, reciprocidad, selección multinivel y selección de grupos culturales) fue reintroducida a través de la vida artificial por Peter Turchin y Mikhail Burtsev en 2006. Anteriormente, la teoría de juegos se había utilizado en investigaciones similares, sin embargo, ese enfoque se consideró bastante limitante en cuanto al número de estrategias posibles y un conjunto de reglas de pago discutibles. El modelo de alife diseñado aquí, en cambio, se basa en el Juego de la Vida de Conway, pero con mucha más complejidad (hay más de 10^1000 estrategias que podrían surgir potencialmente). Lo más significativo es que los agentes interaccionantes se caracterizan por marcadores fenotípicos externos que permiten el reconocimiento entre miembros del grupo. En efecto, se muestra que dados los marcadores perceptibles, los agentes dentro del sistema son capaces de evolucionar nuevas conductas de grupo bajo suposiciones minimalistas. Además de las estrategias conocidas del juego de la paloma-halcón, aquí surgen dos nuevos modos de ataque y defensa cooperativos de la simulación.

Para la configuración, este mundo artificial bidimensional está dividido en celdas, cada una vacía o conteniendo un paquete de recursos. Una celda vacía puede adquirir un paquete de recursos con una cierta probabilidad por unidad de tiempo y perderlo cuando un agente lo consume. Cada agente está simplemente construido con un conjunto de receptores, efectoras (los componentes que gobiernan el comportamiento de los agentes) y una red neuronal que los conecta. En respuesta al entorno, un agente puede descansar, comer, reproducirse por división, moverse, girar y atacar. Todas las acciones gastan energía tomada de su almacenamiento interno de energía; una vez agotada, el agente muere. El consumo de recursos, así como otros agentes después de derrotarlos, proporciona un aumento en el almacenamiento de energía. La reproducción se modela como asexual, mientras que los descendientes reciben la mitad de la energía parental. Los agentes también están equipados con entradas sensoriales que les permiten detectar recursos u otros miembros dentro de un parámetro además de su propio nivel de vitalidad. En cuanto a los marcadores fenotípicos, no influencian el comportamiento pero solo sirven como indicadores de 'similitud genética'. La herencia se logra mediante la información relevante que es heredada por los descendientes y sometida a una tasa de mutación establecida.

El objetivo de la investigación es estudiar cómo afectan los marcadores fenotípicos el rango de estrategias cooperativas que evoluciona el modelo. Además, ya que la cantidad de recursos disponibles en este entorno bidimensional está limitada, la simulación también sirve para determinar el efecto de la capacidad de carga ambiental en su aparición.

Una estrategia anteriormente no vista se denomina "corruco". Estos agentes abandonan las celdas con miembros del grupo, evitando la competencia intraespecífica, y atacan a los miembros del grupo externo voluntariamente. Otra estrategia, llamada 'estornino', implica que el agente comparte celdas con miembros del grupo. A pesar de que los individuos tienen un almacenamiento de energía más pequeño debido a la partición de recursos, esta estrategia permite una defensa altamente efectiva contra invasores grandes mediante la ventaja numérica. Ecológicamente hablando, esto se parece al comportamiento de pandilla que caracteriza a muchas especies de pájaros pequeños cuando defienden colectivamente contra los depredadores.

En conclusión, la investigación afirma que los resultados simulados tienen importantes implicaciones para la evolución de la territorialidad, mostrando que dentro del marco de la alife es posible "modelar no solo cómo una estrategia desplaza a otra, sino también el proceso mismo por el cual nuevas estrategias surgen de una gran cantidad de posibilidades".

También se están realizando esfuerzos para crear modelos celulares de vida artificial. El trabajo inicial para construir un modelo bioquímico completo del comportamiento celular está en curso como parte de varios proyectos de investigación diferentes, como Blue Gene, que busca comprender los mecanismos detrás de la plegamiento de las proteínas.

Ver también
Autómata
Replicador ruidoso
Autómata celular
Vida artificial cuántica

Referencias


Enlaces externos
Aguilar, W., Santamaría-Bonfil, G., Froese, T., y Gershenson, C. (2014). The past, present, and future of artificial life. Frontiers in Robotics and AI, 1(8). https://dx.doi.org/10.3389/frobt.2014.00008