Neats y desaliñados - Enciclopedia

En la historia de la inteligencia artificial (IA), "limpios" y "desaliñados" son dos enfoques contrastantes en la investigación de IA. La distinción se hizo en la década de 1970 y fue un tema de discusión hasta mediados de la década de 1980.

Los "limpios" utilizan algoritmos basados en un solo paradigma formal, como la lógica, la optimización matemática o las redes neuronales. Verifican que sus programas son correctos mediante teoría matemática rigorosa. Los investigadores y analistas "limpios" tienden a expresar la esperanza de que este único paradigma formal pueda ser ampliado y mejorado para lograr la inteligencia general y la superinteligencia.

Los "desaliñados" utilizan una cantidad indeterminada de diferentes algoritmos y métodos para lograr un comportamiento inteligente y dependen de pruebas incrementales para verificar sus programas. El programación "desaliñada" requiere grandes cantidades de codificación a mano y ingeniería del conocimiento. Los expertos "desaliñados" han argumentado que la inteligencia general solo puede implementarse resolviendo una gran cantidad de problemas esencialmente no relacionados, y que no hay bala de plata que permita que los programas desarrollen inteligencia general de manera autónoma.

John Brockman compara el enfoque "limpio" con la física, ya que utiliza modelos matemáticos simples como su base. El enfoque "desaliñado" es más biológico, ya que gran parte del trabajo implica estudiar y clasificar fenómenos diversos.

La IA moderna tiene elementos de ambos enfoques. Los investigadores de IA "desaliñados" en la década de 1990 aplicaron rigor matemático a sus programas, al igual que los expertos "limpios". También expresan la esperanza de que haya un único paradigma (un "algoritmo maestro") que cause la aparición de la inteligencia general y la superinteligencia. Sin embargo, la IA moderna también se asemeja a los "desaliñados": las aplicaciones modernas de aprendizaje automático requieren una gran cantidad de ajustes a mano y pruebas incrementales; mientras que el algoritmo general es riguroso matemáticamente, no es necesario para alcanzar los objetivos específicos de una aplicación en particular. Además, a principios de la década de 2000, el campo del desarrollo de software adoptó el desarrollo ágil, que es una versión moderna de la metodología "desaliñada": probar cosas y evaluarlas, sin perder tiempo buscando soluciones más elegantes o generales.

Origen en la década de 1970
La distinción entre "limpios" y "desaliñados" tuvo su origen a mediados de la década de 1970, por Roger Schank. Schank utilizó los términos para caracterizar la diferencia entre su trabajo en procesamiento de lenguaje natural (que representaba el conocimiento comúnense en forma de grandes redes semánticas amorfas) y el trabajo de John McCarthy, Allen Newell, Herbert A. Simon, Robert Kowalski y otros cuyos trabajos se basaban en la lógica y las extensiones formales de la lógica. Schank se describió a sí mismo como un "desaliñado". Hizo esta distinción en lingüística, argumentando enérgicamente contra la visión de Chomsky sobre el lenguaje.

La distinción también fue en parte geográfica y cultural: las características "desaliñadas" fueron ejemplificadas por la investigación en IA en el MIT bajo Marvin Minsky en la década de 1970. El laboratorio era famosa por su "libertad" y los investigadores a menudo desarrollaban programas de IA pasando largas horas afinando programas hasta que mostraban el comportamiento requerido. Programas "desaliñados" importantes y influyentes desarrollados en el MIT incluyeron a Joseph Weizenbaum's ELIZA, que se comportaba como si hablara inglés, sin tener conocimiento formal alguno, y a Terry Winograd's SHRDLU, que podía responder con éxito a consultas y llevar a cabo acciones en un mundo simplificado que consistía en bloques y un brazo robótico. SHRDLU, aunque exitoso, no pudo escalar a un sistema de procesamiento de lenguaje natural útil porque carecía de un diseño estructurado. Mantener una versión más grande del programa resultó ser imposible, es decir, era demasiado "desaliñado" para ser ampliado.

Otras laboratorios de IA (de los cuales los más grandes eran Stanford, la Universidad de Carnegie Mellon y la Universidad de Edimburgo) se centraron en la lógica y la resolución de problemas formales como base para la IA. Estas instituciones apoyaron el trabajo de John McCarthy, Herbert Simon, Allen Newell, Donald Michie, Robert Kowalski y otros "limpios".

La diferencia entre el enfoque del MIT y otros laboratorios también se describió como una "distinción procedimental/declarativa". Los programas como SHRDLU se diseñaron como agentes que realizan acciones. Eran la ejecución de "procedimientos". Otros programas se diseñaron como motores de inferencia que manipulan declaraciones formales (o "declaraciones") sobre el mundo y traducen estas manipulaciones en acciones.

En su discurso presidencial de 1983 a la Asociación para el Avance de la Inteligencia Artificial, Nils Nilsson discutió el tema, argumentando que "el campo necesita ambos". Escribió: "muchas de las conocimientos que queremos que tengan nuestros programas pueden y deben ser representados declarativamente en algún tipo de formalismo lógico-like. Las estructuras ad hoc tienen su lugar, pero la mayoría de estas vienen del dominio en sí".

Alex P. Pentland y Martin Fischler de SRI International concordaron sobre el papel esperado de la deducción y los formalismos lógicos-like en la investigación de IA futura, pero no en la medida en que Nilsson describió.

Proyectos "desaliñados" en la década de 1980
El enfoque "desaliñado" se aplicó a la robótica por Rodney Brooks a mediados de la década de 1980. Defendió la construcción de robots que, como él lo dijo, eran rápidos, baratos y fuera de control, el título de un documento de 1989 coescrito con Anita Flynn. A diferencia de robots anteriores como Shakey o el carrito de Stanford, no construían representaciones del mundo analizando información visual con algoritmos derivados de técnicas de aprendizaje automático matemático y no planeaban sus acciones utilizando formalizaciones basadas en la lógica, como el lenguaje 'Planner'. Simplemente reaccionaban a sus sensores de una manera que tiende a ayudarles a sobrevivir y moverse.

El proyecto Cyc de Douglas Lenat, iniciado en 1984, es uno de los proyectos más ambiciosos y tempranos para capturar todo el conocimiento humano en forma legible por máquina, es "un enterprise decididamente desaliñado". La base de datos de Cyc contiene millones de hechos sobre todas las complejidades del mundo, cada uno de los cuales debe ser ingresado uno a uno por ingenieros del conocimiento. Cada una de estas entradas es una adición ad hoc a la inteligencia del sistema. Aunque podría haber una solución "limpia" al problema del conocimiento comúnense (como algoritmos de aprendizaje automático con procesamiento de lenguaje natural que puedan estudiar el texto disponible en internet), aún no se ha logrado ningún proyecto de este tipo.

La Sociedad de la Mente

En 1986, Marvin Minsky publicó "The Society of Mind" que abogaba por una visión de la inteligencia y la mente como una comunidad interactiva de módulos o agentes que manejan diferentes aspectos de la cognición, donde algunos módulos son especializados para tareas muy específicas (por ejemplo, la detección de bordes en la corteza visual) y otros módulos están especializados para gestionar la comunicación y la priorización (por ejemplo, la planificación y la atención en los lóbulos frontales). Minsky presentó este paradigma como un modelo tanto de la inteligencia humana biológica como un plano para el trabajo futuro en IA.

Este paradigma es explícitamente "desaliñado" en que no espera que haya un solo algoritmo que pueda aplicarse a todas las tareas involucradas en el comportamiento inteligente. Minsky escribió:

¿Qué truco mágico hace que seamos inteligentes? El truco es que no hay truco. El poder de la inteligencia proviene de nuestra vasta diversidad, no de algún principio único y perfecto.

Hasta 1991, Minsky publicaba artículos evaluando las ventajas relativas de los enfoques "limpios" y "desaliñados", por ejemplo, “Lógico vs. Analógico o Simbólico vs. Conectivista o Limpio vs. Desaliñado”.

IA moderna como "limpios" y "desaliñados"

Se desarrollaron nuevos enfoques estadísticos y matemáticos para la IA en la década de 1990, utilizando formalismos altamente desarrollados como la optimización matemática y las redes neuronales. Pamela McCorduck escribió que "Mientras escribo, la IA disfruta de una hegemónia 'limpia', personas que creen que la inteligencia artificial, al menos, se expresa mejor en términos lógicos, incluso matemáticos". Esta tendencia general hacia métodos más formales en la IA fue descrita como "la victoria de los 'limpios'" por Peter Norvig y Stuart Russell en 2003.

Sin embargo, para 2021, Russell y Norvig habían cambiado de opinión. Las redes de aprendizaje profundo y el aprendizaje automático en general requieren una gran cantidad de ajustes a mano y pruebas iterativas; esto es una metodología "desaliñada".

Ejemplos conocidos
Limpios

John McCarthy
Allen Newell
Herbert A. Simon
Edward Feigenbaum
Robert Kowalski
Judea Pearl

Desaliñados

Rodney Brooks
Terry Winograd
Marvin Minsky
Roger Schank
Doug Lenat

Véase también
Historia de la inteligencia artificial
Computación suave
Inteligencia artificial simbólica
Filosofía de la inteligencia artificial

Notas


Citaciones


Referencias
Brockman, John (7 May 1996). Third Culture: Beyond the Scientific Revolution. Simon and Schuster. Retrieved 2 August 2021.
Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: BasicBooks. ISBN 0-465-02997-3..
Domingos, Pedro (22 September 2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books. ISBN 978-0465065707.
Lehnert, Wendy C. (1 May 1994). "5: Cognition, Computers, and Car Bombs: How Yale Prepared Me for the 90's". In Schank, Robert; Langer, Ellen (eds.). Beliefs, Reasoning, and Decision Making: Psycho-Logic in Honor of Bob Abelson (First ed.). New York, NY: Taylor & Francis Group. p. 150. doi:10.4324/9781134781621. ISBN 9781134781621. Retrieved 2 August 2021.
Minsky, Marvin (1986). The Society of Mind. New York: Simon & Schuster. ISBN 0-671-60740-5.
McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, Massachusetts: A. K. Peters, ISBN 1-5688-1205-1.
Russell, Stuart J.; Norvig, Peter (2003). Artificial Intelligence: A Modern Approach (2nd ed.). Upper Saddle River, New Jersey: Prentice Hall. ISBN 0-13-790395-2.
Russell, Stuart J.; Norvig, Peter (2021). Artificial Intelligence: A Modern Approach (4th ed.). Hoboken: Pearson. ISBN 9780134610993. LCCN 20190474.
Winograd, Terry; Flores (1986). Understanding Computers and Cognition: A New Foundation for Design. Ablex Publ Corp.

Más información
Anderson, John R. (2005). "Human symbol manipulation within an integrated cognitive architecture". Cognitive Science. 29 (3): 313–341. doi:10.1207/s15516709cog0000_22. PMID 21702777.
Brooks, Rodney A. (2001-01-18). "The Relationship Between Matter and Life". Nature. 409 (6818): 409–411. Bibcode:2001Natur.409..409B. doi:10.1038/35053196. PMID 11201756. S2CID 4430614.
Poirier, Lindsay (2025). "Neat vs. Scruffy: How Early AI Researchers Classified Epistemic Cultures of Knowledge Representation". IEEE Annals of the History of Computing. 47 (2): 7–19. doi:10.1109/MAHC.2024.3498692. Retrieved 2025-07-03.