GOFAI - Enciclopedia
En la filosofía de la inteligencia artificial, GOFAI (inteligencia artificial de vieja usanza) es la inteligencia artificial simbólica clásica, en contraste con otras aproximaciones, como las redes neuronales, la robótica situada, la inteligencia artificial simbólica limitada o la inteligencia artificial neuro-simbólica.
El término fue acuñado por el filósofo John Haugeland en su libro de 1985 "Inteligencia Artificial: La idea en si misma".
Haugeland acuñó el término para abordar dos preguntas:
¿Puede el GOFAI producir inteligencia artificial a nivel humano en una máquina?
¿Es el GOFAI el método primario que utilizan los cerebros para manifestar inteligencia?
El fundador de la inteligencia artificial, Herbert A. Simon, especuló en 1963 que las respuestas a ambas preguntas eran "sí". Su evidencia fue el rendimiento de programas que había coescrito, como el Teórico de la Lógica y el Solucionador de Problemas General, y su investigación psicológica sobre la solución de problemas humanos.
La investigación en inteligencia artificial de los años 1950 y 1960 tuvo una enorme influencia en la historia intelectual: inspiró la revolución cognitiva, llevó a la fundación del campo académico de la ciencia cognitiva y fue el ejemplo esencial en las teorías filosóficas del computacionalismo, el funcionalismo y el cognitivismo en ética, así como en las teorías psicológicas del cognitivismo y la psicología cognitiva. El aspecto específico de la investigación en inteligencia artificial que llevó a esta revolución fue lo que Haugeland llamó "GOFAI".
Racionalismo occidental
Haugeland coloca al GOFAI dentro de la tradición racionalista en la filosofía occidental, que sostiene que la razón abstracta es la "más alta" facultad, que es lo que distingue al hombre de los animales y que es la parte más esencial de nuestra inteligencia. Esta suposición está presente en Platón y Aristóteles, en Shakespeare, Hobbes, Hume y Locke, fue central para la Ilustración, para los positivistas lógicos de los años 1930 y para los computacionalistas y cognitivistas de los años 1960. Como escribió Shakespeare:
¿Qué maravilla es un hombre, Cuán noble en razón, cuán infinito en capacidad... En la percepción cuán parecido a un dios, La belleza del mundo, El paradigma de los animales.
La inteligencia artificial simbólica en los años 1960 fue capaz de simular con éxito el proceso de razonamiento de alto nivel, incluyendo la deducción lógica, el álgebra, la geometría, el razonamiento espacial y el análisis de medios-fines, todos ellos en frases en inglés precisas, al igual que las que los humanos utilizan cuando razonan. Muchos observadores, incluyendo filósofos, psicólogos y los investigadores de inteligencia artificial en sí mismos, quedaron convencidos de que habían capturado las características esenciales de la inteligencia. Esto no fue solo soberbia o especulación -- esto estaba implícito en el racionalismo. Si no era cierto, entonces pondría en duda una gran parte de toda la tradición filosófica occidental.
La filosofía continental, que incluía a Nietzsche, Husserl, Heidegger y otros, rechazó el racionalismo y argumentó que nuestro razonamiento de alto nivel era limitado, propenso a errores y que la mayoría de nuestras habilidades vienen de nuestras intuiciones, nuestra cultura y de nuestro sentimiento instintivo de la situación. Los filósofos que estaban familiarizados con esta tradición fueron los primeros en criticar al GOFAI y la afirmación de que era suficiente para la inteligencia, como Hubert Dreyfus y Haugeland.
GOFAI de Haugeland
Los críticos y defensores de la posición de Haugeland, desde la filosofía, la psicología o la investigación en inteligencia artificial, han encontrado difícil definir "GOFAI" con precisión, y por lo tanto la literatura contiene una variedad de interpretaciones. Drew McDermott, por ejemplo, considera que la descripción de Haugeland del GOFAI es "incoherente" y argumenta que el GOFAI es un "mito".
Haugeland acuñó el término GOFAI para examinar las implicaciones filosóficas de "las afirmaciones esenciales de todas las teorías de GOFAI", que enumeró como:
1. nuestra capacidad de manejar las cosas inteligentemente se debe a nuestra capacidad de pensar en ellas razonablemente (incluyendo el pensamiento inconsciente); y
2. nuestra capacidad de pensar en las cosas razonablemente equivale a una facultad para la manipulación interna "automática" de símbolos.
Esto es muy similar a la parte suficiente de la hipótesis del sistema de símbolos físicos propuesta por Herbert A. Simon y Allen Newell en 1963:
"Un sistema de símbolos físicos tiene los medios necesarios y suficientes para una acción inteligente general."
También es similar a la "asunción psicológica" de Hubert Dreyfus:
"La mente puede verse como un dispositivo que opera sobre trozos de información según reglas formales."
La descripción de Haugeland del GOFAI se refiere a la manipulación de símbolos regida por un conjunto de instrucciones para manipular los símbolos. Los "símbolos" a los que se refiere son cosas físicas discretas que se asignan una semántica definida -- como <cat> y <mat>. No se refieren a señales, o números no identificados, o matrices de números no identificados, o los ceros y unos de la máquina digital. Por lo tanto, el GOFAI de Haugeland no incluye técnicas "de vieja usanza" como la cibernética, los perceptrones, la programación dinámica o la teoría del control, ni técnicas modernas como las redes neuronales o los máquinas de soporte de vectores.
Estas preguntas preguntan si el GOFAI es suficiente para la inteligencia general -- preguntan si no hay nada más necesario para crear máquinas completamente inteligentes. Por lo tanto, el GOFAI para Haugeland no incluye sistemas que combinan inteligencia artificial simbólica con otras técnicas, como la inteligencia artificial neuro-simbólica, y tampoco incluye sistemas de inteligencia artificial simbólica limitada que están diseñados solo para resolver un problema específico y no se espera que muestren inteligencia general.
Respuestas
= Respuestas de científicos de la inteligencia artificial =
Russell y Norvig escribieron, en referencia a Dreyfus y Haugeland:La tecnología que criticaron se convirtió en lo que se conoce como Inteligencia Artificial de Vieja Usanza (GOFAI). El GOFAI corresponde al diseño de agente lógico más simple... y vimos... que es en verdad difícil capturar cada contingencia de comportamiento apropiado en un conjunto de reglas lógicas necesarias y suficientes; llamamos a eso el problema de cualificación.
El trabajo simbólico en inteligencia artificial después de los años 1980 incorporó enfoques más robustos para dominios abiertos como el razonamiento probabilístico, el razonamiento no monotónico y el aprendizaje automático.
Actualmente, la mayoría de los investigadores en inteligencia artificial creen que el aprendizaje profundo y, más probablemente, una síntesis de enfoques neuronales y simbólicos (inteligencia artificial neuro-simbólica), será necesaria para la inteligencia general.
Citaciones
Referencias
Haugeland, John (1985), Inteligencia Artificial: La idea en si misma, Cambridge, Mass: MIT Press, ISBN 0-262-08153-9
Boden, Margaret (2014), "GOFAI", en Keith Frankish; William M. Ramsay (eds.), Handbook de la Inteligencia Artificial de Cambridge, Cambridge University Press, pp. 89–107, ISBN 9781139046855, Inteligencia Artificial de Vieja Usanza – GOFAI, por acrónimo – es una etiqueta utilizada para denotar inteligencia artificial clásica, simbólica. El término "IA" a veces se utiliza para significar solo GOFAI, pero eso es un error. La IA también incluye otras aproximaciones, como el conectivismo (de las que hay varias variedades: ver Capítulo 5), la programación evolutiva, y la robótica situada y evolutiva.
Segerberg, Krister; Meyer, John-Jules; Kracht, Marcus (Summer 2020), "La Lógica de la Acción", en Zalta, Edward N. (ed.), Enciclopedia Estadounidense de Filosofía, [T]here is a tradition within AI to try and construct these systems based on symbolic representations of all relevant factors involved. This tradition is called inteligencia artificial simbólica or 'inteligencia artificial de vieja usanza' (GOFAI).
Newell, Allen; Simon, H. A. (1963), "GPS: A Program that Simulates Human Thought", en Feigenbaum, E.A.; Feldman, J. (eds.), Computers and Thought, New York: McGraw-Hill
Touretzky, David S.; Pomerleau, Dean A. (1994), "Reconstructing Physical Symbol Systems", Cognitive Science, 18 (2): 345–353, doi:10.1207/s15516709cog1802_5
Nilsson, Nils (2007), Lungarella, M. (ed.), "The Physical Symbol System Hypothesis: Status and Prospects" (PDF), 50 Years of AI, Festschrift, LNAI 4850, Springer, pp. 9–17
Russell, Stuart J.; Norvig, Peter. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Hoboken: Pearson. ISBN 9780134610993. LCCN 20190474.
Dreyfus, Hubert (1979), What Computers Still Can't Do, New York: MIT Press.
Newell, Allen; Simon, H. A. (1976), "Computer Science as Empirical Inquiry: Symbols and Search", Communications of the ACM, 19 (3): 113–126, doi:10.1145/360018.360022