jueves, 3 de abril de 2025

La Inteligencia Artificial en la ficción moderna y realidad contemporánea

La Inteligencia Artificial en la ficción moderna y realidad contemporánea

José Antonio Robledo y Meza

 

Para el siglo XIX, las ideas sobre hombres artificiales y máquinas pensantes se desarrollaron en la ficción, como en “Frankenstein” de Mary Shelley o la obra de teatro ficción “R.U.R.” (Rossum's Universal Robots) del checo Karel Čapek, o en la especulación de Samuel Butler “Darwin entre las máquinas”, o en narraciones como el “Jugador de ajedrez de Maelzel” de Edgar Allan Poe o, finalmente, en casos del mundo real. A partir de entonces, la Inteligencia Artificial (IA) se convirtió en un tema común de la ciencia ficción hasta el presente.

El campo de la investigación de la IA se fundó en un taller celebrado en el campus del Dartmouth College, en Estados Unidos, durante el verano de 1956.Aquellos que asistieron se convertirían en los líderes de la investigación en IA durante décadas. Muchos de ellos predijeron que una máquina tan inteligente como un ser humano existiría en no más de una generación, y recibieron millones de dólares para hacer realidad esta visión. Al final, resultó evidente que los investigadores habían subestimado la dificultad del proyecto.

En 1974, en respuesta a las críticas de James Lighthill y a la presión constante del Congreso de Estados Unidos, los gobiernos de Estados Unidos y Gran Bretaña dejaron de financiar investigaciones sobre inteligencia artificial. Siete años más tarde, una iniciativa visionaria del gobierno japonés inspiró a los gobiernos y a la industria a proporcionar a la IA miles de millones de dólares, pero a finales de la década de 1980 los inversores se desilusionaron y volvieron a retirar la financiación. Los años difíciles que siguieron se conocerían más tarde como el “invierno de la IA”. La IA fue criticada en la prensa y evitada por la industria hasta mediados de la década de 2000, pero la investigación y la financiación continuaron creciendo bajo otros nombres.

En los años 1990 y principios de 2000, el aprendizaje automático se aplicó a muchos problemas en la academia y la industria. El éxito se debió a la disponibilidad de hardware informático potente, la recopilación de conjuntos de datos inmensos y la aplicación de sólidos métodos matemáticos. En 2012, el aprendizaje profundo demostró ser una tecnología revolucionaria, eclipsando todos los demás métodos. La arquitectura del transformador debutó en 2017 y se utilizó para producir aplicaciones de IA generativa. La inversión en IA se disparó en la década de 2020.

La IA y el razonamiento formal

La IA se basa en la suposición de que el proceso del pensamiento humano puede ser mecanizado. El estudio del razonamiento mecánico o “formal” tiene una larga historia. Los filósofos chinos, indios y griegos desarrollaron todos métodos estructurados de deducción formal para el primer milenio antes de nuestra era. Sus ideas fueron desarrolladas a lo largo de los siglos por filósofos como Aristóteles (384-322 ane) quien dio un análisis formal del silogismo, Euclides (325-265 ane) cuyos elementos fueron un modelo de razonamiento formal), al-Juarismi (780-850) quien desarrolló el álgebra y dio su nombre a la palabra “algoritmo” y filósofos escolásticos como Duns Scoto (1266-1308) y Guillermo de Ockham (1287-1347).

El filósofo Ramon Llull (1232-1315) desarrolló varias máquinas lógicas dedicadas a la producción de conocimiento por medios lógicos; Llull describió sus máquinas como entidades mecánicas que podían combinar verdades básicas e innegables mediante operaciones lógicas simples, producidas por la máquina mediante significados mecánicos, de tal manera que produjeran todo el conocimiento posible. La obra de Llull tuvo una gran influencia en Gottfried Leibniz (1646-1716), quien reformuló sus ideas y quien especuló que la razón humana podría reducirse a un cálculo mecánico.

En el siglo XVII, Leibniz, Thomas Hobbes (1588-1679) y René Descartes (1596-1650) exploraron la posibilidad de que todo pensamiento racional pudiera volverse tan sistemático como el álgebra o la geometría. Hobbes escribió en Leviatán: “Porque la razón... no es más que calcular, es decir, sumar y restar”. Leibniz imaginó un lenguaje universal del razonamiento, la characteristica universalis, que reduciría la argumentación a cálculo, de modo que «no habría más necesidad de disputa entre dos filósofos que entre dos contables. Porque bastaría tomar sus lápices en la mano, bajar a sus pizarras y decirse el uno al otro (con amigos como testigos, si quisieran): Vamos a calcular”. Estos filósofos habían comenzado a articular la hipótesis del sistema de símbolos físicos que se convertiría en la fe rectora de la investigación de la IA. 

Micromundos

A finales de los años 60 del siglo XX, Marvin Minsky y Seymour Papert, del Laboratorio de IA del Massachusetts Institute of Technology (MIT), propusieron que la investigación en IA debería centrarse en situaciones artificialmente simples conocidas como micromundos. Señalaron que en ciencias exitosas como la física, los principios básicos a menudo se entendían mejor utilizando modelos simplificados como planos sin fricción o cuerpos perfectamente rígidos. Gran parte de la investigación se centró en un “mundo de bloques”, que consiste en bloques de colores de diversas formas y tamaños dispuestos sobre una superficie plana.

Este paradigma condujo a un trabajo innovador en visión por computadora por parte de Gerald Sussman, Adolfo Guzmán, David Waltz (quien inventó la “propagación de restricciones”) y, especialmente, Patrick Winston. Al mismo tiempo, Minsky y Papert construyeron un brazo robótico que podía apilar bloques, dando vida al mundo de los bloques. El programa SHRDLU de Terry Winograd podía comunicarse en oraciones comunes en inglés sobre el micromundo, planificar operaciones y ejecutarlas.

El mundo estaba familiarizándose con el aprendizaje automático que se aplicaría a muchos problemas en la academia y la industria. El éxito se debió a la disponibilidad de hardware informático potente, la recopilación de conjuntos de datos inmensos y la aplicación de sólidos métodos matemáticos.  Eso ocurrió en los años 1990 y principios de 2000.

 

robledomeza@yahoo.com.mx

2223703233

 

No hay comentarios.:

Publicar un comentario

Diagnóstico a la Benemérita Universidad Autónoma de Puebla. Una aproximación después del paro estudiantil 2025

Diagnóstico a la Benemérita Universidad Autónoma de Puebla. Una aproximación después del paro estudiantil 2025   El día 31 de marzo tras una...