Últimamente se ha prestado mucha atención y publicidad a la versión más reciente de inteligencia artificial, IA, productos como Chat GPT. Estos grandes modelos de lenguaje tendrán un efecto notable en la forma en que trabajamos, similar al impacto de Excel o una nueva interfaz de usuario como la voz. Sin embargo, creo que los avances más importantes en IA redefinirán gran parte de las ciencias físicas, naturales y médicas y acelerarán nuestra comprensión de la nueva ciencia de la complejidad. Creo que los avances en la ciencia de la complejidad tendrán un efecto profundo en la configuración del siglo XXI, que es el propósito de este artículo. Sin embargo, debemos comenzar remontándonos al siglo XVII y a uno de los padres de la ciencia moderna: René Descartes.
Descartes dio forma a la ciencia moderna al introducir una visión empírica y macroscópica de la realidad, un enfoque de arriba hacia abajo mediante el cual comenzamos con lo que observamos y luego lo reducimos analíticamente a sus partes componentes. Este enfoque “reduccionista” de arriba hacia abajo fue bastante intuitivo y aceptado como método científico hasta finales del siglo XIX y principios del XX, cuando se descubrió la física cuántica. La física cuántica nos mostró que la realidad se basaba en partículas subatómicas, que se combinaban en átomos, moléculas y eventualmente células, órganos, sistemas (por ejemplo, digestivos) y animales vivos como los humanos. Albert Einstein interpretó esta física cuántica para mostrar que la creatividad era un “juego combinatorio”, la combinación de componentes existentes de nuevas maneras. El economista Nobel Herbert Simon denominó este proceso “síntesis”, un concepto importante para el futuro de la ciencia, especialmente cuando la IA surgió en su forma actual.
Desde el descubrimiento de la física cuántica, el siguiente acontecimiento científico importante fue la construcción de la bomba atómica para poner fin a la Segunda Guerra Mundial. El desafío al construir la bomba fue determinar si la reacción nuclear se detendría o eventualmente simplemente consumiría la Tierra. Para validar un resultado aceptable, John Von Neuman y sus asociados desarrollaron las primeras computadoras para modelar el problema. Este enfoque puede haber sido el primer uso de un “gemelo digital” y marca el comienzo de lo que se dio en llamar cibernética. La cibernética podría definirse simplemente como la comunicación y el control de la información en un sistema natural o creado por el hombre. Norbert Wiener, del MIT, definió formalmente la cibernética en 1948 y ese pensamiento apoyó la teoría de la información de Claude Shannon, el desarrollo del pensamiento sistémico y una de las premisas clave de la informática moderna: que cualquier sistema puede modelarse como información. La teoría de la información de Shannon fue uno de los mayores descubrimientos de la historia y lanzó “la era digital”. Shannon demostró que la información que describe un sistema determinado refleja el grado de orden en el sistema y la relación entre información y entropía. Shannon mostró cómo el reconocimiento de patrones podría potencialmente determinar la certeza de la información recibida a cualquier distancia mediante cualquier método natural o artificial.
El pensamiento sistémico, originalmente llamado “dinámica de sistemas”, fue desarrollado por otro profesor del MIT, Jay Forrester, para proporcionar un enfoque holístico a los problemas sociales. Un sistema tiene las siguientes seis características:
- Un Límite es semipermeable y define la escala del sistema; comunidad, estado, planeta, etc.
- Las entradas de materia, energía e información pasan a través del límite y son procesadas por el sistema.
- Los elementos son componentes físicos, naturales y artificiales del sistema.
- Los agentes son elementos que procesan las entradas para lograr el propósito del sistema, son adaptativos y pueden reproducirse o replicarse.
- Los resultados son el propósito previsto y las consecuencias negativas o positivas no deseadas del proceso o sistema.
- Los bucles de retroalimentación enrutan ciertas salidas para ser reutilizadas en el proceso y son un factor importante para explicar la incertidumbre de un sistema.
En 1971, el Club de Roma invitó a Forrester a desarrollar un modelo mundial del medio ambiente que pasó a llamarse WORLD 1. Este estudio predijo por primera vez las consecuencias ambientales que alterarían la vida a partir de 2050, lo que ha sido modelado por muchos desde entonces y sigue siendo la mejor predicción. Del trabajo original de Wiener en el estudio de sistemas biológicos, combinado con el gran paso adelante de Shannon para comprender mejor el concepto de información y la visión holística de los sistemas de Forrester, surgió el concepto de ciencia de la complejidad. Volveremos a discutir la ciencia de la complejidad, pero primero debemos avanzar desde la computadora de Von Neumann durante la Segunda Guerra Mundial hasta el nacimiento de la Inteligencia Artificial y los avances posteriores.
En 1952, IBM había avanzado en el desarrollo de computadoras “mainframe” que utilizaban tubos de vacío pero no proporcionaban software para las máquinas. Sin embargo, las máquinas rápidamente tuvieron éxito por sus mejoras en la eficiencia corporativa y el ahorro de costos. El éxito de IBM generó las minicomputadoras de empresas como DEC y luego las microcomputadoras de empresas como Altair. Los beneficios de la famosa Ley de Moore sustentaron estos avances y se estableció el patrón de computadoras cada vez más rápidas, más baratas y más pequeñas. (La Ley de Moore predijo que la densidad de transistores por chip se duplicaría cada 18 a 24 meses).
Con los avances en informática, un cierto grupo de profesores, en su mayoría universitarios, se reunieron para explorar la idea de que las computadoras podrían usarse para modelar los resultados del pensamiento humano o, más específicamente, que las computadoras podrían manipular números y símbolos de una manera similar al pensamiento humano. En 1956, en un programa de verano en Dartmouth, se reunió un grupo de luminarias que incluía a dos futuros premios Nobel, cuatro ganadores del Premio Turing y varios otros pensadores notables. Uno de los resultados de ese verano fue la presentación exitosa de una subvención a la Fundación Rockefeller por valor de 7.500 dólares. Un funcionario de Rockefeller describió la presentación como demasiado visionaria incluso para la Fundación Rockefeller, pero no es sorprendente para probablemente la mayor colección de pensadores desde la famosa Conferencia Solvay de 1927. La IA fue financiada por la Fundación Rockefeller y durante los siguientes cuarenta años, comenzó y se detuvo. Luego volvió a avanzar gracias a mejores computadoras, conjuntos de datos cada vez más grandes, mejores algoritmos y algunas matemáticas nuevas, como aplicaciones de la teoría de gráficos y del caos.
Uno de los grandes beneficiarios de los avances en IA fue el campo emergente de la genómica. Originalmente, el descubrimiento de la doble hélice del ADN por parte de Watson y Crick en 1956 se llevó a cabo mediante un trabajo de laboratorio personalizado que intentaba desentrañar niveles inauditos de posibilidades. Con las mejoras en la IA, la secuenciación del ADN y gran parte de la biología se transformaron en una “ciencia de la información” más manejable.
A medida que avanzó el siglo XXI, la combinación de informática e inteligencia artificial se convirtió cada vez más en una herramienta para el descubrimiento de nuevas ciencias, ingeniería y medicina. La IA ha llegado al punto en que es una parte integral de muchos campos, incluidos la bioquímica, la ciencia de materiales y el desarrollo farmacéutico. La IA se convirtió en una herramienta tan poderosa porque tenía la capacidad de manejar datos a nivel subatómico y microscópico en las enormes cantidades que la ciencia moderna utiliza para producir resultados validados. Con la introducción de datos sintéticos o “generados artificialmente” para entrenar los algoritmos de forma anónima, los científicos incluso descubrieron nuevos componentes, como biomarcadores, que antes no habían formado parte de la ciencia. El Instituto Nacional de Salud (NIH) describe maravillosamente el cambio en la ciencia como “transdisciplinario, traslacional y centrado en redes” y en parte cruzamos esta frontera porque los científicos tenían la herramienta perfecta: la IA.
Esta visión de la ciencia como “transdisciplinaria, traslacional y centrada en redes” fue consistente con el desarrollo de la nueva ciencia —la ciencia de la complejidad— en la segunda mitad del siglo XX. La cibernética popularizó la idea del sistema. El pensamiento sistémico nos mostró una manera de pensar de manera integral sobre cualquier sistema natural o creado por el hombre. La pieza restante era descubrir y documentar los principios fundamentales que se aplican tanto a los sistemas naturales como a los artificiales, que es el foco de la Ciencia de la Complejidad. Cuando intentamos comprender estos principios de complejidad, debemos verlos como el medio para abordar los problemas del siglo XXI. Los problemas importantes del siglo XXI, cómo el medio ambiente, la atención sanitaria y el suministro de energía se encuentran en la intersección de los sistemas naturales y los creados por el hombre y necesitamos herramientas que puedan proporcionar soluciones que funcionen tanto en el nivel microscópico de la naturaleza como en el nivel macroscópico de los sistemas creados por el hombre.
El economista jubilado de la complejidad de Stanford, W. Bryan Arthur, enumera cinco características fundamentales de todo sistema complejo:.
- Emergencia: surgen resultados inesperados que no son explicables ni predecibles a partir de las características de los agentes y subsistemas.
- Jerárquico: los subsistemas anidados son una parte integral de un sistema más grande sin instrucciones dictadas desde fuera del sistema.
- No lineal: los agentes tienen un comportamiento aleatorio o caótico, impredecible e incierto.
- Adaptativo: los agentes aprenden o evolucionan en función de la información o la retroalimentación relacionada.
- Auto-organización: los agentes y los sistemas son autónomos para lograr su propósito.
Una parte integral de la definición de Arthur es el reconocimiento de que todo sistema es multifactorial, dinámico y no lineal. Por la naturaleza de los sistemas complejos, se requieren matemáticas aplicadas e inteligencia artificial para comprender los sistemas, ver los patrones complejos y capturar el comportamiento a veces caótico.
Esta convergencia de complejidad, matemáticas aplicadas e inteligencia artificial está bien ilustrada por el Laboratorio Nacional de Energía Renovable (NREL), uno de los diecisiete laboratorios nacionales del gobierno de Estados Unidos. Estos laboratorios tienen el mandato de explorar e investigar en las fronteras de la ciencia y la ingeniería. Utilizando una “combinación de computación de alto rendimiento, ciencia computacional y matemáticas aplicadas”, el NREL trabaja para “describir, modelar, simular, resolver, explorar y optimizar sistemas complejos, ya sean átomos que interactúan, sistemas de reacciones químicas o sistemas de ingeniería”. sistemas que describen la red eléctrica”. “El NREL utiliza IA y ML para obtener conocimientos, hacer predicciones y explicar estados futuros del sistema aprendiendo de los datos. Nuestros modelos nos permiten abordar, de una manera computacionalmente eficiente, cuestiones que surgen en múltiples escalas o espacios inusuales”.
En términos simples, ahora podemos tomar un problema, comenzando en la escala atómica, identificar las características multifactoriales, ajustarlo a la interacción incierta en múltiples escalas y producir nuevos conocimientos científicos que beneficien a la humanidad de maneras tangibles que mejoren la vida humana, el medio ambiente y la sociedad. Gran parte de esta complejidad se comprende a través de los avances en IA. Todo suena muy simple cuando estos conceptos son explicados por el NREL, el Instituto Santa Fe o el Centro de Sistemas Complejos de Oxford. El tema que me preocupa es la convergencia de esta nueva ciencia, matemáticas y tecnología. Más precisamente, ¿estamos preparando a suficientes personas?
¿Desarrollar y aplicar adecuadamente la ciencia y la tecnología potencialmente transformadoras para resolver los problemas críticos del medio ambiente, desarrollar energía renovable económica y brindar atención médica que apoye a las personas que probablemente vivirán hasta los 100 o 150 años de edad? Cuando pienso en la situación actual, siempre vuelvo a esta cita de los Fundadores del Instituto Santa Fe:
“Ha sido el gran triunfo de las ciencias encontrar medios consistentes para estudiar los fenómenos naturales ocultos tanto en el espacio como en el tiempo, superando los límites de la cognición y la cultura material. El método científico es el conjunto de instrumentos, formalismos y prácticas experimentales que tienen éxito. en descubrir mecanismos básicos a pesar de las limitaciones de la inteligencia individual”
Estamos en otro período de la historia de la humanidad en el que estamos a punto de superar los límites de la cognición y la cultura material. Como lo describió recientemente National Academies Press, “a medida que la cantidad de datos disponibles crece más allá de lo que cualquier persona puede estudiar, la IA puede ser útil por su poder para identificar patrones en los datos. Los patrones serán nuevos, las herramientas serán nuevas, el conocimiento será nuevo. Dependeremos menos de los límites de la cognición humana y más de herramientas que no podemos entender completamente”.
La ciencia, las matemáticas y la computación están avanzando, probablemente a una escala no vista en la historia de la humanidad. Necesitamos preparar a una nueva generación de estudiantes, funcionarios gubernamentales y ejecutivos corporativos para que utilicen estas herramientas de manera inteligente y efectiva en beneficio de la sociedad. Creo que estamos mal equipados y no preparados. El mayor problema del siglo XXI puede ser la integración de la tecnología, el sistema educativo y la complejidad de la ciencia para encontrar soluciones oportunas.
“Pero generar información no es fácil. Nuestro universo lucha por hacerlo. Nuestra capacidad para generar información y producir los artículos, infraestructuras e instituciones que asociamos con la prosperidad requiere que luchemos contra la marcha constante hacia el desorden que caracteriza a nuestro universo…”
—Cesar Hidalgo, Why Information Grows
“La naturaleza es la fuente de todo conocimiento.”
—Leonardo da Vinci
[1] The Math of Living Things – Nautilus
[2] Dartmouth workshop – Wikipedia
[3] The 1927 Solvay Conference and the Most Iconic Physics Photograph | by Sunny Labh | Cantor’s Paradise
[4] Systems Thinking to Improve the Public’s Health – PMC
[5] Complex Systems Simulation and Optimization | Computational Science | NREL
[6] Artificial Intelligence Research | Computational Science | NREL
[7] (David Krakauer, Murray Gell-Mann, Kenneth Arrow, W. Brian Arthur, John H. Holland, Richard Lewontin,…, Worlds Hidden in Plain Sight)
[8] Artificial Intelligence to Assist Mathematical Reasoning. Proceedings of a Workshop, 20203.