El escritor David Foster Wallace cuenta la historia, “Esto es agua”, de dos peces jóvenes que no saben qué es el agua. Señala que las realidades más importantes a menudo son completamente invisibles para nosotros, y seguirán siéndolo, si se lo permitimos[1]. El famoso matemático y filósofo Bertrand Russell dio una respuesta: “lo que la ciencia no puede descubrir, la humanidad no puede saberlo”, pero se equivocó.
Fritjof Capra y Pier Luigi Luisi dan un ejemplo de cómo Russell se equivocó: “La emergencia resulta en la creación de novedad, y esta novedad es a menudo cualitativamente diferente de los fenómenos de los cuales surgió”.[2] Otra prueba de que Russell estaba equivocado es el campo en rápida evolución de la Inteligencia Artificial (IA) generativa. El resto de este artículo analiza esta forma de IA, y lo que significa para el futuro de la humanidad.
En las últimas dos semanas aparecieron entre mis lecturas tres artículos sorprendentes. El primero fue un artículo de la reconocida firma de capital riesgo Sequoia Capital, en el que advertía que el modelo de negocio estaba siendo redefinido una vez más por la IA. Para citar a Sequoia: “Las mejores empresas de IA generativa pueden generar una ventaja competitiva sostenible al actuar incansablemente en el volante entre la participación/datos del usuario y el rendimiento del modelo”.[3]
Los cuatro modelos de BCG, que se muestran a continuación, ya no eran la forma de pensar en los modelos de negocio actuales.[4] ¡La IA generativa estaba cambiando las bases de la competencia!
El siguiente artículo era de la consultora internacional McKinsey. Entrevistaron a la profesora de Berkeley y genio de MacArthur, Daphne Koller.[5] En el artículo, Koller habla de cómo la IA generativa está permitiendo a los investigadores llevar la medicina a un nivel completamente nuevo de ciencia fundamental. La IA generativa está produciendo resultados emergentes que los científicos no habían visto antes. Efectivamente, hemos llegado al punto en el que las máquinas están produciendo conocimientos creativos que los humanos no habían documentado previamente.[6] Koller dice que esta capacidad de abstraerse de la realidad cambiará la comprensión y la práctica de la medicina.
El tercer escrito fue de un grupo de economistas académicos canadienses. En su libro, “Power and Prediction: The Disruptive Economics of Artificial Intelligence”, los profesores Agraval, Gans y Goldfarb documentan su pensamiento de que “cada problema es un problema de información”. Los profesores ilustran su conclusión examinando el enfoque de la mayoría de los gobiernos hacia el COVID como un “problema de salud”. Este enfoque creó un enorme costo económico y de salud mental. Si los gobiernos hubieran creado desde el principio nuevas simulaciones de la propagación de la COVID utilizando la última tecnología de inteligencia artificial, las fuentes clave de la enfermedad se habrían identificado antes, se habrían aislado y la propagación de la enfermedad se habría reducido más rápidamente. El uso de nuevos modelos en lugar de tecnología obsoleta habría producido más información y probablemente habría resultado en que sólo los portadores de la enfermedad quedarán confinados en sus hogares.
Microsoft explica bien este nuevo enfoque[7]: “Los datos que se utilizan para entrenar las redes neuronales provienen de la solución numérica de las ecuaciones fundamentales de la ciencia más que de la observación empírica. Podemos ver las soluciones numéricas de ecuaciones científicas como simuladores del mundo natural que pueden usarse… para calcular cantidades de interés en aplicaciones”. En resumen, la máquina genera algo nuevo en lugar de analizar algo que ya existe.
El resto de este artículo habla de cómo llegamos a la IA generativa, cada problema es un problema de información y lo que esto significa para el futuro. Para comprender cómo los capitalistas de riesgo, los consultores y los académicos llegaron simultáneamente a las mismas conclusiones sobre la IA generativa y la resolución de problemas, primero debemos revisar algo de historia. En concreto, debemos revisar las aportaciones de Claude Shannon, John Wheeler y Bryan Arthur.
Claude Shannon fue probablemente el investigador más famoso que trabajó en los Laboratorios Bell. Shannon desarrolló la teoría de la información, que fue la base matemática, científica y de ingeniería de la era digital a partir de finales de los años cincuenta. La teoría de la información es el estudio científico de la cuantificación, el almacenamiento y la comunicación de información e implica la aplicación de la teoría de la probabilidad, la estadística, la informática, la mecánica estadística, la ingeniería de la información y la ingeniería eléctrica.[8] Shannon aplicó la Segunda Ley de Termodinámica para mostrar la relación entre información e incertidumbre. Sabemos que el universo avanza hacia un desorden y una incertidumbre cada vez mayores, lo que llamamos entropía. La entropía negativa, la reducción de la incertidumbre, representa información tanto al nivel microscópico de las partículas subatómicas como al nivel macroscópico que percibimos, como la temperatura, la fuerza o el volumen. Lo que esto significa es que la energía y la materia, tanto a nivel microscópico como macroscópico, pueden entenderse como información. Ver la realidad en todos los niveles como información nos libera de las limitaciones de nuestra educación cultural orgánica y hace posible esta era actual de conectividad en red transdisciplinaria, no lineal. Esta transición fundamental de una realidad moldeada por energía y materia a una realidad explicada en términos de información fue el principio fundamental único que explica la era digital a partir de la década de 1960.
En 1989, el famoso físico John Wheeler publicó un breve ensayo titulado Información, física y cuántica: la búsqueda de vínculos. El propósito del ensayo era explicar la mecánica cuántica, la teoría de la información y la existencia, una tarea modesta. En el ensayo, Wheeler acuñó la ahora famosa expresión “It from Bit” y explica el concepto de que la realidad —It— puede explicarse a través del marco binario fundamental del bit —0,1 o sí/no— popularizado en la informática y antes de eso por Aristóteles. Por tanto, toda realidad es simplemente información. El ensayo de Wheeler quizá explicase de manera más comprensible el argumento de Shannon de que la realidad podía entenderse en términos de información.
Si reconocemos las contribuciones fundamentales de Shannon, de 1948, y Wheeler, de 1989, ¿por qué nos llevó más de 30 años darnos cuenta de que “todos los problemas son problemas de información”? La respuesta corta es que durante al menos 40.000 años nuestros instintos y nuestra cultura han reforzado la idea de que el conocimiento y la resolución de problemas se basan en nuestros datos empíricos o percepción de la realidad. Afortunadamente, contamos con el profesor jubilado de economía de Stanford, Bryan Arthur, para explicar por qué pasaron otros 30 años después del ensayo de John Wheeler antes de que cambiáramos la anticuada epistemología cartesiana que nos proporcionó la evolución.
Bryan Arthur fue uno de los fundadores del Instituto Santa Fe, quizás el principal instituto de investigación de Estados Unidos sobre la aplicación de la complejidad a las ciencias físicas, naturales y sociales, incluida la economía. La investigación de Arthur demostró que la tecnología parece resolver los problemas de su época y, por lo general, es una combinación de varias tecnologías en un paradigma. Entonces, ¿cuál era el paradigma tecnológico necesario para resolver problemas en una realidad definida por la información? El paradigma fue la combinación coincidente de Inteligencia Artificial, Computación en la Nube e Internet de las Cosas (IoT). Esta tecnología nos permitió capturar los datos, almacenarlos y extraerlos para usarlos con IA en una escala de datos originalmente medida en petabytes y ahora en exabytes (1+18 ceros). Los desarrolladores originales de la IA pensaron que la limitación de la capacidad era la potencia informática. Resultó que necesitábamos capturar más datos, poder almacenarlos de manera eficiente y segura para luego procesarlos de manera efectiva. Esta tecnología surgió alrededor de 2005-2006, quizás con el lanzamiento del servicio en la nube de AWS, y se utilizó ampliamente a partir de 2015 aproximadamente.
Lo que espero haber introducido es que la realidad es un sistema computacional abstracto y lógico que procesa información y que la IA generativa nos ha brindado nuevas herramientas para comprender esta realidad. Quizás no recuerde que Galileo, Kurt Gödel, John von Neumann y, más recientemente, el físico Max Tegmark, por nombrar algunas luminarias, comparten una opinión similar. Me abstendré de decir que la IA generativa es la base de una tercera escuela de epistemología, pero me siento tentado.
La filosofía y la física son intrigantes, pero ninguno de los campos se considera muy práctico. Deberíamos centrarnos en la cuestión de cómo la IA generativa dará forma al futuro y qué habilidades se necesitarán en este nuevo mundo. La cita de Sequoia al comienzo del artículo nos brinda mucha orientación sobre la aplicación de esta IA, ya sea que trabajemos en el gobierno, organizaciones sin fines de lucro, el mundo académico o el sector privado. Para expresar nuevamente la guía de Sequoia: “Las mejores empresas de IA generativa pueden generar una ventaja competitiva sostenible al actuar incansablemente en el volante entre la participación/datos del usuario y el rendimiento del modelo”.
Las lecciones podrían ser:
En primer lugar, no debemos permitir que la tecnología nos haga perder de vista la importancia de un enfoque centrado en las personas (participación del usuario). La IA no es responsable de las consecuencias humanas de los hallazgos emergentes de la tecnología. Nosotros, los humanos, lo somos. No culpes a la IA, culpa a la gente. Necesitamos más cursos y capacitación sobre las cuestiones éticas que rodean la IA a medida que damos forma a la experiencia del cliente y la interacción entre los humanos y la IA generativa.
En segundo lugar, los datos deben considerarse un recurso como las tierras de cultivo o el capital. Necesitamos adquirir datos de manera intencional y cuidadosa, limpiarlos y organizarlos y almacenarlos en la nube para facilitar el acceso. Los conjuntos de datos son cada vez más valiosos. Algunos comentaristas dicen que Microsoft compró LinkedIn y Elon Musk compró Twitter para adquirir grandes conjuntos de datos de consumidores. Esta estrategia se llama “Cloud Capital” para ilustrar la importancia de grandes conjuntos de datos. La Fundación Nacional de Ciencias y el Instituto Nacional de Salud también son conscientes del valor científico y social de los grandes conjuntos de datos y están realizando importantes esfuerzos para organizar conjuntos de datos de código abierto para respaldar la investigación y la comercialización y la respuesta rápida. Para gestionar bien estos conjuntos de datos, necesitamos que la formación comience a la misma edad que la programación informática. También necesitamos que las estructuras de datos, la teoría de redes, la teoría de grafos, la complejidad y los principios de la computación en la nube se enseñan en la escuela secundaria y no se consideran materias avanzadas esotéricas. Los conjuntos de datos deben considerarse como el agua, fundamental para la vida de todos.
En tercer lugar, el rendimiento del modelo busca mejorar el desempeño de los algoritmos. Esta mejora del algoritmo requiere un estudio en profundidad de matemáticas, estadística e informática avanzadas. Esta formación también debe comenzar mucho antes de la universidad, dada la importancia de la materia.
En cuarto lugar, la ventaja competitiva provendrá de elegir mejores problemas. ¿Qué significa eso? La IA proporcionará gran parte del conocimiento y la solución creativa a través del proceso emergente que Capra y Luisi describieron al comienzo del artículo. El valor estará aún más en la selección del problema. La descripción de la creatividad que hace el investigador Neri Oxman incluye cuatro dominios: ciencia, ingeniería, diseño y arte.[9] Durante los primeros cuatro siglos de la Revolución Industrial, la creación de valor se basó en la ciencia y la ingeniería. Hoy en día, como la IA ya no está limitada por los datos empíricos disponibles, la creación de valor provendrá cada vez más del diseño y el arte. Aquí el diseño se utiliza en la forma en que lo definió Herbert Simon,[10] como resolución de problemas, y en el centro de la resolución de problemas está elegir el problema o reformular.
El arte producido por Generative AI es fantástico, casi imperceptible del trabajo humano. No te deprimas, simplemente utiliza este arte para contar tus historias y vender tus ideas de manera más efectiva. La firma de capital riesgo Lightspeed lo expresa bien: “Nuestra tesis sobre la IA generativa comienza con la creencia de que contar historias, ya sea sobre una persona, una empresa o una idea, es fundamentalmente lo que nos hace humanos… Hoy en día, el proceso de creación de contenido sigue siendo manual y difícil… La IA generativa tiene el poder de reducir gran parte de este trabajo “manual” y hacerlo más accesible para todos”.
Lo que hacen el arte, el diseño, las matemáticas y ahora la informática es abstraerse de la realidad y hacerla más comprensible. La IA generativa es una poderosa herramienta de abstracción nunca antes vista en la historia de la humanidad. Necesitamos cambiar nuestra forma de pensar, nuestro sistema educativo y nuestros valores para aprovechar esta tecnología para el mejoramiento de la humanidad.
He dicho durante varios años que la humanidad está al borde de un segundo Renacimiento. La IA generativa probablemente hace que esa afirmación sea cierta. Para ayudarle a recordar, el segundo Renacimiento se definirá en términos de: ciencia de datos, modelos informáticos, abstracción, aparición y diseño.
[1] Lessons from David Foster Wallace’s “This Is Water” | The Curiosity Chronicle
[2] The Systems View of Life Fritjof Capra , Pier Luigi Luisi
[3] Generative AI: A Creative New World | Sequoia Capital
[5] We’re entering a “new era of science”—we finally have enough data and technology to truly enable better drugs for patients, says insitro CEO Daphne Koller
[6] The article Deep Learning by Yann Le Cunn and Y. Bengio explains the foundational concepts of Generative AI
[7] AI4Science to empower the fifth paradigm of scientific discovery – Microsoft Research
[8] Re-examination of Fundamental Concepts of Heat, Work, Energy, Entropy, and Information Based on NGST
[10] “The Sciences of the Artificial” by Herbert Simon