spot_img

Cuando la IA nos abre la mente

- Anuncio -

Introducción: ¿Puede una máquina que predice palabras entender el mundo?

La pregunta —que suena a guión de ciencia ficción— es el corazón del provocador artículo “Open Mind” de James Somers en The New Yorker. En él, se documenta un cambio de paradigma: lo que muchos expertos consideraban un repetidor estadístico de frases está mostrando capacidades que nos obligan a replantearnos qué es pensar.[1]

Vivimos una paradoja tecnológica. Por un lado, CEOs como Dario Amodei de Anthropic predicen la llegada de una IA “más inteligente que un premio Nobel” para 2027. Por otro lado, nuestras interacciones diarias con asistentes digitales a menudo se sienten torpes e irrelevantes, como clics en botones que generan anécdotas falsas sobre viajes a Turquía. Este contraste crea una “niebla” que nos tienta a descartar todo como exageración. Sin embargo, detrás de esa niebla ocurre algo profundo.

La anécdota de la manguera loca: ¿Compresión o coincidencia?

Como relata Somers, su escepticismo inicial como programador se derrumbó al ver a la IA digerir miles de líneas de código, detectar errores sutiles y permitirle crear aplicaciones para iOS en una noche —un trabajo que antes le hubiera tomado un mes.

La experiencia es tan transformadora que invita a una pregunta incómoda: ¿Qué tan convincente tiene que ser la ilusión de comprensión antes de que dejemos de llamarla ilusión?

El artículo relata un caso revelador. Un hombre, frente a un intrincado sistema de tuberías en un parque infantil, envió una foto a ChatGPT-4o. La IA no solo identificó el sistema como un “preventor de reflujo” típico de riego, sino que señaló la válvula específica que debía girar. El agua fluyó, seguido de los gritos de alegría de los niños. Este momento trivial es un microcosmos del debate. ¿Actuó la IA con comprensión genuina del problema físico y espacial, o solo encadenó palabras de descripciones similares en su base de datos?

Para la neurocientífica Doris Tsao, de UC Berkeley, los avances en aprendizaje automático —el proceso por el cual las máquinas aprenden de datos masivos— “nos han enseñado más sobre la esencia de la inteligencia que cualquier cosa que la neurociencia ha descubierto en los últimos cien años”. Su conclusión, extraída de trabajar con estos modelos, es radical: “Creo que desmitifica radicalmente el pensamiento”.

El argumento en contra: ¿Solo una imagen borrosa de la web?

Frente a este asombro, existe una postura crítica sólida y necesaria. Como argumentó Ted Chiang, modelos como ChatGPT serían solo una “imagen borrosa en formato JPEG de la Web”, una compresión con pérdida de resolución que procesa información sin entender verdaderamente la imagen que capturaba. Lingüistas como Emily M. Bender los han calificado como meros cotorros que repiten sin entender. Además, se ha denunciado su insaciable consumo energético y potencial para marginalizar trabajadores.

No obstante, como señala Samuel J. Gershman, científico cognitivo de Harvard, este escepticismo duro es cada vez más difícil de sostener. Estos sistemas “están haciendo cosas que muchos de nosotros no creíamos que se lograrían”. La clave podría estar en una idea simple pero poderosa: la comprensión es compresión. Recientes avances, como los modelos open-source de 2025 o Grok 4, refuerzan este punto, mostrando aplicaciones prácticas en codificación y resolución de problemas cotidianos.

El vínculo inesperado: De la IA a la inteligencia colectiva

Pero esta inteligencia emergente en los centros de datos plantea un espejo: ¿cómo organizamos y orientamos nuestra propia inteligencia colectiva frente a ella? El artículo de Somers nos habla de una inteligencia emergente en un centro de datos. Pero nuestro verdadero desafío como sociedad es canalizar todas las inteligencias —artificiales y humanas— hacia un propósito común.

El concepto de inteligencia colectiva, definido como una inteligencia distribuida y coordinada que moviliza competencias para un enriquecimiento mutuo, es más relevante que nunca. La filósofa de la tecnología Eurídice Cabañes advierte, sin embargo, del riesgo de caer en la “inteligencia delegada”, donde abdicamos de nuestro pensamiento crítico a algoritmos y plataformas.

En México, donde la brecha digital afecta a millones, ¿usaremos la IA para empoderar comunidades o para profundizar desigualdades en educación y empleo?

La verdadera pregunta para el público lector de #TdeTecnología no es solo si la IA piensa, sino cómo pensaremos nosotros con y alrededor de ella. ¿Seremos administradores pasivos de herramientas, o sabremos cultivar, como sugieren las investigaciones, equipos donde la diversidad, la participación equitativa y las buenas relaciones humanas potencien una inteligencia colectiva auténtica?

Ejemplos de este “pensar junto a la IA” ya están surgiendo en la vida real. En escuelas creativas, la IA no reemplaza al maestro, sino que sirve como un ayudante que adapta las tareas a cada alumno, dando más tiempo para la guía personal y las discusiones en grupo. En los laboratorios, acelera el estudio de proteínas para crear nuevos remedios, pero son los equipos de expertos de distintas áreas quienes deciden las cuestiones éticas y qué priorizar. El reto es crear maneras de trabajar en equipo —ya sea en la educación, la ciencia o la política— donde la máquina potencie nuestras ideas, sin quitarle el lugar al juicio y la creatividad que compartimos como humanos.

El futuro que pintan Altman o Amodei puede ser “totalmente diferente”. Pero el nuestro, el humano, no lo decidirán sus modelos. Lo decidiremos nosotros, dependiendo de si usamos estas tecnologías para cerrarnos en burbujas algorítmicas o para, verdaderamente, abrir la mente.

[1] The Case That A.I. Is Thinking | The New Yorker

- Anuncio -spot_img
- Anuncio -

MÁS RECIENTE

- Anuncio -

NO DEJES DE LEER

- Anuncio -