Por qué es poco probable que tengamos Inteligencia Artificial General pronto

Los gigantes tecnológicos afirman que la inteligencia artificial pronto igualará el poder del cerebro humano. ¿Nos están subestimando?

Cade Metz  16 de mayo de 2025

Imagen

Sam Altman, el director ejecutivo de OpenAI, le dijo recientemente al presidente Trump en una llamada privada que la tecnología llegaría antes de que terminara su mandato. Dario Amodei, director ejecutivo de Anthropic, el principal competidor de OpenAI, ha dicho varias veces en podcasts que podría llegar incluso antes. Elon Musk, el multimillonario tecnológico, también ha dicho que la tecnología podría estar aquí para finales de este año.

Al igual que muchas otras voces en Silicon Valley y más allá, estos ejecutivos predicen la llegada inminente de la inteligencia artificial general, o AGI.

El término “AGI” fue acuñado en la portada de un libro por un grupo de investigadores marginales a principios de la década de 2000 que describía los sistemas informáticos autónomos que esperaban construir algún día. Desde entonces, ha sido la abreviatura de una tecnología futura que alcanzará el nivel de inteligencia humana. No hay una definición fija para la AGI, solo una idea tentadora: una inteligencia artificial capaz de igualar las muchas habilidades de la mente humana.

El Sr. Altman, el Sr. Amodei y el Sr. Musk han perseguido este objetivo durante mucho tiempo, al igual que los ejecutivos e investigadores de empresas como Google y Microsoft. Gracias en parte a su búsqueda entusiasta de esta ambiciosa idea, han desarrollado tecnologías que están cambiando la forma en que cientos de millones de personas investigan, crean arte y escriben programas informáticos. Hoy en día, estas tecnologías prometen remodelar industrias enteras.

Pero desde la llegada de chatbots como ChatGPT de OpenAI y la mejora continua de estos sistemas extraños y poderosos en los últimos dos años, muchos expertos en tecnología se han vuelto más audaces con sus predicciones sobre cuándo llegará la AGI. Algunos incluso han dicho que una vez que logren la AGI, una creación más poderosa llamada “superinteligencia” le seguirá rápidamente.

Estas voces siempre confiadas predicen un futuro cercano, y su especulación supera a la realidad. Si bien sus empresas están impulsando la tecnología a un ritmo deslumbrante, un coro de voces mucho más mesuradas se apresuran a descartar cualquier charla sobre que las máquinas pronto igualarán la inteligencia humana.

“La tecnología que estamos construyendo ahora no es suficiente para llegar allí”, dijo Nick Frosst, fundador de la startup de IA Cohere, quien fue investigador en Google y estudió con algunos de los investigadores de IA más respetados de los últimos 50 años. “Lo que estamos construyendo ahora es algo que puede tomar palabras y predecir la siguiente palabra más plausible, o tomar píxeles y predecir el siguiente píxel más plausible. Eso es muy diferente de lo que haces tú o yo.”

Más de las tres cuartas partes de las personas encuestadas en una encuesta reciente de la Association for the Advancement of Artificial Intelligence, una organización académica de 40 años cuyos miembros incluyen a algunos de los investigadores más respetados en el campo, dijeron que era poco probable que los métodos actuales para construir tecnología AGI dieran como resultado AGI.

Parte de la división se debe a que los científicos ni siquiera pueden ponerse de acuerdo sobre cómo definir la inteligencia humana, discutiendo sobre los méritos y deméritos de las pruebas de coeficiente intelectual y otros puntos de referencia. Comparar el cerebro humano con una máquina es aún más subjetivo. Eso significa que cómo defines la inteligencia artificial general, o AGI, está en gran medida en el ojo del que mira. (El año pasado, en una demanda de alto perfil, los abogados de Musk dijeron que la AGI ya existía, porque OpenAI, uno de los principales rivales de Musk, había firmado un contrato con su principal financiador comprometiéndose a no vender productos basados en tecnología AGI.)

Y los científicos no tienen pruebas definitivas de que las tecnologías actuales puedan hacer algunas de las cosas más simples que el cerebro puede hacer, como reconocer el sarcasmo o sentir empatía. Las afirmaciones de que la inteligencia artificial general está a la vuelta de la esquina se basan en inferencias estadísticas y en ilusiones.

Según varios puntos de referencia, la tecnología actual está mejorando continuamente en varias áreas importantes, como las matemáticas y la programación informática. Pero estas pruebas solo describen una fracción de las habilidades humanas.

Los humanos saben cómo navegar por un mundo desordenado y en constante cambio. Las máquinas tienen dificultades con lo inesperado, las cosas grandes y pequeñas que no se parecen a nada que haya sucedido antes. Los humanos pueden idear ideas que nunca antes se habían visto. Las máquinas suelen repetir o aumentar cosas que ya han visto.

Por estas razones, el Sr. Frosst y otros escépticos creen que para que las máquinas alcancen la inteligencia a nivel humano, se requerirá al menos una gran idea que los expertos tecnológicos del mundo aún no han concebido. No se sabe cuánto tiempo llevará eso.

“El hecho de que un sistema sea mejor que las personas en alguna tarea no significa que sea mejor en todo lo demás”, dijo Steven Pinker, científico cognitivo de la Universidad de Harvard. “No existe una máquina omnisciente que resuelva automáticamente todos los problemas, incluidos los problemas en los que ni siquiera hemos pensado todavía. Es fácil caer en el pensamiento mágico. Pero estos sistemas no son milagros. Son dispositivos muy impresionantes.”

“La IA puede cumplir el objetivo”

Chatbots como ChatGPT son impulsados por lo que los científicos llaman redes neuronales, sistemas matemáticos que pueden identificar patrones en datos como texto, imágenes y sonidos. Al encontrar patrones, por ejemplo, en colecciones masivas de artículos de Wikipedia, noticias y chats de Internet, estos sistemas pueden aprender a generar texto similar al humano por sí solos, como poemas y programas informáticos.

Esto significa que los sistemas pueden mejorar a un ritmo mucho más rápido que las tecnologías informáticas antiguas. Durante décadas, los ingenieros de software construyeron aplicaciones escribiendo código línea por línea, un proceso paso a paso que nunca podría crear algo tan potente como ChatGPT. Debido a que las redes neuronales pueden aprender de los datos, pueden alcanzar nuevas alturas, y alcanzarlas rápidamente.

Después de ser testigos de las mejoras en estos sistemas en los últimos 10 años, algunos expertos en tecnología creen que el progreso continuará al mismo ritmo, hacia la AGI e incluso más allá.

“Todas estas tendencias apuntan a la disolución de los límites”, dijo Jared Kaplan, científico jefe de Anthropic. “La IA es muy diferente de la inteligencia humana. Es mucho más fácil para los humanos aprender nuevas tareas. No necesitan mucha práctica como la IA. Pero eventualmente, con más práctica, la IA puede cumplir el objetivo.”

Entre los investigadores de IA, el Dr. Kaplan es conocido por publicar un artículo académico fundamental que describió lo que ahora se llaman leyes de escala. La esencia de estas leyes: cuanta más data analiza un sistema de IA, mejor es su rendimiento. Al igual que un estudiante aprende más leyendo más libros, un sistema de IA puede descubrir más patrones en el texto y aprender a imitar las formas en que los humanos unen palabras con mayor precisión.

En los últimos meses, empresas como OpenAI y Anthropic casi han agotado todo el texto en inglés de internet, lo que significa que necesitan una nueva forma de mejorar sus chatbots. Así que se han apoyado más en una técnica que los científicos llaman aprendizaje por refuerzo. A través de este proceso, un sistema puede aprender comportamientos por ensayo y error, un proceso que puede durar semanas o incluso meses. Por ejemplo, al resolver miles de problemas matemáticos, puede aprender qué trucos llevan a respuestas correctas y cuáles no.

Gracias a esta técnica, investigadores como el Sr. Kaplan creen que las leyes de escala (o algo similar) continuarán. A medida que la tecnología pruebe y aprenda en una amplia gama de dominios, dijeron los investigadores, seguirá una trayectoria similar a la de AlphaGo, que fue construida por un equipo de investigadores de Google en 2016.

Mediante el aprendizaje por refuerzo, AlphaGo dominó el juego de Go, un complejo juego de mesa chino similar al ajedrez, jugando millones de partidas contra sí mismo. Esa primavera, derrotó a uno de los mejores jugadores humanos del mundo, sorprendiendo al mundo de la IA y más allá. La mayoría de los investigadores creían anteriormente que la IA todavía estaba a 10 años de este logro.

AlphaGo jugó el juego de maneras que los humanos nunca habían concebido, enseñando a los mejores jugadores humanos nuevas y estratégicas formas de abordar el antiguo juego. Algunos creen que sistemas como ChatGPT pueden dar el mismo salto, alcanzando el nivel de inteligencia artificial general, o AGI, y luego volviéndose superinteligentes.

Pero juegos como Go operan dentro de un conjunto de reglas estrecho y finito. El mundo real solo está limitado por las leyes de la física. Modelar todo el mundo real está mucho más allá de las capacidades de las máquinas actuales, entonces, ¿quién puede estar seguro de que la inteligencia artificial general, por no hablar de la superinteligencia, está a la vuelta de la esquina?

La brecha entre personas y máquinas

Innegablemente, las máquinas actuales ya superan al cerebro humano en algunos aspectos, pero esto ha sido cierto desde hace mucho tiempo. Las calculadoras realizan matemáticas básicas más rápido que los humanos. Chatbots como ChatGPT escriben más rápido, y mientras escriben, pueden extraer instantáneamente más texto del que cualquier cerebro humano puede leer o memorizar. En algunas pruebas que involucran matemáticas avanzadas y codificación, estos sistemas se desempeñan incluso mejor que los humanos.

Pero los humanos no pueden reducirse a estos puntos de referencia. “Hay muchos tipos de inteligencia en la naturaleza”, dijo Josh Tenenbaum, profesor de ciencias cognitivas computacionales en el M.I.T.

Una diferencia obvia es que la inteligencia humana está ligada al mundo físico. Se extiende más allá de las palabras, los números, los sonidos y las imágenes a mesas y sillas, estufas y sartenes, edificios y automóviles, y todo lo demás que tocamos en nuestra vida diaria. Parte de la inteligencia es saber cuándo dar la vuelta a una tortita que está en una sartén.

Algunas empresas han comenzado a entrenar robots humanoides de manera muy similar a como otras entrenan chatbots. Pero esto es mucho más difícil y requiere más tiempo que construir ChatGPT, ya que requiere grandes cantidades de entrenamiento en laboratorios físicos, almacenes y hogares. La investigación en robótica va muy por detrás de la investigación en chatbots.

La brecha entre las personas y las máquinas es aún mayor. Tanto en el mundo físico como en el digital, las máquinas todavía luchan por igualar las partes más difíciles de definir de la inteligencia humana.

Los nuevos métodos para construir chatbots, el aprendizaje por refuerzo, funcionan bien en áreas como las matemáticas y la programación informática, donde las empresas pueden definir claramente qué constituye un comportamiento bueno o malo. Los problemas matemáticos tienen respuestas irrefutables. Los programas informáticos deben compilarse y ejecutarse. Pero la técnica no funciona bien con la escritura creativa, la filosofía o la ética.

El Sr. Altman escribió recientemente en X que OpenAI había entrenado un nuevo sistema que era “bueno en escritura creativa”. Añadió que era la primera vez que se había “sido genuinamente conmovido emocionalmente por algo que escribió una IA”. Escribir es una de las cosas en las que estos sistemas son mejores. Pero la “escritura creativa” es difícil de medir. Adopta diferentes formas en diferentes situaciones y presenta rasgos que son difíciles de explicar e incluso más difíciles de cuantificar: sinceridad, humor, honestidad.

Cuando estos sistemas se implementan en el mundo, los humanos les dicen qué hacer y los guían a través de momentos novedosos, cambiantes e inciertos.

“La IA nos necesita a nosotros: estos seres creativos que siguen produciendo, que siguen alimentando las máquinas”, dijo Matteo Pasquinelli, profesor de filosofía de la ciencia en la Universidad Ca’ Foscari de Venecia. “Necesita la originalidad de nuestras mentes y nuestras vidas.”

Emociones y fantasías

La llegada de la inteligencia artificial general, o AGI, es emocionante dentro y fuera de la industria tecnológica. El sueño humano de crear un ser artificial se remonta al mito del golem, que surgió en el siglo XII. Obras como Frankenstein de Mary Shelley y 2001: A Space Odyssey de Stanley Kubrick surgieron de esta fantasía.

Muchos de nosotros ahora usamos sistemas informáticos que pueden escribir como nosotros e incluso hablar, por lo que es natural asumir que las máquinas inteligentes están a la vuelta de la esquina. Es lo que hemos estado esperando durante siglos.

Un grupo de académicos fundó el campo de la inteligencia artificial a finales de la década de 1950 convencidos de que pronto podrían construir computadoras que simularan el cerebro humano. Algunos creyeron que en una década, las máquinas podrían derrotar al campeón mundial de ajedrez y descubrir teoremas matemáticos por sí mismas. Nada de eso sucedió en ese plazo. Algunas cosas aún no han sucedido.

Muchos de los desarrolladores en el mundo tecnológico actual creen que están logrando algún tipo de destino tecnológico, impulsando un momento científico inevitable, como la invención del fuego o el nacimiento de la bomba atómica. Pero no pueden ofrecer una razón científica de que el momento esté a la vuelta de la esquina.

Por esta razón, muchos otros científicos creen que la inteligencia artificial general no se puede lograr sin una nueva idea, algo que vaya más allá de las poderosas redes neuronales que simplemente encuentran patrones en los datos. Esta nueva idea podría llegar mañana. Pero incluso si llega, la industria tardará años en desarrollarla.

Yann LeCun, científico jefe de IA en Meta, ha soñado con construir lo que ahora llamamos AGI desde que tenía 9 años y vio la película de 70 milímetros en pantalla ancha Panavisión “2001: A Space Odyssey” en un cine de París. También es uno de los tres pioneros que compartieron el Premio Turing, considerado el Premio Nobel de la informática, en 2018 por su trabajo inicial en redes neuronales. Pero no ve la llegada de la AGI como algo seguro.

En Meta, su laboratorio de investigación está explorando fuera de los límites de las redes neuronales que han cautivado a la industria tecnológica. El Sr. LeCun y sus colegas están buscando la idea que falta. “Si la próxima generación de arquitecturas puede lograr IA a nivel humano en los próximos 10 años es crítico”, dijo. “Quizás no. Aún no está garantizado.”

Cade Metz es reportero de The New York Times y cubre inteligencia artificial, vehículos autónomos y máquinas.

Etiqueta Principal:Inteligencia Artificial General (AGI)

Etiquetas Secundarias:Inteligencia ArtificialInteligencia HumanaPredicciones TecnológicasAprendizaje Automático


Anterior:Avance de Qwen: Usando "Computación Paralela" en Lugar de "Acumulación de Parámetros", el Nuevo Método Reduce la Memoria en 22x y la Latencia en 6x

Siguiente:Avance en Razonamiento: ¿Cómo SoftCoT++ Permite a los LLM 'Pensar Múltiples Caminos'?

Compartir URL Corta