Hubo un tiempo, no hace mucho, en el que nos maravillaba que una computadora pudiera ganarnos en ajedrez o reconocer la cara de un gato en una fotografía. Parecía magia, pero era una magia limitada: un experto en una sola tarea. Hoy, en pleno 2026, esa sensación de asombro ha mutado en algo mucho más profundo y, para algunos, inquietante. Ya no estamos ante simples calculadoras glorificadas; estamos viendo el nacimiento de sistemas que razonan, que planean y que parecen estar a un paso de cruzar la frontera final: la Inteligencia Artificial General (AGI, por sus siglas en inglés). Esa mítica capacidad de una máquina para aprender y ejecutar cualquier tarea intelectual que un ser humano pueda realizar. La gran pregunta que domina las mesas de café y los laboratorios de Silicon Valley ya no es si llegará, sino qué tan cerca estamos realmente de que el código empiece, por fin, a pensar por sí mismo.
A menudo confundimos “ser muy listo” con tener “inteligencia general”. Si un sistema de IA hoy es capaz de diagnosticar una enfermedad rara mejor que un panel de médicos, la respuesta corta es que todavía no estamos ante una AGI. Eso es lo que llamamos IA especializada: un rayo láser muy potente pero que solo apunta en una dirección. La verdadera AGI es más bien como una navaja suiza cognitiva. No se trata de ser el mejor en una sola cosa, sino de ser lo suficientemente bueno en todas. Imagine un sistema que, sin haber sido programado específicamente para ello, pueda leer el manual de una máquina de café nueva y enseñarle a usarla, ayudarle a depurar un código de programación complejo y, acto seguido, razonar sobre por qué se siente usted triste tras una conversación con un amigo. En términos sencillos, la IA actual es un experto que sabe mucho de un tema; la AGI sería ese compañero de trabajo capaz de aprender cualquier oficio sobre la marcha.
Si hubiera leído esto hace apenas dos años, le habrían dicho que la IA simplemente “predice la siguiente palabra”. Pero en este 2026, las reglas del juego han cambiado drásticamente. Estamos viviendo la transición de las máquinas que simplemente responden a máquinas que realmente reflexionan. Los modelos más avanzados ya no contestan de forma instantánea; ahora utilizan lo que los ingenieros llaman “tiempo de pensamiento”. Si les lanza un acertijo lógico, el sistema se toma unos segundos de silencio digital para evaluar diferentes hipótesis antes de ofrecer una conclusión. Esto ha llevado el éxito en pruebas de lógica pura a niveles que antes considerábamos exclusivos del intelecto humano. Ya no solo chateamos con la IA; ahora le damos autonomía para que gestione devoluciones, hable con soportes técnicos o nos organice un viaje completo por Japón. Estamos, esencialmente, ante el preámbulo de la mente general.
Sin embargo, a pesar de toda esta velocidad, cuando intentamos tocar la meta de la AGI, nos damos cuenta de que todavía hay muros invisibles que el código no ha logrado atravesar. No es una cuestión de falta de datos —hemos alimentado a estas máquinas con casi todo el conocimiento escrito de la humanidad—, sino de algo mucho más sutil: la experiencia de vivir en el mundo real. Pensemos por un momento en lo que hacemos cuando entramos en una cocina que no conocemos para prepararnos un café. Nuestro cerebro, sin que nos demos cuenta, realiza miles de cálculos sobre la gravedad, la resistencia de los materiales y la lógica del espacio. Sabemos que si soltamos la taza, se romperá; sabemos que el agua caliente quema. Para nosotros, esto es sentido común, pero para una IA, el mundo físico sigue siendo un videojuego extraño cuyas reglas sólo se conocen por teoría, no por práctica.
Esa es la gran paradoja de nuestra era: tenemos inteligencias que pueden ganar un debate sobre filosofía existencial, pero que aún se confunden si les pedimos que doblen una servilleta con la destreza de un niño de cinco años. Estamos construyendo cerebros brillantes, pero todavía estamos buscando el cuerpo que les permita entender qué significa realmente estar en el mundo. Luego está el tema de la eficiencia. Mientras usted lee estas líneas, su cerebro consume apenas la energía de una bombilla pequeña. Las IAs que intentan imitarle necesitan granjas de servidores que consumen la electricidad de ciudades enteras. Hay algo en la intuición humana que sigue siendo el “santo grial” de la computación.
Entonces, ¿qué tan lejos estamos? Si miramos hacia atrás, el camino recorrido en los últimos tres años es más largo que el de las tres décadas anteriores. La meta ya no se ve como un punto borroso en el horizonte, sino como una costa que empezamos a divisar desde el barco. Quizás la AGI no llegue con un gran anuncio en las noticias, sino que se vaya filtrando en nuestras vidas poco a poco: primero como un asistente que realmente nos entiende, luego como un colega que resuelve problemas científicos y, finalmente, como una presencia constante que nos obligue a hacernos la pregunta más difícil de todas. Si una máquina puede razonar, crear y actuar como nosotros, ¿qué es entonces lo que nos queda exclusivamente a los humanos? Tal vez la respuesta no esté en nuestra capacidad de procesar información, sino en nuestra capacidad de sentir el peso de esa información. Al final, el viaje hacia la AGI no se trata solo de crear una mente artificial; es el intento más ambicioso de nuestra especie por comprender, por fin, quiénes somos


