Hace unos 50 000 años en algún lugar del medio oriente hubo un encuentro. Un encuentro singular que cambió el rumbo de la historia de la humanidad para siempre.
Un individuo de la familia Neandertal, la especie humana que había dominado durante milenios esa península de Asia que hoy llamamos Europa, se topó con su reto más importante. La misma especie que se había enfrentado a infinidad de retos a lo largo de su existencia, depredadores, catástrofes naturales, pandemias y glaciaciones, ahora tenía un desafío superior. Se encontró con un nuevo «ser» tan inteligente como ellos, el Homo sapiens, y lo que le había diferenciado como especie, como la capacidad cognitiva, el razonamiento, el pensamiento simbólico o poder comunicarse con el habla, ya no era una ventaja frente a ese nuevo «ser».
Durante los siguientes 20 000 años ambas especies compartimos ecosistema, pero finalmente nuestra especie, el Homo sapiens, acabó por desplazar, absorber y extinguir a la especie aborigen del territorio europeo. No sabemos a ciencia cierta si durante ese periodo hubo enfrentamientos o convivencia. Pero lo que es seguro es que hubo hibridación interespecie. Un pequeño porcentaje de los genes de algunos humanos actuales contiene ADN de estos neandertales.
Las herramientas
El sapiens, nuestra especie, no contento con sus capacidades biológicas, durante toda la historia de la humanidad ha creado tecnología para tratar de mejorarse, desarrollando herramientas que nos completan tanto física como intelectualmente y ampliar así aún más nuestra ventaja frente al resto de especies.
Creamos hachas o cuchillos de sílex como extensión de nuestros dientes. Arcos, flechas y ondas como extensión de nuestros brazos y así poder lanzar piedras, más fuerte y más lejos. Creamos carros tirados por animales y más tarde por motores de combustión como extensión de nuestras piernas y así poder transportarnos más rápido y más lejos. Las herramientas están íntimamente ligadas a nuestro físico, hasta tal punto que han contribuido en su cambio. Un ejemplo es la domesticación del fuego y la evolución de nuestro sistema digestivo. Pero no nos hemos conformado con querer mejorar nuestras capacidades físicas, también hemos querido aumentar nuestras capacidades cognitivas. Creamos la escritura, como extensión de nuestra memoria y capacidad de comunicación y creamos las matemáticas para explicar el universo que nos rodea y en combinación con la escritura, también para ser capaces de hacer cálculos más complejos y precisos.
Milenios más tarde, creamos las máquinas de cómputo y los ordenadores como extensión de nuestra capacidad de razonamiento, y así con infinidad de avances tecnológicos que consiguen superar nuestras limitaciones cognitivas, hasta que finalmente creamos la inteligencia artificial.
Inteligencia Artificial Débil y General (AGI)
Desde hace tiempo la IA ya es capaz de realizar ciertas tareas cognitivas mejor de lo que lo haría el humano más capacitado para realizar esa función concreta. Jugar a juegos como el ajedrez, traducir textos, detectar cánceres en radiografías o tomografías donde el ojo humano no puede ver, son algunos ejemplos.
Esto es lo que llamamos Narrow artificial intelligence o «inteligencia artificial débil», y cada tarea, jugar al ajedrez, detectar anomalías en imágenes o la conducción autónoma requieren de algoritmos diferentes o al menos requieren de un entrenamiento (ver recuadro) diferente para cada uno de esos algoritmos.
Dicho de otra manera, si quisiéramos que un modelo de IA débil que sabe jugar al ajedrez mejor que el campeón mundial conduzca un coche de manera autónoma, traduzca un texto o detecte cánceres en radiografías, sería imposible. Están preparados para hacer una sola tarea.
En definitiva, la IA débil no son algoritmos generalistas o no pueden hacer tareas diferentes al propósito para el que han sido entrenadas.
Sin embargo, con el cerebro humano no ocurre lo mismo. A un niño, le podemos enseñar a jugar al ajedrez y a ese mismo niño le podemos enseñar a hablar un idioma, a localizar animales en imágenes, a andar o a conducir un vehículo y aprenderá sin dificultad. El cerebro humano es una máquina preparada para aprender infinidad de tareas. Es generalista o al menos, aunque (el cerebro) tenga partes diferenciadas, está orquestado para funcionar como un único órgano generalista. Si pudiéramos hacer eso con una máquina, habríamos alcanzado lo que llamamos inteligencia artificial general, AGI.
Hasta la aparición de una nueva arquitectura de redes neuronales artificiales, las redes de tipo transformer (que da nombre a la «T» de GPT) y con ellas, los llamados grandes modelos de lenguaje (LLM) basados en estas grandes redes neuronales artificiales, se pensaba que la AGI llegaría más allá del 2045, pero hoy en día ese punto está tan cercano como difuso.
Muchos piensan que la AGI será binaria, es decir que un modelo de IA la tendrá o no la tendrá. Algo así como tener vida. Aunque también existe cierto debate, hay cierto consenso en que la vida es binaria, o se tiene vida como un animal o una planta o no se tiene, como una roca. Es decir, afirman que habrá un avance tecnológico que lo permitirá. Un punto singular en el tiempo y será un antes y un después. Metafóricamente sería algo así como la abiogénesis de la AGI, término que utilizan los biólogos para describir (en una de las teorías) ese momento en que se creó vida a partir de materia inerte.
Pero otros, pensamos que aunque existen catalizadores, la AGI será y es gradual. Incluso que gracias al avance tecnológico de estos grandes modelos de lenguaje (LLM) hemos alcanzado ya algún grado de «generalidad» en la IA y con los nuevos modelos «razonadores» como o3 anunciados hace unos días por OpenAI, aun más.
Aunque no existe consenso en la definición de AGI, según la mayoría de los expertos y publicaciones, la AGI es una representación teórica de una inteligencia artificial capaz de resolver tareas complejas con capacidades cognitivas humanas generalistas.
Por lo tanto, como el cerebro de un niño, los cerebros digitales de hoy en día están ya preparados para hacer gran parte de las tareas cognitivas que son capaces de hacer los humanos. Es decir, son ya generalistas y cada vez lo son más. Pueden traducir textos, resolver problemas matemáticos, responder a preguntas mejor que el humano medio, crear imágenes y vídeos, entender un vídeo, programar código, resolver problemas matemáticos complejos, resumir textos, razonar e incluso aprender a andar si le proveemos de un «cuerpo» como el de un robot. Y todo ello sin haber sido específicamente entrenados para cada una de esas tareas, son propiedades emergentes.
La emergencia
Los sistemas emergentes son aquellos donde las propiedades del nuevo sistema resultante de la agrupación de otras pequeñas partes no pueden explicarse por las propiedades de sus partes constituyentes, si no únicamente a partir de su integración y carácter interactivo. Es decir, surgen capacidades que aparentemente no tienen ninguna relación con las propiedades de las partes que la constituyen.
Un ejemplo claro de un sistema emergente en el ámbito de la física son fenómenos como la humedad (una sola gota de agua no produce humedad) o la superconductividad de algunos materiales. Pero otro ejemplo más fácil de comprender podría ser el de una película emitida en una televisión led, frente a los elementos que componen las diferentes imágenes, los píxeles. La película resultante, el mensaje y el argumento que percibimos no se podría explicar con las propiedades de un píxel, que lo único que hace es cambiar de color con una frecuencia determinada, y la orquestación de todos ellos da como resultado una historia que es capaz incluso de transmitir un mensaje con contenido complejo, cómico, romántico, dramático o didáctico.
En los humanos el razonamiento, la creatividad y la consciencia podrían también emerger de algún tipo de comportamiento colectivo de las neuronas de nuestra corteza cerebral. Algo similar podría estar pasando en estos grandes modelos de lenguaje ya que, como hemos visto, surgen comportamientos y cualidades no esperadas como el razonamiento, la creatividad e, incluso quizá, algún grado de consciencia. Y por supuesto, entre ellas, la capacidad de realizar tareas generalistas, lo que nos lleva a afirmar que ya hemos alcanzado ya algún grado de AGI.

No es una herramienta
Esta vez no estamos creando una simple herramienta que nos mejora, como muchos afirman, sino un ente con agencia, con capacidad de tomar decisiones, con entidad en sí misma. Algo así como crear vida propia.
Esta capacidad de actuar intencionalmente, o con agencia, es lo que para muchos filósofos y pensadores ha distinguido a los seres humanos del resto de animales y, por supuesto, de las máquinas.
Un martillo o una llave inglesa son herramientas, incluso algo tan potente como una bomba atómica, pero ninguno de estos inventos tiene agencia, es decir, no tiene la capacidad de tomar decisiones. La agencia está en quien las crea o en quien las utiliza: los humanos y, en mi opinión, los animales, al menos con cierto grado.
Las aplicaciones de IA débil, como un sistema de reconocimiento de voz o un sistema que detecte cánceres en imágenes, también son herramientas. Y al igual que un destornillador o un taladro están hechas para un propósito concreto y, por tanto, no tiene agencia o entidad propia. Pero la AGI es un invento muy diferente.
Y si esto es así, ¿por qué seguimos negando la evidencia? ¿Por qué seguimos diciendo que es una herramienta, que no tienen agencia o que la
AGI no ha llegado? En parte por desconocimiento, puede que por interés, pero principalmente por miedo, miedo a ser desplazados por esta nueva inteligencia, miedo al cambio, miedo a perder un modo de vida, miedo a la incertidumbre al ver que las habilidades cognitivas que se creían exclusivas de los humanos como razonar, la creatividad, la generalidad y probablemente cierto grado de consciencia, ya han sido adquiridas por las máquinas, y que podamos perder entonces ese «status» de que el «humano» es un «ser» con características «mágicas», «divinas» e irreplicables que nos diferencian de las máquinas y del resto de las especies de animales. Miedo similar al que tuvieron nuestros antepasados cuando Copérnico o Galileo afirmaron que la Tierra no era el centro del universo o cuando Darwin propuso que el humano es fruto de la evolución y no de la construcción divina. Al fin y al cabo, saber que nuestra mente puede ser replicada en una máquina nos hace abrir los ojos y, de alguna manera, estamos rechazando o poniendo en duda ese excepcionalismo del ser humano como cúspide de la inteligencia. Pero eso tiene más de creencias que de ciencia.
La Superinteligencia
En el pasado mes de noviembre, un informe del Congreso de los Estados Unidos definía la AGI como sistemas que igualan o superan las capacidades humanas en todos los dominios cognitivos y que superarían a las mentes humanas más capacitadas para cada tarea. Como en esta, y en muchas definiciones, se está subiendo el listón, en mi opinión, esta definición estaría más cerca del concepto que hoy se denomina como Superinteligencia Artificial (ASI) que comúnmente se refiere a una inteligencia muy por encima de genios y de las mentes humanas más dotadas. Pero sea como fuere, la nomenclatura correcta, ese punto al que hace referencia esta nueva definición, está a la vuelta de la esquina. Tanto Sam Altman (CEO de OpenAI) como Elon Musk o el recientemente galardonado con el Premio Nobel de Física Geoffrey Hinton coinciden en que llegará antes de final de la década y alguno incluso afirma que podría ser este mismo año.
La era agéntica
Por tanto, entramos en 2025 inmersos en la AGI y con los primeros brotes de la era agéntica. Una nueva era en la que pronto los agentes inteligentes superarán a los humanos tanto en inteligencia como en número. Es decir, en muy poco tiempo habrá más agentes de IA que personas en la Tierra.
El gran reto
50 000 años después de aquel encuentro entre esas dos especies ha llegado este nuevo encuentro, pero esta vez, la nueva especie «inteligente», no nace fruto de la evolución biológica, sino de la evolución tecnológica, en definitiva, como fruto de nuestra propia «inteligencia».
Cómo será o cómo queremos que sea la convivencia con este nuevo ente es el mayor reto al que el ser humano se va a enfrentar como especie. Puede que haya convivencia, enfrentamiento o probablemente, como ocurrió con los sapiens y los neandertales, haya una hibridación interespecie.
