Coches autónomos, recomendación de series o películas, anuncios en redes sociales, asistentes conversacionales... si algo teníamos claro en 2023 es que casi todos los avances tecnológicos se estaban aprovechando de la llamada inteligencia artificial (IA). Lo cierto es que si nos pidieran definir qué es seguramente nos preguntaríamos: ¿postureo o realidad?
Independientemente de la tecnología que te rodea, si te acercas o superas la treintena, uno de los primeros sitios donde percibiste inteligencia artificial fue en una película o un libro. Terminator, Yo robot, Her, HAL 9000 (Odisea en el espacio), J.A.R.V.I.S (Iron Man), KITT (El coche fantástico) o Fundación de Asimov... Si eres más joven, habrás visto algo similar en redes sociales o YouTube. Estas referencias tienen en común una superinteligencia que habla y se adapta al contexto de los personajes. En algunos casos tiene cuerpo físico y lo llamamos robot. Incluso puede que trate de erradicar a los humanos una vez ha «tomado el control». ¿Estamos cerca de este escenario? ¿Es posible que esos escenarios de ciencia ficción se den pronto? Para tu tranquilidad te avanzo que aún no, al menos, no en el corto plazo.

Un breve recorrido por los inicios
Para entender todo lo que está pasando con la IA a nuestro alrededor, sus implicaciones y limitaciones, debemos empezar por el principio. La IA es un campo de estudio perteneciente a las Ciencias de la Computación, es decir, se engloba dentro de lo que comúnmente conocemos como «informática». Era el verano de 1955. Tan solo hace seis años de aquella publicación científica de sir Alan Turing en la que se planteaba la pregunta «¿pueden pensar las máquinas?». En dicha época, las líneas de investigación sobre las máquinas inteligentes giraban alrededor de autómatas, cibernética o procesamiento de la información.
El verano de 1956 en el estado de New Hampshire (EE. UU.), apenas a dos horas de Boston en coche, cuatro investigadores se proponen celebrar un congreso científico de dos meses de duración al que estaban invitadas alrededor de cuarenta personas. El documento se firma bajo el título «A proposal for the Dartmouth Summer Research Project on Artificial Intelligence» (algo así como «una propuesta sobre IA para el proyecto de investigación en Dartmouth»). Los autores de la propuesta fueron John McCarthy, Claude E. Shannon, Marvin Minsky y Nathaniel Rochester, reconocidos investigadores de la época en campos como las matemáticas, la informática o las telecomunicaciones. En la propia convocatoria del evento se detallan siete líneas de investigación que se trabajaron durante esos dos meses de forma conjunta: mediante debates, charlas y artículos científicos. Dichas líneas giraban alrededor de la construcción de un «ordenador inteligente», de cómo se puede programar un ordenador para hablar, de cómo un sistema inteligente se mejora a sí mismo... y luego había otras enfocadas a la capacidad de cómputo, aleatoriedad y creatividad. En ese momento, todas las propuestas eran teóricas, pero fue la primera vez que el campo se denominó «inteligencia artificial».

Desde ese momento, el principal objetivo de la IA se centra en el estudio y desarrollo de sistemas inteligentes que sean capaces de imitar los procesos humanos de razonamiento o comportamiento. Esta se apoya en la computación para conseguir tal fin, es decir, en la programación, las matemáticas y los algoritmos.
El proceso deliberativo de razonamiento
Para entender bien las necesidades de la IA tenemos que hacer una breve introspección a la forma en la que tomamos decisiones los humanos. Seguramente no te hayas dado cuenta, pero tomamos decisiones a diario, constantemente. Digamos que, a lo largo de los años, hemos creado nuestra propia base de conocimiento y experiencias y eso nos ayuda a tomar decisiones de forma constante. Si no disponemos de la información suficiente para tomar una decisión, buscaremos en distintas fuentes (internet, periódicos, blogs, etc.) hasta que podamos entender la situación y sentirnos algo más seguros de la decisión que estamos tomando. Esto ocurre, por ejemplo, a la hora de elegir una carrera universitaria. Otras decisiones son aún más complejas como mudarse a un sitio nuevo o cambiar de trabajo, donde influye no solo el entorno, sino también la experiencia previa y el propio momento en el que se toma esa decisión. Desde el punto de vista del razonamiento, decimos que estamos llevando a cabo un comportamiento deliberativo. Esto significa que ante una situación repetida podríamos tomar decisiones de forma diferente en función de nuestras creencias, objetivos e intenciones.
Sin embargo, existe otro tipo de comportamiento, al que denominamos reactivo, que se acciona inconscientemente, casi siempre. Esto es así porque se ha creado una rutina o simplemente son reglas de conducta que hemos interiorizado. Voy a ilustrarlo con ejemplos. Cuando nos despertamos por la mañana, para ir a estudiar o trabajar, realizamos multitud de tareas en un periodo corto de tiempo, que se llevan a cabo secuencialmente y a diario. Si tratas de escribirlas en forma de lista seguro que salen unas cuantas que incluyen ducharse o echarse el café.

Por otro lado, piensa en la situación en la que te chocas con alguien sin querer, seguidamente le pedirás disculpas. Otro ejemplo, ¿cuántas acciones llevas a cabo de forma inconsciente solo para comentar algo en X o etiquetar a alguien en una foto de Instagram? En todas esas situaciones, las acciones que tomamos son inmediatas, sin apenas deliberación. Es decir, al producirse el mismo contexto o evento, se responde siempre actuando de la misma manera. Lo llamamos comportamiento reactivo.
Las cinco grandes áreas de la inteligencia artificial
Las situaciones que he ilustrado en el párrafo anterior no podrían llevarse a cabo en el mundo real solo mediante el razonamiento. La percepción y la capacidad cognitiva nos ayudan a procesar qué sucede a nuestro alrededor. Por otro lado, la capacidad comunicativa nos permite entendernos con las personas. Una vez hecha esta puntualización, ahora sí, es el momento de que te cuente cómo estudiamos todos estos procesos en IA, en cada una de las áreas de estudio que la componen.
Si tuviésemos que dar forma a ese «cerebro superinteligente» necesitaríamos como mínimo desarrollar, desde el punto de vista computacional, por lo menos cinco capacidades diferentes: en primer lugar, desarrollar una forma de representar el conocimiento para poder establecer relaciones (Knowledge Representation). Después, una forma de planificar tareas y concatenar hechos para poder razonar (Automated Planning & Reasoning). El siguiente paso sería trabajar en el aprendizaje, para poder aprender de los datos y la experiencia (Machine Learning). Por último y no menos importante, sería imprescindible encontrar una manera de percibir y de trabajar la capacidad cognitiva, que nos permitirá procesar y com- prender información en diferentes formatos: alfanumérica, imágenes, vídeo o texto (Computer Vision, Natural Language Processing).

El salto de los laboratorios al mundo real de la inteligencia artificial
Hasta que no se desarrollaron ordenadores más potentes y las grandes corporaciones tecnológicas montaron «la nube» en internet, la IA no era más que un campo de estudio académico. Era difícil ver sus aplicaciones en el mundo real precisamente porque al trabajar con estructuras de datos complejas y al necesitar gran capacidad de cómputo los algoritmos no obtenían buenos resultados. Únicamente se podían hacer experimentos de laboratorio. A partir de 2015 esa tendencia cambia gracias a la explosión del aprendizaje automático o Machine Learning. Alrededor de 2010, en Silicon Valley, empresas como Google, Amazon o Facebook ya almacenaban muchos datos de sus usuarios para aprender a detectar patrones y formas de comportamiento similares entre ellos. Una gran fuente de ingresos para estas empresas seguía siendo la publicidad, así que segmentar a sus usuarios con diferente contenido según intereses, grupo de edad o factores demográficos repercutiría en que (1) los usuarios permanecieran más tiempo en la plataforma gracias a contenidos más afines, (2) que los anunciantes consiguieran mayor impacto gracias a ese público dirigido y (3) que las empr sas tech alcanzasen mayor cantidad de usuarios gracias a la personalización y la recomendación de nuevos usuarios y contenidos. La bola de nieve se haría más grande con el tiempo: el modelo de negocio de las «Big Tech» puso a los usuarios en el centro de sus activos y economía. Si ahora juntamos el auge de las redes sociales, el crecimiento de la nube (que nos permite almacenar aún más datos y trabajar con ordenadores más potentes) y la capacidad que te da internet de escalar un negocio, tenemos todos los ingredientes para que la IA, en este caso capitaneada por los algoritmos de Machine Learning, llamase a la puerta de todas estas empresas.
Unos párrafos atrás decía que el Machine Learning es el área encargada de emular el aprendizaje humano. Su función es convertir los datos en información, estableciendo patrones y relaciones entre ellos, y posteriormente transformar todo esto en conocimiento, gracias a la obtención de nuevos datos para refinar los aciertos y fallos. La única forma de generar conocimiento con éxito es que los modelos inteligentes trabajen durante un tiempo indefinido, para que la obtención de datos sea un flujo constante y podamos sortear episodios anómalos o periodos estacionales. Por ello, empresas y entidades solo pueden utilizar este tipo de algoritmos si disponemos de una gran cantidad de datos, un ordenador más o menos potente y una tarea de aprendizaje que se base en la detección de patrones a lo largo del tiempo. El primer ingrediente, los datos, es el factor limitante y las empresas de Silicon Valley llevaban años de ventaja en la materia.
La inteligencia artificial "específica"
En menos de diez años se han multiplicado los casos de uso del aprendizaje automático en la industria. Por ejemplo, en el sector salud se habla de utilizar este tipo de algoritmos para detección temprana de patologías, establecer pautas de medicación personalizadas o descubrimiento de nuevos fármacos. Otro ejemplo, el sector audiovisual, ¿recuerdas el prestigio que tenía para los actores de Hollywood hacer cine y no series de televisión? Las plataformas apoyadas en datos y algoritmos han cambiado las reglas del juego. Todo el contenido que te aparece en cualquiera de ellas está altamente personalizado en función de tus hábitos, el dispositivo, ubicación e historial de visionado. En deportes, a raíz de la fiebre de los smartwatches, encontramos casos de uso basados en análisis de datos para conocer mejor los puntos fuertes y débiles de nuestro entrenamiento, nuestro equipo o nuestro contrincante. En el sector del empleo se encuentran soluciones y productos que se pueden contratar para hacer filtrado de candidatos o evaluar la felicidad de la compañía.
Son solo algunos ejemplos, pero sirven para ilustrar bastante bien el rumbo que hemos tomado en el desarrollo de la IA. Al principio del artículo hablábamos de robots «Terminator» y a día de hoy hemos terminado trabajando en numerosas inteligencias artificiales aplicadas a casos de uso concretos. ¿Te sientes decepcionado o aliviado?
En los artículos científicos se ha denominado a esa «superinteligencia» IA General (GAI, en inglés). Por otro lado, se habla ahora de la IA Específica (Narrow AI), donde el objetivo es escoger un caso de uso, acotar el contexto y construir un sistema inteligente que sea muy bueno resolviendo esa tarea específica. Esto no significa que hayamos olvidado o descartado el desarrollo de la superinteligencia. Simplemente requiere aún mucho estudio y existe un abismo computacional y de recursos para alcanzarlo con éxito. Ahora te puedes imaginar lo complejo que es construir ese «cerebro».
La inteligencia artificial generativa
Después de conocer lo importantes que son los datos en el proceso de aprendizaje seguramente te estarás preguntando ¿y qué pasa si no hay datos o no son suficientes?
Una de las tendencias que más fuerte ha impactado en el desarrollo reciente de la IA han sido los generadores de imágenes o de texto. Seguramente no te suenen con ese nombre, pero si te hablo de DeepFakes o de FaceApp hasta es posible que los hayas utilizado. En el aprendizaje automático trabajamos con gran foco en tareas como personalizar, recomendar o predecir. La IA generativa trabaja en enseñar a un conjunto de datos aleatorio a parecerse a aquellos que idealmente necesitaríamos para entrenar un algoritmo. Indirectamente, al aplicar estos algoritmos mayoritariamente sobre imágenes, se ha conseguido viralizar el campo de estudio y por ello hemos visto proliferar en medios, prensa y redes sociales la enésima aplicación móvil que te genera un vídeo como si fueses Leo DiCaprio en Titanic, una foto como si tuvieses 70 años o una foto a color generada a partir de la foto en blanco y negro de tus abuelos cuando eran jóvenes. La IA generativa también es muy prometedora en sectores como la salud, donde podremos estudiar mutaciones en la secuenciación genética como recientemente se ha demostrado con AlphaFold.

A pesar de todos estos avances y novedades, hay que hacer un apunte sobre este tipo de algoritmos: a nivel computacional requieren muchos más recursos y mayor tiempo de entrenamiento. También el tipo de algoritmo en el que se apoya el aprendizaje (llamado red de neuronas) es mucho más complejo y difícil de representar en tres dimensiones. El campo del Deep Learning es una ramificación del Machine Learning que se centra en estudiar y evolucionar las redes de neuronas artificiales para que sean capaces de llevar a cabo dichas tareas deaprendizajetancomplejo.
Los riesgos y límites de la inteligencia artificial
A lo largo de todo este artículo he mencionado numerosos avances, áreas, ejemplos, etc., para comprender mejor en qué momento nos encontramos. La proliferación de casos de uso, aplicaciones y su uso masivo nos ha enseñado la otra cara de la moneda, prácticamente oculta hasta hace relativamente poco tiempo: ¿Cómo toman las decisiones estos algoritmos? Sabemos que el rendimiento y las métricas de acierto son buenas, pero a la hora de entender el proceso interno de razonamiento, desde el prisma técnico, nos cuesta explicar qué variable o qué subconjunto de todas las involucradas ha sido la determinante para tomar la decisión final. Los algoritmos de Machine Learning y Deep Learning se denominan de «caja negra» debido a que las propias estructuras de datos que se utilizan para aprender son poco transparentes y difícilmente explicables.
Esa dificultad, unida a la falta de investigación en mecanismos que faciliten la explicabilidad de los algoritmos, ha dado lugar a productos comerciales de ámbito global donde una parte de la población mundial se ha visto perjudicada o invisibilizada. En redes sociales se han producido crisis reputacionales en las GAFAM a raíz de la aparición de noticias que denunciaban sesgos en las decisiones de los algoritmos o su falta de estudio y análisis de los datos con los que se entrenaban. Los equipos de ingeniería se han dado de bruces con una realidad muy humana: si las propias personas tenemos sesgos, muchas veces inconscientes, y en los conjuntos de datos no hay total representatividad de una sociedad diversa es muy posible que un algoritmo herede también dichos sesgos.
A pesar de que se ha generado una gran polémica alrededor de estos temas, ha sido algo muy positivo para dotar a la IA de mayor robustez y garantías. Si es una herramienta que sirve para impulsar la innovación en los diferentes sectores, en aquellos donde las decisiones vayan a impactar en la vida de las personas se deben estudiar mecanismos de regulación o control. Esto no significa que todas las empresas deban entre- gar su algoritmo a un órgano regulador, pero sí que aquellos que tengan repercusión en la población pasen un conjunto de pruebas que garanticen un mínimo de rigor cuando el algoritmo sea ampliamente utilizado. A veces lo comparo como la era que vivieron los coches cuando empezaron a diseñarse elementos como el cinturón deseguridad, el airbag o la propia ITV.
Vamos a vivir una época de aciertos y errores en cuanto al uso de estas tecnologías, pero aún tenemos margen de trabajo. Se va a hablar mucho también de la privacidad de los datos y de su anonimización y su almacenaje. Si te interesa este tema recomiendo ver el documental Sesgo codificado o leer libros como La automatización de la desigualdad, ¿Te va a sustituir un algoritmo? o El poder de la privacidad.
Este artículo fue originalmente publicado en una edición impresa de Muy Interesante.