Lo que la inteligencia artificial no puede resolver: un dilema filosófico de hace 70 años desmonta su lógica predictiva

¿Cómo decidir si una teoría científica es válida cuando encaja perfectamente con los datos, pero sus fundamentos son dudosos? Una propuesta reciente introduce una regla clara para descartar modelos sin fundamento, incluso en inteligencia artificial.
Fuente: ChatGPT / E. F.

En los años 50, el filósofo Nelson Goodman propuso un experimento mental que sigue desconcertando a quienes se preguntan cómo funciona la ciencia. Imaginó una situación en la que todas nuestras observaciones sobre el mundo podrían ser explicadas por teorías radicalmente distintas, pero igual de compatibles con los datos. Así nació el enigma de Goodman (enigma del “verde-grue”), una paradoja que plantea que no basta con observar hechos para construir leyes confiables. El ejemplo, aunque suene abstracto, toca un nervio profundo: ¿cómo sabemos que nuestras predicciones científicas no son fruto de una convención arbitraria?

Ahora, en plena era de la inteligencia artificial, ese viejo dilema ha resurgido con una urgencia inesperada. Un reciente artículo del físico y filósofo Luigi Scorzato propone una solución al problema de Goodman que no solo reabre un debate aparentemente cerrado, sino que desafía los fundamentos mismos de cómo seleccionamos modelos científicos, incluidos los usados por algoritmos de IA. Su propuesta combina precisión matemática con una claridad conceptual poco habitual. Y lo más importante: ofrece una forma concreta de distinguir entre teorías útiles y construcciones vacías, sin recurrir al puro consenso o a la intuición.

El viejo problema del "grue" y su inquietante vigencia

Goodman planteó que, si siempre hemos observado que las esmeraldas son verdes, ¿por qué no decir que son “grue”? Este término inventado designa las cosas que son verdes hasta un momento dado en el tiempo (t0) y azules después de ese punto. Ambas descripciones —“verde” y “grue”— encajan con todos los datos observados hasta t0, pero predicen cosas distintas en el futuro. Entonces, ¿cuál es la diferencia? ¿Por qué “verde” parece más legítimo que “grue”? Este ejemplo, aunque peculiar, ilustra una tensión real en la ciencia: los datos por sí solos no bastan para elegir una teoría. Hay demasiadas opciones posibles que encajan con ellos.

Lo perturbador es que este dilema no se limita a juegos de palabras. Cualquier teoría científica, por precisa que parezca, puede reformularse de maneras igualmente válidas desde el punto de vista lógico, pero que nos llevan a conclusiones radicalmente distintas. La idea de que hay infinitas teorías compatibles con los mismos datos —el problema de la subdeterminación— ha sido discutida durante décadas. Pero su relación directa con la práctica científica cotidiana sigue siendo subestimada. Scorzato la coloca en el centro del debate.

Gráfico con ejes de precisión empírica y concisión epistémica, donde se muestra qué modelos son descartables (rojo) y cuáles son de estado del arte (verde). Fuente: arXiv

El aporte de Scorzato: cuando medir lo medible es lo que importa

Lo que hace diferente el enfoque de Luigi Scorzato es que no intenta justificar las mejores teorías por su capacidad predictiva, como tantos filósofos antes que él. En su lugar, propone una regla para decidir qué modelos científicos deben ser descartados. Para eso, parte de una observación clave: no todo lo que puede formularse puede medirse directamente. Y eso tiene consecuencias profundas. Si una teoría recurre a conceptos que no pueden ser expresados con medidas directas, su valor explicativo queda seriamente limitado.

Según el autor, “el resultado de una medición directa válida siempre se expresa como un valor central y un conjunto convexo que lo contiene” . Esto implica que los conceptos realmente útiles en ciencia deben estar ligados a una forma concreta de ser medidos. No basta con que una idea sea coherente o elegante: si no se puede asociar a una medición con incertidumbre clara, pierde fuerza científica. Esta exigencia excluye formulaciones “grue” no por capricho, sino porque no permiten mediciones directas y precisas.

Epistemicidad y complejidad: una nueva forma de simplicidad científica

Scorzato introduce un concepto central: la “complejidad epistémica”. Esta idea mide cuán complejas son las suposiciones que necesita una teoría para funcionar. No se trata de contar ecuaciones ni líneas de código, sino de evaluar cuánta información adicional necesita un modelo para ser útil. Y, lo más interesante, propone medir esa complejidad solo dentro de las formulaciones que sean empíricamente equivalentes. Es decir, teorías que no solo digan lo mismo, sino que también se puedan medir igual.

Esto cambia radicalmente las reglas del juego. Ya no se trata de qué modelo “suena” mejor, sino de cuál requiere menos suposiciones extra para obtener la misma precisión. Así, las teorías que usan trucos como el “grue” se vuelven más complejas, no porque sean más largas, sino porque hacen más difícil medir lo que afirman. Como dice el artículo: “definir el modelo grue para esmeraldas es más complejo que definir el modelo verde estándar”. Esa diferencia, aunque técnica, permite una forma objetiva de elegir entre teorías aparentemente equivalentes.

Fuente: ChatGPT / E. F.

Modelos descartados y el rol del consenso científico

Una de las consecuencias más poderosas de este enfoque es la definición de lo que Scorzato llama “modelos descartados”. Son aquellos que, comparados con otros, son menos precisos y además requieren más complejidad epistémica para funcionar. No ofrecen ninguna ventaja y, por tanto, no deberían formar parte del debate científico. Esto permite excluir de forma razonada teorías conspirativas, pseudocientíficas o modelos artificialmente complejos, sin necesidad de acudir al consenso como única guía.

Un ejemplo brillante que ofrece el autor es el de la llamada “conspiración de Bielefeld”, una teoría absurda que sostiene que esa ciudad alemana no existe. Aunque puede adaptarse a cualquier contraargumento (como hacen muchas teorías conspirativas), su validez se derrumba porque requiere suposiciones excesivas y no comprobables. Según Scorzato, esto equivale a decir que “no es empíricamente equivalente al modelo original y, por tanto, no es solo una reformulación”. Una herramienta poderosa para distinguir entre ciencia legítima y ficción elaborada.

La IA y el viejo dilema bajo una nueva luz

La propuesta de Scorzato no solo resuelve un problema filosófico. Tiene implicaciones urgentes para la inteligencia artificial. Hoy, los sistemas de IA generan modelos predictivos que parecen ajustarse perfectamente a los datos. Pero eso no significa que sean científicamente válidos. Una red neuronal puede encontrar patrones sin ofrecer ninguna explicación sobre por qué funcionan. Si usamos solo la precisión como criterio, podríamos aceptar modelos que son intrínsecamente “grue”, solo que en forma de datos y matrices.

Por eso, el autor advierte que “la diferencia entre científicos y no científicos es mucho más borrosa en la era de la IA”. Necesitamos, más que nunca, una forma clara de distinguir entre modelos legítimos y otros que solo parecen funcionar. Y para eso, la combinación entre medibilidad directa y complejidad epistémica se convierte en una brújula esencial. La ciencia no puede permitirse perder el control sobre los criterios que justifican sus afirmaciones, especialmente cuando la IA puede producir resultados convincentes sin ofrecer fundamentos comprensibles.

Una solución elegante a un problema esquivo

Al final, el trabajo de Scorzato no busca resolver el problema de la inducción clásica —el de justificar que el futuro se parecerá al pasado—, sino definir qué modelos merecen ser considerados científicamente válidos. Lo hace con herramientas conceptuales sólidas, aplicables no solo a la física, sino también a disciplinas como la historia, donde las teorías pueden adaptarse a cualquier evidencia, como sucede con muchas narrativas revisionistas o conspirativas.

El mérito del artículo no está solo en su propuesta, sino en haber traducido un dilema abstracto en reglas operativas que pueden guiar la práctica científica en el presente. Una teoría que no permite mediciones directas, o que necesita una estructura más compleja que otra para obtener los mismos resultados, debe ser descartada. Esa es la esencia del criterio que propone: claro, mensurable y con potencial para influir en cómo la ciencia y la inteligencia artificial avanzan juntas.

Referencias

Recomendamos en

Así resuelve ChatGPT el dilema del tranvía: la respuesta definitiva

¿Salvarías a cinco personas sacrificando a una? ChatGPT se enfrenta al dilema ético más famoso de la filosofía… y lo llevamos al límite: le pedimos que decida sabiendo que esa única vida en peligro es la suya. Esta es su respuesta. Y lo que revela dice mucho más sobre nosotros que sobre la máquina.
  • Eugenio M. Fernández Aguilar

Una nueva IA logra detectar autismo y TDAH en solo 15 minutos con asombrosa precisión, según una publicación científica

Un nuevo estudio demuestra que una IA puede analizar el movimiento de la mano con sensores milimétricos y clasificar con más del 70 % de precisión si una persona tiene autismo, TDAH o ambos. Además, permite medir la severidad del trastorno mediante biomarcadores como la entropía y el Factor de Fano, abriendo la puerta a diagnósticos más rápidos, objetivos y personalizables.
  • Eugenio M. Fernández Aguilar