top of page

IA: No Todo Lo Que Brilla Es Oro (4)

Actualizado: 25 may

¿Es realmente Inteligente la IA? El Profesor español Ramón López de Mántaras opina que NO.

 

Revisando vídeos de Inteligencia Artificial me encontré con una entrevista del Profesor Ramón López de Mántaras quien lleva casi 50 años estudiando científicamente la Inteligencia Artificial.

Como me parecieron muy interesantes sus puntos de vista revisé otros vídeos que ha publicado en YouTube y me encontré esta titulada: “¿Es realmente inteligente la Inteligencia Artificial?”.

 

Cabe destacar que, desde su perspectiva de investigador en inteligencia artificial básica, presenta varios argumentos para cuestionar si la IA actual, particularmente los grandes modelos de lenguaje (LLMs), son realmente inteligentes en un sentido profundo o similar al humano.

 

Estos son tres de los principales argumentos que se extraen de su ponencia:

 

1.  La falta de conocimientos de sentido común: La inteligencia artificial lleva más de 50 años estancada en el problema fundamental de cómo dotar a las máquinas de conocimientos de sentido común. Estos conocimientos son aquellos que son obvios, compartidos por todos los humanos y adquiridos prácticamente sin esfuerzo a través de nuestras vivencias y experiencias al ser seres vivos y corpóreos que interactúan con el mundo físico y social. La ausencia de este sentido común impide que la IA actual tenga una comprensión profunda del lenguaje y sea capaz de razonar y aprender de formas más similares a las humanas. La creencia de que estos conocimientos emergerán simplemente aumentando la complejidad o el número de parámetros de los modelos de lenguaje es cuestionada.

 

2.  La incapacidad para la comprensión profunda del lenguaje y el razonamiento: Aunque los grandes modelos de lenguaje como ChatGPT puedan parecer tener un nivel superficial de comprensión, hay muchas razones para dudar que tengan una capacidad de comprensión real y profunda o que sean capaces de razonar. El autor ilustra esto con ejemplos de tareas contrafactuales, que requieren el mismo tipo de razonamiento y comprensión que tareas no contrafactuales, pero que probablemente no estaban en los datos de entrenamiento. En una prueba específica con GPT-4o sobre aperturas de ajedrez, donde se alteraba la posición inicial de caballos y alfiles, el modelo tuvo un rendimiento casi aleatorio (54% de acierto) en la versión contrafactual, en comparación con un 90% en la versión no contrafactual. Esta caída drástica en rendimiento ante una situación ligeramente distinta a las vistas en entrenamiento demuestra una falta de razonamiento real. Además, se diferencia la semántica denotacional (la humana, basada en la referencia de las palabras a la realidad) de la semántica distribucional (la de los LLMs, basada en patrones de co-ocurrencia de palabras), señalando que ningún modelo actual puede adquirir el significado denotacional que es el que realmente interesa desde el punto de vista científico.

 

3.  Los modelos de lenguaje se limitan a recuperar y recombinar patrones de texto, no a razonar: La conclusión extraída de pruebas como las tareas contrafactuales es que los grandes modelos de lenguaje recuperan y recombinan patrones de texto ya contenidos en los Corpus utilizados para su entrenamiento, en lugar de razonar. La incapacidad para manejar situaciones hipotéticas o contrafactuales no vistas en los datos de entrenamiento (como la apertura de ajedrez con piezas intercambiadas) se debe a que no hay patrones para esas situaciones en los datos, lo que causa la caída del rendimiento. Este comportamiento basado en la recuperación de patrones se contrapone a lo que se considera un razonamiento genuino. La creencia de que haciendo los modelos más grandes simplemente calculando la siguiente palabra más probable se resolverá el problema del sentido común o emergerá la inteligencia es algo que el autor "no cree en absoluto".

 

El autor también señala que los problemas de contaminación de datos en las pruebas y la falta de benchmarks adecuados dificultan una evaluación fiable de las capacidades de estos sistemas.

 

Destaca que líderes en el campo de la IA reconocen que los grandes modelos de lenguaje por sí solos no son el camino hacia la inteligencia artificial general. El camino a seguir, según su ponencia, implicaría dotar a la IA de cuerpos multisensoriales para interactuar con el mundo, adquirir un modelo del mundo, e integrar diversas formas de razonamiento con percepción, acción y lenguaje, aprendiendo de manera incremental.

 

Considero muy interesante conocer una mirada distinta respecto a este campo en evolución.

Saludos cordiales.

Profesor Gerardo Cerda Neumann, Editor del Blog.

bottom of page