Apple cuestiona el potencial de los modelos de IA para desarrollar razonamiento complejo

420

Apple advierte sobre los límites del razonamiento en los modelos de inteligencia artificial más avanzados. En su nuevo estudio titulado “La ilusión del pensamiento”, investigadores de la compañía concluyen que los modelos de razonamiento de gran tamaño (LRM) muestran deficiencias críticas en entornos complejos y no logran desarrollar capacidades generalizables de resolución de problemas.

El estudio, publicado días antes de la Conferencia Mundial de Desarrolladores de Apple, analizó el desempeño de modelos como OpenAI o3-mini, DeepSeek-R1, Claude-3.7-Sonnet-Thinking y Gemini Thinking, utilizando entornos de rompecabezas algorítmicos con complejidad creciente. Los resultados muestran que la precisión de los modelos colapsa a cero cuando se enfrentan a problemas que superan ciertos niveles de dificultad.

Los investigadores cuestionan tanto la escalabilidad de estos modelos como los métodos actuales de evaluación, basados en puntos de referencia estándar. Según Apple, es necesario adoptar pruebas más controladas y experimentales para entender realmente las capacidades de razonamiento de la IA.

También ponen en duda que los LRM representen un avance real hacia la IA general, una tecnología teórica que busca emular la inteligencia humana. En cambio, señalan que los modelos actuales siguen basándose en predicciones secuenciales y tienen limitaciones inherentes por su dependencia del reconocimiento de patrones.

Este informe llega en un momento en el que Apple enfrenta presión por sus avances en IA, tras haber quedado rezagada frente a sus competidores y con expectativas moderadas ante el lanzamiento de su plataforma Apple Intelligence, desarrollada junto a OpenAI.

Investing (09/06/2025)

Más información aquí

Si te resultó útil...Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin
Email this to someone
email