• Noticias
  • Tecnología Noticias
  • El CEO de Google DeepMind, Demis Hassabis, explica por qué las herramientas de IA altamente calificadas tienen dificultades para resolver problemas matemáticos básicos

El CEO de Google DeepMind, Demis Hassabis, explica por qué las herramientas de IA altamente calificadas tienen dificultades para resolver problemas matemáticos básicos

El CEO de Google DeepMind, Demis Hassabis, señala un defecto crítico en la IA actual: el rendimiento inconsistente. A pesar de sobresalir en tareas complejas, estos modelos a menudo tropiezan con problemas simples, revelando inteligencia "dentada". Hassabis y Sam Altman de OpenAI están de acuerdo en que lograr un verdadero AGI requiere avances en razonamiento, planificación, memoria y aprendizaje independiente, en lugar de solo escalar los modelos existentes.
El CEO de Google DeepMind, Demis Hassabis, explica por qué las herramientas de IA altamente calificadas tienen dificultades para resolver problemas matemáticos básicos
(Crédito de la imagen: iTimes Spanish)
Demis Hassabis, CEO de Google DeepMind, cree que un obstáculo importante que impide que la IA alcance la verdadera Inteligencia General Artificial (AGI) es la falta de consistencia. Si bien los modelos actuales pueden realizar tareas increíblemente complejas, también pueden cometer errores simples y triviales que un humano podría evitar fácilmente.Problema con la inteligencia "jagged"En un reciente episodio del podcast "Google for Developers", Hassabis explicó que, si bien los modelos avanzados como Gemini de Google, cuando se mejoran con técnicas como DeepThink, pueden ganar medallas de oro en prestigiosas competiciones matemáticas, todavía pueden luchar con problemas básicos de matemáticas de la escuela secundaria. Describió esto como una inteligencia "desigual" o "dentada". Este término, que el CEO de Google, Sundar Pichai, también ha utilizado, destaca cómo estos sistemas pueden ser altamente calificados en algunas áreas mientras que son sorprendentemente débiles en otras.Hassabis declaró que simplemente dar a estos modelos más datos y potencia informática no resolverá este problema. Dijo que para lograr AGI, necesitamos desarrollar nuevas capacidades en razonamiento, planificación y memoria. También enfatizó la necesidad de mejores pruebas y "puntos de referencia nuevos y más difíciles" para evaluar con precisión lo que estos modelos pueden y no pueden hacer.La gran carrera por AGIGoogle y otros gigantes tecnológicos como OpenAI apuntan a AGI, el punto en el que la IA puede razonar y funcionar como un humano.Sin embargo, los sistemas actuales de IA todavía se enfrentan a problemas significativos, incluyendo alucinaciones, desinformación y errores básicos.El CEO de OpenAI, Sam Altman, tiene una opinión similar. Antes del lanzamiento de GPT-5, dijo a los periodistas que, si bien fue un gran paso adelante, todavía no era un verdadero AGI. Altman dijo que un elemento clave que falta es la capacidad de que los modelos aprendan por sí mismos, mejorando continuamente a medida que se despliegan.Tanto Hassabis como Altman están de acuerdo en que, aunque son impresionantes, los modelos de IA actuales aún no están en el umbral de AGI. Los próximos grandes saltos en la IA probablemente vendrán de resolver estos problemas fundamentales de consistencia y aprendizaje independiente, no solo de escalar lo que ya tenemos.