La tecnología detrás de ChatGPT, Gemini de Google y prácticamente todos los chatbots de IA que inundan el mercado está fundamentalmente rota y nunca alcanzará una verdadera inteligencia, según Yann LeCun —el investigador pionero que ayudó a inventar las redes neuronales que los hicieron posibles—. En una dura crítica contra su propio empleador y toda la industria de la IA, LeCun afirma que los cientos de miles de millones invertidos en modelos lingüísticos representan un error histórico, uno que ahora planea corregir al abandonar Meta.
El momento de esta revelación no podría ser más dramático. Mientras los gigantes tecnológicos invierten sumas colosales en infraestructura para LLM, LeCun, de 65 años y ampliamente reconocido como uno de los tres padres fundadores de la IA, estaría lanzando una startup para desarrollar “world models”, un enfoque alternativo que considera la única vía hacia máquinas capaces de pensar realmente. Su inminente salida de Meta llega después de que el CEO Mark Zuckerberg lo dejara prácticamente al margen, reorganizando la empresa en torno a la misma tecnología de LLM contra la que LeCun lleva años advirtiendo.
Por qué el “padrino de la IA” cree que todos se equivocaron
La crítica de LeCun apunta al corazón del auge actual de la IA. Durante un simposio en Brooklyn, advirtió que los LLM están “absorbiendo todo el oxígeno de la sala” sin ofrecer un camino hacia la inteligencia a nivel humano. Su evaluación es tajante: los sistemas actuales de IA son más tontos que un gato doméstico.
El problema está en cómo aprenden estos sistemas. Los modelos lingüísticos se entrenan exclusivamente con texto: palabras desconectadas de la realidad física. Un gato, argumenta LeCun, puede planificar movimientos complejos, entender causa y efecto y moverse por entornos complicados. Un niño de cuatro años absorbe más información sensorial significativa en un día que la que un LLM procesa en datasets equivalentes a cientos de miles de años de lectura. Si se le pide a una IA avanzada imaginar un cubo rotando, falla en una tarea que cualquier niño ejecuta sin esfuerzo.
El divorcio multimillonario del consenso de Silicon Valley
LeCun no es un crítico cualquiera: es uno de los tres investigadores que ganaron el equivalente al Nobel de informática por inventar las redes neuronales que fundamentan la IA moderna. Mark Zuckerberg lo reclutó personalmente en 2013 para construir desde cero la división de IA de Meta.
Pero los movimientos recientes de Meta cuentan otra historia. La empresa nombró al joven de 28 años Alexandr Wang como director de IA, por encima de LeCun; contrató al co-creador de ChatGPT, Shengjia Zhao, como científico jefe; y recortó recursos del grupo de investigación de LeCun. El mensaje era claro: Meta apuesta todo por los LLM.
La startup que LeCun planea lanzar se centrará en desarrollar “world models”: sistemas de IA que aprenden mediante datos visuales y espaciales, construyendo representaciones internas del funcionamiento real del mundo físico. Fei-Fei Li (Stanford), Google DeepMind y Nvidia también exploran este territorio, pero los avances se miden en décadas, no en trimestres.
Este conflicto revela una verdad incómoda: las mentes más brillantes de la IA no pueden ponerse de acuerdo sobre el camino correcto, incluso cuando los mercados apuestan billones a que un solo enfoque prevalecerá.El fin del Artículo