Gemini de Google registró un crecimiento mensual del 28 % en diciembre de 2025, alcanzando cerca del 40 % del tamaño de la audiencia web de su rival ChatGPT. Datos de Similarweb muestran que el promedio de visitantes de ChatGPT en siete días cayó alrededor de un 22 % en seis semanas, pasando de casi 203 millones a 158 millones. Al reaccionar a estas cifras, el CEO de IA de Google, Demis Hassabis, escribió: “queda mucho trabajo duro por hacer, por supuesto, pero estamos avanzando de forma implacable…”, subrayando el impulso continuo de Google para expandir el alcance y el uso de Gemini en un contexto de competencia cada vez más intensa entre chatbots de IA.
Cabe recordar que Google lanzó su modelo Gemini 3.0 en noviembre de 2025. Días después, el CEO de OpenAI, Sam Altman, declaró una emergencia interna de “código rojo”, ordenando a los empleados suspender el trabajo en funciones de publicidad y generación de ingresos para centrarse en recuperar la posición competitiva de ChatGPT.
En diciembre del año pasado, Altman envió una advertencia interna de “código rojo” a los empleados de OpenAI. Según memorandos internos obtenidos por The Wall Street Journal y The Information, pidió abandonar planes como la introducción de publicidad, asistentes de compras con IA, agentes de salud y el asistente personal Pulse, y concentrarse exclusivamente en ChatGPT. “Estamos en un momento crítico para ChatGPT”, escribió.
Aunque ChatGPT sigue liderando el tráfico de IA, muestra una tendencia a la baja. Su cuota de mercado pasó del 68 % en diciembre del año pasado al 64,5 % el 2 de enero de 2026. Gemini, en cambio, creció de un 5,7 % hace un año a un 21,5 % de cuota del mercado de IA generativa.
Una de las claves del avance de Google es su ventaja en infraestructura: confianza empresarial, integración total en su ecosistema y sinergia con su hardware, ya que los chips TPU v5 están optimizados para Gemini, reduciendo costos y mejorando el rendimiento. Más allá de eso, Google controla todo el “stack”: los modelos se desarrollan en DeepMind, se entrenan con chips propios, se alojan en Google Cloud y se integran sin fricciones en Search, YouTube, Gmail y más de 3.000 millones de dispositivos Android. OpenAI, en cambio, depende de la infraestructura de Microsoft y de chips Nvidia más costosos, lo que genera desventajas estructurales.
El fin del Artículo