Apple entrega Siri a Gemini: la gran actualización
La batalla por el asistente personal del futuro va a librarse, literalmente, en el bolsillo de cientos de millones de usuarios. Apple lleva meses preparando una nueva Siri impulsada por la IA Gemini de Google, en lo que ya se considera uno de los movimientos más llamativos de la industria tecnológica reciente. Según Bloomberg y filtraciones de desarrolladores, el estreno público llegará en dos fases: demostración a finales de febrero y despliegue escalonado con iOS 26.4 a partir de marzo-abril, primero en los iPhone más recientes.
Lo relevante no es sólo la fecha, sino el giro estratégico: Apple reconoce de facto que su propia IA no era suficiente y decide apoyarse en el rival que domina la búsqueda web y el ecosistema de Android. El acuerdo prevé un modelo Gemini personalizado para Siri, con 1,2 billones de parámetros y un pago anual cercano a los 1.000 millones de dólares a Google, según distintas filtraciones.
El resultado será un asistente mucho más conversacional y capaz de actuar dentro y entre apps, más cercano a lo que hoy ofrecen ChatGPT o Claude. Pero también abre interrogantes sobre competencia, privacidad y dependencia tecnológica que el mercado todavía no ha digerido.
Un giro histórico en la guerra de los asistentes
Durante una década, Siri, Google Assistant y Alexa compitieron en funciones relativamente sencillas: poner alarmas, responder preguntas básicas, gestionar el hogar conectado. La irrupción de los modelos generativos cambió las reglas del juego y dejó a Siri descolocada. Mientras ChatGPT y Gemini demostraban capacidades de razonamiento y conversación sofisticadas, el asistente de Apple apenas evolucionaba.
El nuevo pacto cambia este tablero. Apple y Google han firmado una alianza plurianual para que los modelos Gemini alimenten la próxima generación de Apple Intelligence, incluida la versión avanzada de Siri. No se trata de “meter” el asistente de Google en el iPhone, sino de usar su modelo base como motor bajo el capó de Siri.
La consecuencia es clara: el “cerebro” de Siri pasará a depender en gran medida de la infraestructura de IA de Google, al tiempo que Apple conserva el control de la experiencia de usuario, el diseño y la capa de privacidad. Para los reguladores, esta alianza unirá todavía más a dos gigantes que ya controlan cerca del 90% del mercado mundial de sistemas operativos móviles entre iOS y Android, lo que reabre el debate sobre concentración de poder digital.
Por qué Apple ha tenido que recurrir a Google
Detrás de la decisión hay un diagnóstico inequívoco: Apple llegaba tarde a la carrera de la IA generativa. Sus esfuerzos internos para crear un modelo propio suficientemente potente se toparon con limitaciones técnicas, sobrecostes y retrasos. Diversos informes detallan proyectos cancelados, equipos reorganizados y una sucesión de prototipos que no alcanzaban el nivel de sus competidores.
Mientras tanto, el mercado se movía. En menos de dos años, OpenAI, Google y Anthropic lanzaron varias generaciones de modelos cada vez más capaces y costosos. Sostener esa carrera exige inversiones anuales de varios miles de millones de dólares en centros de datos, chips y talento especializado. Para Apple, cuyo negocio principal sigue siendo el hardware, asumir todo ese coste en solitario suponía comprometer márgenes y calendario de lanzamientos.
Con Gemini, la compañía compra tiempo. Externaliza parte del problema —el modelo a gran escala en la nube— mientras continúa desarrollando modelos propios más pequeños para ejecución local en el dispositivo, un ámbito donde su integración vertical le da ventaja. El mensaje al mercado es claro: la prioridad es que Siri deje de ser percibida como un producto “atrasado”, aunque eso implique apoyarse temporalmente en un rival histórico.
Así funcionará la nueva Siri con Gemini
Los detalles técnicos que Apple ha ido desvelando dibujan un esquema híbrido. La nueva Siri funcionará sobre Apple Intelligence, la capa de IA de la compañía que decide qué se procesa en el dispositivo y qué se envía a la nube. Gemini se utilizará en esta segunda fase, desde servidores privados controlados por Apple, sin que Google tenga acceso directo a los datos de los usuarios.
En la práctica, el usuario notará varias diferencias:
-
Conversaciones más largas y naturales, con memoria de contexto entre interacciones.
-
Capacidad para entender instrucciones complejas que combinan varias apps: por ejemplo, “reúne las últimas facturas de luz de mi correo, calcula el gasto medio y mándame un resumen por WhatsApp”.
-
Búsqueda web con lenguaje natural, apoyada en Gemini, con síntesis de resultados y posibilidad de pedir aclaraciones.
-
Una interfaz que combinará voz, texto y sugerencias en pantalla, similar a la experiencia que hoy ofrecen los chatbots avanzados.
No todos podrán acceder desde el primer día. Las versiones iniciales se limitarán previsiblemente a los iPhone 15 Pro y modelos posteriores, los únicos con la potencia y la NPU necesaria para las funciones de Apple Intelligence, dejando fuera a una parte significativa del parque instalado.
Cuánto gana Google y qué se juega Apple
Desde el punto de vista económico, el movimiento también tiene lectura clara. Distintas filtraciones sitúan el acuerdo en torno a los 1.000 millones de dólares anuales que Apple pagaría a Google por operar un modelo Gemini personalizado de 1,2 billones de parámetros especializado en tareas de asistente personal.
Para Google, es una nueva vía de ingresos recurrentes en la nube y, sobre todo, una victoria estratégica: su modelo se convierte en la capa de inteligencia de cientos de millones de iPhone de gama alta, un escaparate incomparable frente a OpenAI y otros rivales. Para Apple, el coste es relativamente asumible: representa alrededor de un 0,3% de sus ingresos anuales, pero le permite cerrar de golpe la brecha funcional con los mejores asistentes del mercado.
Lo más grave, sin embargo, es el mensaje que envía a futuro. Apple, que durante años presumió de independencia tecnológica y de controlar “de extremo a extremo” su ecosistema, acepta depender de un tercero en el componente clave de la próxima década: la IA generativa. La compañía asegura que se trata de una solución transitoria y que su plan es sustituir Gemini por un modelo propio cuando esté listo. Pero cada año que pase consolidará la costumbre de que Siri “piense” con la cabeza de Google.
Privacidad y regulación: la letra pequeña del acuerdo
Apple insiste en que, incluso con Gemini, su promesa de privacidad no cambia. Los datos de los usuarios se procesarán, según la compañía, bajo el paraguas de Private Cloud Compute, una infraestructura de servidores controlados por Apple donde el código puede ser auditado y los registros se eliminan tras cada sesión. Google, recalca la empresa, no podrá usar estas interacciones para entrenar sus modelos ni para publicidad.
Este diseño busca anticiparse a las dudas de reguladores y clientes corporativos. Aun así, la alianza llega en un contexto marcado por la Ley de Mercados Digitales europea, diversas investigaciones antimonopolio en Estados Unidos y la creciente presión para limitar los acuerdos de exclusividad entre grandes plataformas.
Que el mismo actor, Google, controle el motor de búsqueda en Safari y ahora también buena parte de la IA que responde a las preguntas de los usuarios podría ser interpretado como una integración vertical excesiva. Bruselas ya ha cuestionado en el pasado los miles de millones que Google paga a Apple para ser el buscador por defecto; añadir ahora Gemini al paquete puede reactivar ese debate.
La respuesta de OpenAI, Amazon y Samsung
El contraste con otras regiones resulta demoledor. Mientras Apple negocia con Google, Samsung presume de integrar Gemini de forma nativa en sus Galaxy y de ofrecer un asistente capaz de completar tareas complejas en apps de terceros, desde pedir comida hasta reservar un viaje, sin pasar por Siri.
OpenAI, por su parte, mantiene una posición ambivalente. Apple ya ha anunciado la integración de ChatGPT como opción de terceros en Apple Intelligence, pero el protagonismo del acuerdo con Google reduce de facto su papel a una función complementaria para ciertas consultas creativas o de contenido largo. Para las grandes tareas de asistente personal —las que generan más fricción y más valor—, todo apunta a que el canal principal será Gemini.
Amazon intenta responder con un Alexa renovado, mientras los reguladores miran con atención cualquier movimiento que consolide un “duopolio” de IA entre Apple-Google por un lado y Microsoft-OpenAI por otro. En este mapa, la nueva Siri con Gemini será la primera gran prueba de cómo se articula, en la práctica, la convivencia entre estos bloques.
Qué cambia para el usuario y para el mercado
Para el usuario final, el cambio será tangible si Apple cumple lo prometido. La nueva Siri debería pasar de ser un asistente que muchos han acabado desactivando a una capa de inteligencia ubicua, capaz de entender contexto, historial y preferencias para anticiparse a necesidades concretas.
La diferencia con respecto a la situación actual puede medirse en tres ejes:
-
Profundidad de respuesta: menos “no he encontrado nada sobre eso” y más explicaciones estructuradas, resúmenes de documentos o comparativas.
-
Acción sobre el dispositivo: automatización de tareas que hoy exigen abrir varias apps, copiar datos y confirmar paso a paso.
-
Aprendizaje cruzado: capacidad para recordar decisiones anteriores —por ejemplo, qué tipo de hoteles o restaurantes prefiere el usuario— y aplicarlas en futuras recomendaciones.
Desde el punto de vista de mercado, si la experiencia es convincente, la actualización puede convertirse en un argumento de venta clave para los nuevos iPhone y acelerar la renovación de terminales. No sería extraño ver campañas comerciales centradas en un mensaje sencillo: “el mismo iPhone, pero con un asistente radicalmente distinto”.

