Tecnología | Apple Intelligence

Apple se apoya en Gemini para reinventar Siri: la alianza que marca la “segunda fase” de su IA

Apple y Google han firmado un acuerdo plurianual para que los modelos Gemini y tecnología cloud de Alphabet sirvan de base a la próxima generación de “Apple Foundation Models” y a nuevas funciones de Apple Intelligence, incluida una Siri más personalizada a lo largo de 2026. El giro es relevante por dos motivos: Apple admite, de facto, que necesita un socio externo para acelerar capacidades, y el mercado vuelve a poner el foco en la pregunta clave: qué parte de la IA irá en el dispositivo y cuál dependerá de la nube, con la privacidad como línea roja.

EPA/MONICA DAVEY
EPA/MONICA DAVEY

El anuncio: un acuerdo plurianual para la próxima Siri

Apple y Google han formalizado una colaboración de varios años para impulsar la siguiente generación de funciones de inteligencia artificial en el ecosistema Apple. En el centro del acuerdo está Gemini: sus modelos y tecnología cloud servirán como base para los Apple Foundation Models y para capacidades futuras de Apple Intelligence, incluida una Siri más personalizada que llegará a lo largo de 2026.

El mensaje corporativo es contundente: Apple afirma que, tras evaluar opciones, la tecnología de Google ofrece “la base más capaz” para lo que quiere construir. Traducido: no es una integración puntual, es un pilar para la siguiente etapa.

Qué cambia “de verdad” para el usuario: menos comandos, más contexto

La promesa de esta nueva Siri es la de un asistente que deje de ser un buscador por voz con respuestas genéricas y pase a operar con contexto. Varios medios apuntan a mejoras en tres frentes: comprensión del contexto personal (por ejemplo, información relevante en Mail y Mensajes), mayor conciencia de lo que ocurre en pantalla y acciones más profundas dentro de apps (lo que Apple suele llamar “controles por app”).

Además, se espera que Gemini alimente funciones de “conocimiento del mundo” y respuestas más completas cuando el usuario pida resúmenes, explicaciones o comparativas, un tipo de consulta donde Siri ha estado por detrás de asistentes más recientes.

La clave estratégica: Apple acelera su IA sin romper su narrativa de privacidad

Apple ha construido su propuesta de IA alrededor de dos ideas: procesamiento en el dispositivo siempre que sea posible y, cuando no lo sea, ejecución en su infraestructura de Private Cloud Compute. En la práctica, la alianza con Google obliga a hilar fino: Apple quiere más capacidad, pero sin que el usuario perciba que “su Siri” depende de una nube ajena.

Por eso, el encuadre público insiste en que Apple Intelligence seguirá corriendo en el dispositivo y en Private Cloud Compute, con estándares de privacidad “de nivel industrial”. El reto será demostrarlo con hechos: qué peticiones salen del iPhone/Mac, qué se procesa en la nube de Apple y qué papel exacto juega la nube de Google en ese flujo.

Compatibilidad: quién podrá usar esta Siri (y quién se queda fuera)

Aquí llega el punto práctico que más va a importar en el día a día. Apple limita Apple Intelligence a una lista concreta de dispositivos, lo que, de facto, marca el perímetro de la experiencia. Hoy, la compatibilidad incluye iPhone 15 Pro y posteriores, familias iPhone 16 y 17, iPad con M1 o superior (y iPad mini con A17 Pro), y Mac con Apple Silicon (M1 en adelante), entre otros modelos. Para el usuario, la conclusión es clara: la “Siri de Gemini” no será un simple ajuste de software universal; será una función ligada a hardware compatible.

Qué significa para el mercado: Apple busca tracción, Google gana distribución

En bolsa, la lectura es doble. Apple intenta responder a una preocupación recurrente del mercado: la velocidad de entrega de su hoja de ruta en IA frente a rivales. La alianza le permite ganar tiempo, capacidad y “calidad percibida” sin esperar a que su stack propio alcance el mismo listón en todos los casos de uso.

Para Google, el premio es la distribución: poner Gemini en el centro de la experiencia de cientos de millones de usuarios de Apple convierte el acuerdo en un escaparate masivo. No es solo tecnología; es presencia en el punto de contacto más habitual del consumidor: el asistente.

La pregunta incómoda: ¿y ChatGPT?

Hasta ahora, Siri ya podía apoyarse en modelos externos para ciertas consultas, y se había hablado de la integración de ChatGPT como refuerzo en tareas complejas. El salto a Gemini sugiere una capa más profunda: menos “puente” puntual y más dependencia estructural de un socio para los cimientos de la IA. Apple no cierra la puerta a un enfoque multivendor, pero con este movimiento deja claro cuál será el motor principal de la próxima iteración.

La “IA útil” empieza por Siri… y por explicar bien cómo funciona

Apple se juega algo más que una actualización de asistente: se juega la credibilidad de su narrativa de privacidad en IA y la percepción de que Apple Intelligence aporta valor tangible. Si Gemini logra que Siri sea más contextual, más útil y menos frustrante, el usuario lo notará en minutos. Si, en cambio, la experiencia se siente lenta, opaca o “demasiado nube”, el debate girará a confianza. En 2026, la IA ya no compite solo por potencia: compite por ejecución y por garantías.

Comentarios