La primera beta de iOS 26.4 activará por fin la nueva Siri contextual mientras Apple reserva para iOS 27 un chatbot completo integrado en iPhone y Mac

Siri se reinicia: qué cambia con iOS 26.4 y 27

Siri se reinicia: qué cambia con iOS 26.4 y 27

La cuenta atrás para la primera beta de iOS 26.4 ya está en marcha: los planes internos apuntan a la semana del 23 de febrero y a un lanzamiento estable entre finales de marzo y comienzos de abril. No será una actualización menor: es el momento en el que Apple empezará a encender, de verdad, las funciones de Siri con contexto personal, conciencia de lo que hay en pantalla y acciones entre apps vía App Intents, prometidas desde la WWDC 2024 y retrasadas más de año y medio. En paralelo, los informes de Bloomberg y otros medios avanzan el siguiente golpe: una Siri convertida en chatbot al estilo ChatGPT que llegaría con iOS 27, iPadOS 27 y macOS 27 a finales de 2026. 

La beta que marca el reinicio de Siri

iOS 26.4 no es un gran lanzamiento de otoño, pero se ha convertido en la pieza clave del calendario de 2026. Apple prepara la primera beta para desarrolladores para la semana del 23 de febrero, con una beta pública poco después y una versión final prevista entre finales de marzo y principios de abril, siguiendo el patrón de iOS 16.4, 17.4 y 18.4.

Lo más relevante no serán los nuevos emojis ni los ajustes menores, sino el primer despliegue masivo de lo que en WWDC se vendió como Apple Intelligence aplicada a Siri:

  • Contexto personal: el asistente podrá usar datos de apps como Mensajes, Mail, Calendario o Notas.

  • Conciencia de pantalla: entender qué hay en pantalla sin que el usuario tenga que “traducirlo”.

  • Acciones en y entre apps gracias a App Intents.

Estas funciones se habían prometido “para una actualización futura” en la documentación oficial para desarrolladores desde 2025, lo que refleja un retraso acumulado frente al calendario inicial.

Lo más grave, desde el punto de vista de mercado, es que este reinicio llega cuando los iPhone ya representan en torno al 25% de los smartphones activos del mundo y lideran el mercado global con un 20% de cuota de envíos en 2025: cada mes que Siri ha llegado tarde, lo ha hecho sobre cientos de millones de usuarios.

Contexto personal: del comando suelto a la conversación

Hasta ahora, Siri ha sido un asistente de “órdenes sueltas”: un comando, una respuesta, sin memoria real de lo ocurrido antes. Con iOS 26.4, Apple activa por fin el núcleo de su promesa: una Siri capaz de entender pronombres, referencias vagas y contexto personal a corto plazo.

En la práctica, esto significa que el usuario podrá decir: “Recuérdame pagarle esto a Marta cuando cobre la nómina” y el sistema sabrá quién es Marta, qué conversación de Mensajes o WhatsApp está abierta, qué nómina figura en el calendario y en qué banco está la domiciliación. La orden deja de ser un comando aislado y se convierte en una petición anclada a datos reales del dispositivo.

Apple insiste en que este salto se apoya en modelos de lenguaje ejecutados en el propio iPhone y en una capa de Private Cloud Compute, diseñada para procesar peticiones complejas en la nube sin exponer datos personales, con un enfoque híbrido que incluye modelos propios y de terceros como Gemini de Google bajo control estricto de la compañía.

En España y el resto de Europa continental, este contexto personal llega además tras una primera oleada de Apple Intelligence recortada, que lanzó funciones generativas en iOS 18.4 pero aplazó “sin fecha” la Siri avanzada en nuestro idioma.
El contraste resulta evidente: mientras el mercado se acostumbraba a ChatGPT y otros chatbots conversacionales, el asistente nativo del iPhone seguía funcionando, de facto, como en 2016.

Ver la pantalla: el salto que faltaba

La segunda gran pieza del reinicio de Siri es la conciencia de lo que hay en pantalla. Hasta ahora, pedir algo como “envía esto a mi gestor” obligaba a rehacer manualmente la orden: copiar texto, adjuntar documentos, abrir la app correcta. En iOS 26.4, Siri podrá “ver” el contenido que el propio sistema considera relevante (documentos, fotos, mensajes, campos de un formulario) y actuar sobre él.

Apple lleva meses preparando el terreno en su documentación técnica: el desarrollador puede exponer entidades y contenido en pantalla a través de App Intents para que el asistente sepa, por ejemplo, que lo que está seleccionado es una reserva de hotel, una factura pendiente o un PDF firmado.

El resultado, si la implementación es sólida, será un asistente capaz de entender órdenes como “reenvía este presupuesto a Legal y pregúntales si puedes ajustarlo un 5%” sin que el usuario tenga que especificar qué documento, qué destinatario o qué app debe usarse.

Sin embargo, este hecho revela también una fragilidad: todo depende de cuánto se integren las apps de terceros. Si sólo las aplicaciones de Apple y un puñado de socios adoptan bien las nuevas APIs, la promesa de una Siri que “ve” la pantalla puede quedarse en un 30% de los casos reales de uso.

Acciones entre apps: el verdadero ‘motor’ está en App Intents

La tercera pata del cambio está menos de cara al usuario, pero es determinante: App Intents deja de ser un framework casi invisible detrás de Atajos para convertirse en el lenguaje con el que las apps hablan con Siri y Apple Intelligence.

En términos sencillos, cada desarrollador define qué puede hacer su app —crear una tarea, modificar una reserva, enviar un mensaje interno, lanzar una operación financiera— y lo expone al sistema mediante intents. A partir de ahí, Siri puede encadenar acciones: leer un email, crear un recordatorio, abrir una sala de Teams, mandar un mensaje en Slack y archivar el propio correo con una sola orden de voz.

La propia Apple resume así la ambición del framework: “El App Intents framework te da una forma de expresar las capacidades de tu app al sistema e integrarlas con Siri y Apple Intelligence”.

La consecuencia es inequívoca: si App Intents se adopta de forma masiva, Siri puede convertirse en la capa orquestadora de todo lo que ocurre en el dispositivo, muy por encima de los simples atajos actuales. Si la adopción es lenta o desigual, el riesgo es una experiencia fragmentada en la que sólo una parte del ecosistema responde a las órdenes del usuario.

iOS 26.4 vs iOS 27: qué llega ahora y qué se guarda Apple

Las filtraciones coinciden en que iOS 26.4 será una actualización “estructural”, mientras que iOS 27 concentrará el gran titular comercial. La comparación, pensando en el usuario, se puede traducir así:

Qué llega con iOS 26.4

  • Una Siri más rápida y precisa en el reconocimiento de voz.

  • Comprensión de contexto personal limitado a datos que ya residen en el dispositivo.

  • Conciencia de pantalla para referirse a “esto”, “ese archivo” o “este mensaje” sin explicaciones extra.

  • Acciones en y entre apps gracias a App Intents, primero en apps de Apple y socios prioritarios.

Qué se reserva para iOS 27
Según los informes de Bloomberg, MacRumors y otros medios, Apple planea que iOS 27 estrene una Siri completamente rediseñada como chatbot, con nombre en clave “Campos”, integrada a nivel de sistema en iPhone, iPad y Mac.
Esta nueva versión permitiría:

  • Conversaciones largas por voz o texto al estilo de ChatGPT.

  • Búsqueda en la web, generación de textos e incluso creación de imágenes directamente desde el asistente.

  • Integración más profunda con modelos de terceros como Gemini dentro de la infraestructura de Apple.

En otras palabras: iOS 26.4 pone los raíles técnicos y habilita tres grandes capacidades, pero la interfaz de chatbot y las funciones más espectaculares seguirán bloqueadas hasta iOS 27.

El proyecto ‘Campos’ y la carrera de la IA generativa

El giro hacia un Siri-chatbot no se entiende sin la presión del mercado. Mientras OpenAI, Gemini o Claude marcaban la conversación sobre inteligencia artificial, Apple encadenaba retrasos y anuncios parciales.

El proyecto “Campos” busca corregir esa desventaja con un movimiento de alto riesgo: reemplazar la interfaz actual de Siri por un chatbot integrado en todo el sistema, capaz de responder por voz pero también de actuar como una app de chat avanzada en iOS y macOS.

La apuesta no es menor: los iPhone representan ya alrededor del 20% de las ventas mundiales de smartphones y cerca del 25% de la base instalada global de teléfonos inteligentes, según datos recientes de Counterpoint Research y otros analistas.
Además, Apple ha superado los 2.500 millones de dispositivos activos en 2026, lo que convierte a Siri en una puerta de entrada directa a una base de usuarios sin equivalente en el sector premium.

En paralelo, reportes recientes apuntan a que CarPlay permitirá en próximos iOS el uso de chatbots de terceros como ChatGPT o Gemini en el salpicadero del coche.
El contraste resulta demoledor: si Apple no consigue que su propia Siri esté a la altura, corre el riesgo de que el usuario termine hablando con asistentes de otros proveedores… desde un dispositivo por el que ha pagado una prima precisamente por el ecosistema de la marca.

Impacto para Apple y para 1.500 millones de usuarios de iPhone

El reinicio de Siri no es sólo una cuestión de experiencia de usuario: es una decisión estratégica para defender un negocio que depende críticamente del iPhone. Estudios recientes estiman unos 1.500 millones de usuarios activos de iPhone en el mundo, aproximadamente uno de cada cuatro smartphones en uso.

En España, iOS ronda ya el 28-29% de cuota de mercado móvil, con Apple como primer fabricante en términos de parque activo, por delante de Samsung.
Cualquier mejora real en Siri se traduce, por tanto, en millones de usuarios que pueden recuperar parte del valor de un hardware que ya pagaron, sin necesidad de cambiar de terminal.

Sin embargo, hay una brecha clara: las funciones más avanzadas de Apple Intelligence quedan reservadas a los modelos más recientes, algo que ya se vio en la primera ola de compatibilidad limitada a iPhone 15 Pro, iPhone 16 y Macs con chip M1 o superior.
En la práctica, eso significa que una parte relevante —en torno a un 20-30% del parque de iPhone, según estimaciones de analistas— seguirá sin acceso al Siri realmente nuevo, incluso una vez desplegado iOS 27.

Para International Data Corporation (IDC) y otros observadores, ese cuello de botella puede funcionar como incentivo de renovación en un momento en el que Apple ya lidera el mercado con un 20% de cuota y 247 millones de iPhones enviados en 2025, pero también como fuente de frustración para quienes perciban que “su” Siri se queda recortada.

Tres ejemplos reales de uso en el día a día

Para entender la diferencia entre lo que llegará en iOS 26.4 y lo que se quedará para iOS 27, nada mejor que aterrizarlo en escenas concretas.

1. Reorganizar una reunión compleja en dos frases
Un directivo tiene abierto un correo con un contrato y una conversación de Mensajes con su abogada. Con iOS 26.4 podrá decir: “Siri, mueve esta reunión con Ana al primer hueco que tengamos los dos por la tarde y reenvíale el contrato”. El asistente utilizará contexto personal, calendario y contenido en pantalla para entender qué reunión es, quién es Ana y qué documento debe adjuntar.
Con iOS 27, el mismo escenario se amplía: el chatbot podría proponer alternativas, redactar un correo completo con matices legales y sugerir añadir al responsable de Compliance, tras revisar hilos previos.

2. Viaje de trabajo con cambios de última hora
Imaginemos un viaje a Bruselas con billetes en Wallet, reservas en un PDF en Archivos y cambios de agenda de un cliente. En iOS 26.4, Siri debería ser capaz de: “Aplaza todas las reuniones del jueves al viernes, avisa a los contactos afectados y reprograma la vuelta al primer vuelo del sábado por la mañana”, combinando App Intents de la aerolínea, el calendario y apps de mensajería.
En iOS 27, ese flujo podría incluir además una reorganización completa del viaje: sugerir hoteles disponibles, recalcular presupuestos y generar un resumen en texto para el departamento de Finanzas, todo dentro de una conversación continua con el chatbot.

3. Poner orden en un día saturado de información
Un usuario consulta en Safari un informe macroeconómico, recibe en Mail un estudio de mercado y acumula en Notas ideas dispersas para una presentación interna. Con iOS 26.4, podrá pedir: “Siri, crea una nota con las ideas clave de esto y mándame un recordatorio mañana a las 8 para revisarlo”. El sistema combinará conciencia de pantalla y contexto personal a corto plazo para capturar el contenido correcto y fijar el aviso.
Con iOS 27, el asistente tipo chatbot podría dar un salto más: resumir ambos documentos, cruzar datos, generar un esquema de presentación y proponer tres titulares posibles para enviarlos directamente a un equipo de comunicación, sin abandonar la conversación.

iOS 26.4 convertirá por fin a Siri en un asistente útil en el día a día, capaz de entender mejor lo que el usuario quiere hacer. Pero será iOS 27, si se cumplen las filtraciones, el que decida si Siri compite de tú a tú con los grandes chatbots de la industria o se queda, de nuevo, a medio camino.