Campos: la Siri que se convierte en chatbot
Según las filtraciones y los informes de Bloomberg y otros medios, el proyecto Campos supone sustituir la interfaz actual de Siri por un chatbot integrado en el propio sistema operativo, no una app más en la pantalla. El usuario invocará al asistente igual que ahora —con el comando “Siri” o el botón lateral—, pero detrás aparecerá un motor de lenguaje mucho más cercano a ChatGPT que al Siri de hoy.
El nuevo asistente estará embebido en iOS 27, iPadOS 27 y macOS 27, con una primera presentación en la conferencia de desarrolladores de junio y un despliegue amplio en otoño, junto a la nueva generación de iPhone. Algunas funciones de “Siri 2.0” podrían llegar antes en una actualización intermedia de iOS 26, lo que permitiría a Apple probar el sistema con una parte de su base de usuarios.
El diagnóstico es inequívoco: tras años de quedarse atrás frente a Alexa, Google Assistant y, sobre todo, los grandes chatbots generales, Apple ha decidido abandonar el modelo de asistente basado en comandos y reglas para abrazar la IA generativa. Campos es, en la práctica, el intento de borrar una década de retraso en un solo ciclo de producto.
Del “pon una alarma” a delegar el día entero
El cambio que más notarán los usuarios no será un logo nuevo, sino la sensación de que Siri deja de ser un botón torpe para convertirse en un interlocutor capaz de seguir la conversación. Hoy la mayoría de peticiones se reduce a “pon una alarma”, “abre Spotify” o “llama a mamá”; mañana, el objetivo es que el usuario pueda decir: “Organízame el viaje a Valencia este fin de semana, reserva hotel con cancelación y añade las reuniones al calendario”… y que el sistema entienda todos los pasos implicados.
Los planes de Apple pasan por permitir preguntas largas y ambiguas, con múltiples repreguntas y matices, en lugar de comandos rígidos. Siri podrá pedir aclaraciones, mantener contexto durante varios minutos e incluso recuperar interacciones anteriores dentro de una misma sesión. Eso abre la puerta a que el asistente ayude a redactar correos, resumir documentos, generar borradores de presentaciones o preparar respuestas largas para Mensajes.
La consecuencia es clara: si Apple acierta en la experiencia, una parte relevante del uso cotidiano del iPhone pasará de tocar iconos a dialogar con el sistema, por voz o por texto. El contraste con el Siri actual —que a menudo obliga a repetir la misma orden tres veces— resulta demoledor.
Voz, texto y pantalla: un asistente que “ve” el dispositivo
Otro salto clave del nuevo Siri es su capacidad para entender lo que ocurre en la pantalla y combinarlo con la conversación. Los informes apuntan a que Campos podrá interactuar con ventanas y contenido abierto: leer un PDF que el usuario está viendo, resumir una página web o extraer datos de una hoja de cálculo sin necesidad de copiar y pegar.
Además de hablar, el usuario podrá escribir a Siri como si fuera un chat más, ya integrado en el sistema, algo que Apple empezó a explorar con la posibilidad de “escribir a Siri” en Apple Intelligence pero que ahora se convertirá en la experiencia por defecto. Esto es especialmente relevante en entornos laborales, donde la voz no siempre es una opción.
En segundo plano, la combinación de voz, texto y contexto ampliado permitirá encadenar varias apps. Un mismo flujo podría incluir leer un documento en Archivos, extraer fechas para Calendario, generar un resumen para Notas y preparar un correo en Mail. Para una base instalada de más de 2.350 millones de dispositivos activos en el ecosistema Apple, según los últimos datos, cualquier mejora de productividad se multiplica a escala global.
Gemini en el corazón de la nueva Siri
Lo más llamativo del plan de Apple es que el cerebro de la nueva Siri no será exclusivamente de Apple. La compañía ha firmado una alianza plurianual con Google bajo la cual los futuros Apple Foundation Models se apoyarán en variantes personalizadas de Gemini desplegadas en la nube de Google.
Según estas informaciones, Apple pagará en torno a 1.000 millones de dólares al año por el uso de modelos Gemini adaptados, con hasta 1,2 billones de parámetros en la versión más avanzada utilizada para tareas de planificación, resúmenes o generación de contenido. Apple reservará sus propios modelos más ligeros para funciones locales y de baja latencia, como ajustes rápidos del sistema o órdenes sencillas.
Este hecho revela hasta qué punto Apple ha asumido que no puede competir a corto plazo con la escala de entrenamiento de Google, OpenAI o Anthropic. La empresa que convirtió a Siri en sinónimo de asistente de voz hace una década se ve ahora obligada a alquilar inteligencia ajena para no perder definitivamente la batalla de la IA móvil.
Privacidad y memoria: la delgada línea roja de Apple
Si hay un terreno en el que Apple no puede permitirse errores es la privacidad. Desde la presentación de Apple Intelligence en 2024, la compañía ha insistido en su arquitectura de Private Cloud Compute: los datos sensibles salen del dispositivo solo a servidores con chips Apple y software verificado criptográficamente, y se eliminan tras la petición.
En el caso de Campos, los reportes apuntan a que Apple limitará deliberadamente la “memoria” del asistente. A diferencia de otros chatbots que acumulan un historial extenso de interacciones, la nueva Siri recordará menos de lo que técnicamente podría, para reducir el riesgo de reconstruir perfiles detallados de los usuarios. Es un compromiso complejo: demasiada memoria asusta a reguladores y clientes; demasiada poca resta utilidad a la herramienta.
Al mismo tiempo, Google ha tenido que asegurar públicamente que no recibirá datos personales de los usuarios de iPhone en el marco del acuerdo Gemini, una señal de hasta qué punto el componente reputacional pesa en ambas compañías. El reto será mantener esa promesa cuando el asistente empiece a manejar correos, fotos, documentos laborales y conversaciones íntimas de decenas de millones de usuarios.
El pin de IA: la pista del próximo ‘gadget’ de Apple
En paralelo al rediseño de Siri, Apple trabaja en un proyecto de hardware mucho más experimental: un wearable de IA con forma de pin, similar en tamaño a un AirTag pero con más sensores. Los informes hablan de un dispositivo fino y circular, fabricado en aluminio y cristal, con dos cámaras (estándar y gran angular), tres micrófonos, altavoz, botón físico y carga inalámbrica.
La idea recuerda al fallido Humane AI Pin o al dispositivo R1 de Rabbit: un asistente siempre presente, sin pantalla tradicional, que se engancha a la ropa y responde a órdenes de voz, graba pequeñas escenas o toma notas visuales. Apple, sin embargo, jugaría con una ventaja clave: integración nativa con iPhone, Siri y iCloud, y una base de usuarios dispuestos a probar nuevos accesorios.
Aunque el proyecto está en una fase temprana y las fechas pueden cambiar, se habla de una ventana de lanzamiento en 2027, alineada con una nueva oleada de productos de Apple centrados en IA, desde gafas más ligeras hasta hubs domésticos inteligentes. La consecuencia es evidente: Apple no ve la IA solo como una función de software, sino como motivo para abrir una nueva categoría de dispositivos.
La guerra por la siguiente interfaz: voz contra pantalla, móvil contra pin
El empuje de Apple llega en medio de una carrera por definir la próxima interfaz dominante. Google está sustituyendo su antiguo Assistant por Gemini en Android; OpenAI y Jony Ive trabajan en un dispositivo de IA propio; y la primera generación de pins inteligentes ha fracasado comercialmente, pero ha dejado claro que la industria busca algo más allá del smartphone.
En este contexto, Campos y el pin de IA son dos apuestas complementarias. Siri como chatbot integrado refuerza el valor del iPhone y del Mac, mientras que el wearable explora un escenario en el que la voz se convierte en la vía principal de interacción. Los analistas calculan que el mercado de asistentes de voz y tecnologías relacionadas puede alcanzar los 34.000 millones de dólares en 2030, con 6.600 millones de inversión de capital riesgo ya en 2025.
El contraste con los últimos años, en los que Siri y Alexa parecían productos estancados, resulta elocuente. Chatbots y asistentes de voz están convergiendo en un mismo producto, y Apple, que se quedó descolgada en la primera ola de la IA generativa, intenta entrar en la segunda con un golpe doble: software profundo y hardware nuevo.
Qué puede cambiar para el negocio de Apple
Más allá de la experiencia de usuario, la apuesta por una Siri “tipo ChatGPT” es una jugada defensiva y ofensiva a la vez. Defensiva, porque Apple necesita evitar que la percepción de atraso en IA erosione las ventas de iPhone: ya hubo recortes de previsiones de crecimiento para 2025 precisamente por retrasos en la actualización de Siri. Ofensiva, porque un asistente realmente útil puede disparar el uso de servicios de pago, desde iCloud hasta Apple Music o TV+.
Con unos 84 millones de usuarios de Siri solo en EE UU y cientos de millones en todo el mundo, cada mejora en el asistente es una oportunidad de aumentar el tiempo de uso, la dependencia del ecosistema y, en último término, los ingresos por servicios, que ya superan el billón de dólares en valor anualizado para Apple.
Lo más grave, para Cupertino, sería que tras el despliegue de Campos el usuario sienta que “no hay tanta diferencia” con el Siri de siempre. Por eso el listón está altísimo: Apple necesita un salto cualitativo visible en el día a día, no una colección de demos espectaculares en la keynote. Si lo consigue, la combinación de 2.350 millones de dispositivos activos y un asistente competente puede consolidar una década más de dominio móvil. Si falla, el riesgo es que la próxima gran plataforma de IA se construya fuera del iPhone… y Apple quede relegada a ser el mero fabricante del hardware.