Llevábamos meses hablando de ello y al final los rumores tenían razón. Se ha confirmado que Apple y Google colaborarán para impulsar la próxima generación de Apple Intelligence. Pero quedarse en el titular de "Siri ahora usa Google" es rascar solo la superficie. Este acuerdo es mucho más complejo que una simple integración de software al estilo "Siri, pregúntale a ChatGPT".
Lo que Apple ha diseñado es una arquitectura de "triangulación" para utilizar la fuerza bruta de Google sin comprometer la privacidad ni el control del producto. Vamos a ver cómo funciona esta maquinaria por dentro y, sobre todo, por qué Gemini va a estar presente en tu iPhone sin estar presente.
Apple se queda con el modelo, pero no con las reglas de Google
Para entender por qué tu Siri no se comportará igual que el chatbot de Google, hay que ir a la documentación técnica. Según explica el experto Max Weinbach, Google entrega a Apple el modelo base de Gemini. Es un cerebro en bruto con una capacidad de cálculo inmensa y todo el conocimiento de internet comprimido, pero sin contexto ni instrucciones de comportamiento.
Google le ha vendido a Apple el diccionario, pero es Apple quien escribe la novela.
Aquí es donde entra el equipo de Cupertino y su "arnés" (harness). Ellos realizan el postentrenamiento, educando al modelo para que entienda cómo funciona iOS, cuál es el tono de respuesta adecuado y qué puede y qué no puede hacer. Google pone el actor, pero Apple escribe el guion. Por eso, jamás verás un "Powered by Gemini". Apple ha licenciado Gemini 3 para convertirlo en su nuevo AFM (Apple Foundation Model).
Así decide Apple dónde se procesa cada petición
La gran duda con este movimiento siempre ha sido la privacidad. Para resolverlo sin perder potencia, han montado un sistema de tres capas.
Nivel 1: el portero local (On Device). Para lo cotidiano, tu iPhone no necesita a nadie. Pero ojo, el modelo pequeño (SLM) que corre aquí probablemente será una versión "destilada" y comprimida de esa tecnología de Gemini, adaptada para correr en el Neural Engine. Tareas como resumir notificaciones o reescribir textos serán rápidas y privadas.
Nivel 2: el búnker (Private Cloud Compute). Cuando hace falta más potencia, saltamos a la nube privada de Apple. Antes de enviar nada, se hace una "Validación de Dispositivo", un certificado criptográfico que asegura que tu iPhone es auténtico. Si pasa el corte, el servidor no guarda memoria. Procesa, envía y olvida.
Nivel 3: la fuerza de Gemini. Aquí se cierra la triangulación. Dentro de ese "búnker" seguro (Nivel 2), la gran novedad es que pasaremos a ejecutar el nuevo Apple Intelligence (Fundation Models) basado en Gemini 3. Es la pieza que faltaba: Apple pone el hardware y la seguridad, pero Google pone la lógica. No viajamos a servidores de Google. es el modelo de Google el que se integra en los servidores de Apple para darnos esa potencia extra para las peticiones más exigentes.
Y es que el acuerdo especifica que Apple no usa los "servicios" de Google, sino su modelo. Lo que Apple quiere demostrar es que pueden integran el mejor modelo disponible (Gemini 3) en su propio sistema. Que es posible usar la base de un LLM tan potente como Gemini sin que tus datos salgan del iPhone.
En Applesfera
El acuerdo de Apple con Google para la IA puede arrojar dudas sobre la privacidad. Se despejan con tres palabras: Private Cloud Compute
Gracias a ese proceso de "destilado", Apple va a coger la tecnología de Google y la va a comprimir para que corra en local. Es decir, vamos a tener una inteligencia similar a Gemini Nano ejecutándose offline. Eso rompe con la idea de que "IA potente" equivale obligatoriamente a "ceder tus datos a una granja de servidores". Apple conseguirá usar el cerebro de Google, pero encerrado en la caja fuerte del iPhone.
iOS 26.4 y iOS 27: una transición en dos tiempos
Es importante matizar qué cambia ahora y qué cambia después. Con iOS 26.4, el objetivo urgente es salvar a Siri. La nueva Siri será la principal beneficiada de este cerebro de Gemini entrenado por Apple, tal y como reconoció Google.
Sin embargo, sería una locura cambiarlo todo de golpe. Es muy probable que el resto de funciones de Apple Intelligence (generación de imágenes, herramientas de redacción específicas, etc.) sigan usando los modelos actuales de Apple por ahora para no desestabilizar el sistema. El gran salto integral, donde Gemini potencie todo el ecosistema de forma transversal, seguramente se guarde para iOS 27. Ahora toca el "rescate" de Siri. Luego vendrá la evolución del resto.
Ahora bien, ¿cuándo vamos a poder probar todo esto? Apple no puede permitirse llegar a la WWDC de junio con los deberes sin hacer, así que el calendario está bastante ajustado.
La elegida para estrenar este nuevo cerebro será iOS 26.4. Apple ha cogido la costumbre de convertir las versiones "punto cuatro" en lanzamientos importantes (ya lo vimos con iOS 18.4) y este año repiten jugada. Si miramos el historial:
- iOS 18.4 beta 1: 21 de febrero
- iOS 17.4 beta 1: 24 de enero
- iOS 16.4 beta 1: 16 de febrero
Por lo que, si las matemáticas no fallan, estamos a poco más de un mes de ver la primera beta. Febrero será el momento de la verdad para los desarrolladores, con un lanzamiento final previsto para abril. Apple necesita que esta Siri esté rodada antes de presentar iOS 27 en junio. Y con el anuncio oficial de esta colaboración, todo está un paso más cerca.
En Applesfera | Nuevo iOS 27 - todo lo que creemos saber sobre el futuro sistema operativo para el iPhone
En Applesfera | Nuevo iPhone plegable - Todo lo que creemos saber sobre él
-
La noticia Google pone el cerebro, pero Apple pone las normas: así funciona la "triangulación" entre Siri, Gemini y tu privacidad fue publicada originalmente en Applesfera por Guille Lomener .
Continúar leyendo...