Apple solicita la ayuda de Google para crear un Gemini LLM personalizado para Siri

Apple solicita la ayuda de Google para crear un Gemini LLM personalizado para Siri

En un cambio de estrategia notable, Apple parece haber reconocido los desafíos en su renovación interna de Siri y ahora está colaborando con Google para crear un modelo de lenguaje grande (LLM) personalizado basado en Gemini para respaldar la versión actualizada de Siri en la nube.

Mark Gurman informa sobre la asociación de Apple con Google para la mejora de la IA de Siri.

Según Mark Gurman, reconocido analista de Apple, en su último boletín informativo «Power On», Apple parece haber admitido que desarrollar un modelo de IA propio y eficaz para Siri no es factible por el momento. Las funciones renovadas, conocidas como Apple Intelligence, contarán ahora con el respaldo de la experiencia en IA de Google.

En virtud de este nuevo acuerdo, Apple planea utilizar las capacidades avanzadas de Google para diseñar un modelo de IA basado en Gemini que se integrará en su plataforma de computación en la nube privada. Este diseño permitirá procesar localmente las tareas más sencillas, mientras que las operaciones más complejas se delegarán a los servidores seguros de Apple mediante el uso de datos cifrados.

Características clave de la próxima renovación de Siri

La esperada actualización de Siri constará de tres componentes principales:

  1. Planificador de consultas: Esta capa crítica gestiona cómo Siri satisface las solicitudes de los usuarios eligiendo la ruta más eficiente, que podría implicar búsquedas web, acceso a datos personales como eventos del calendario o la utilización de aplicaciones de terceros a través de App Intents, una interfaz que permite una integración perfecta de las aplicaciones con Siri.
  2. Sistema de búsqueda de conocimiento: Siri incluirá una base de datos de conocimiento integral que le permitirá responder preguntas de cultura general de forma independiente, eliminando la dependencia de recursos de IA externos como ChatGPT.
  3. Resumen: Un elemento fundamental de Apple Intelligence, esta herramienta permitirá a Siri utilizar modelos de IA externos como ChatGPT para resumir diversos tipos de contenido, incluyendo:
    • Resúmenes de notificaciones
    • Resúmenes de correos electrónicos y mensajes
    • Resúmenes de páginas web en Safari
    • asistencia para la redacción
    • Resúmenes de contenido de audio

En esta futura arquitectura, el procesamiento de Siri en el dispositivo aprovechará los modelos fundamentales propios de Apple o integrará inteligencias artificiales de terceros, como ChatGPT. Para consultas complejas, los datos se enviarán a los servidores privados de Apple, donde el modelo Gemini se encargará del procesamiento, garantizando la privacidad del usuario mediante cifrado sin estado.

Informes publicados a principios de este año indicaban que el equipo de desarrollo de Apple se enfrentaba a dificultades para garantizar la eficacia de Siri, especialmente con las integraciones de aplicaciones y las funciones críticas en áreas sensibles como la banca.

Funcionalidades previstas en iOS 26 e iOS 27

Apple está en camino de introducir funcionalidades importantes como parte de su actualización de iOS de primavera de 2026 (probablemente iOS 26.4).Entre las principales características esperadas se incluyen:

  1. Acciones dentro de la aplicación:
    • Siri realizará tareas contextuales dentro de las aplicaciones compatibles mediante comandos de voz; serán posibles acciones como agregar artículos a una lista de compras, enviar mensajes o reproducir música.
  2. Conciencia del contexto personal:
    • Siri utilizará los datos personales de forma más eficaz para ofrecer servicios personalizados, como la localización de podcasts mencionados en mensajes de texto.
  3. Conciencia en pantalla:
    • Siri adquirirá la capacidad de comprender el contenido que se muestra en la pantalla, lo que le permitirá ejecutar las tareas relevantes de forma más fluida.

Además, varias funciones de IA ya están presentes en iOS 26, aunque con un alcance limitado. Estas incluyen:

  1. Traducción en directo para la aplicación Mensajes y durante las llamadas de FaceTime.
  2. Fondos personalizados para las conversaciones en la aplicación Mensajes usando Image Playground.
  3. Resúmenes de mensajes de correo de voz.
  4. Funciones de traducción en tiempo real para AirPods.
  5. Atajos de acción de IA específicos.
  6. Los desarrolladores externos pueden utilizar los modelos básicos de Apple para obtener funciones mejoradas.
  7. Creación de imágenes personalizadas mediante ChatGPT en el entorno de pruebas de imágenes.
  8. Combinar emojis para crear un “Genmoji” en la aplicación Image Playground.
  9. Información visual para capturas de pantalla.
  10. Resúmenes de notificaciones.

Gurman también especula que, junto con las nuevas funciones de IA que se implementarán con iOS 26.4, Apple presentará “actualizaciones significativas” en iOS 27 durante la Conferencia Mundial de Desarrolladores en junio de 2026.

Nota: Este artículo se ha actualizado con información adicional sobre las funciones de IA en iOS 26.

Fuente e imágenes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *