Apple enfrenta una reacción negativa por un error en las notificaciones de inteligencia artificial
En un reciente paso en falso, Apple está bajo la lupa por las imprecisiones generadas por su función Apple Intelligence. Introducida con las últimas actualizaciones de iOS 18.1, iPadOS 18.1 y macOS Sequoia 15.1, esta herramienta impulsada por IA ofrece funcionalidades como resúmenes de notificaciones, consultas personalizadas a Siri, una herramienta de organización de fotos, resúmenes de correo electrónico y la capacidad de crear emojis personalizados a través de Genmoji. Una de sus funciones destacadas es el reconocimiento avanzado de imágenes en el iPhone 16, que mejora la interacción del usuario.
Descripción general del incidente: una notificación inquietante
La polémica estalló cuando Apple Intelligence proporcionó un resumen de notificaciones de la aplicación BBC News que contenía un grave error. La IA informó que Luigi Mangione se había pegado un tiro, una afirmación que era categóricamente falsa. La interpretación errónea de los titulares de las noticias ha suscitado inquietudes sobre la fiabilidad de la IA a la hora de transmitir información crítica.
Contexto del error
Este incidente es particularmente preocupante dado el contexto en el que se produjo. A principios de este mes, Brian Thompson, director ejecutivo de UnitedHealthcare, fue asesinado trágicamente y su presunto agresor, Luigi Mangione, fue arrestado. La participación de Mangione se convirtió en un punto focal en la cobertura de noticias, pero el sistema de inteligencia de Apple mezcló por error los detalles, lo que dio lugar a un resumen altamente engañoso que podría incitar confusión y ansiedad entre los usuarios.
Respuesta e implicaciones
Las consecuencias de este error no se hicieron esperar. La BBC presentó una queja a Apple, lo que llevó al grupo de defensa global Reporteros Sin Fronteras (RSF) a pedir la desactivación de la función de notificación de Apple Intelligence. RSF destacó este incidente como un claro ejemplo de las deficiencias de la inteligencia artificial a la hora de gestionar con precisión el contenido informativo sensible. Afirmaron:
Este accidente pone de relieve la incapacidad de los sistemas de IA para publicar sistemáticamente información de calidad, incluso cuando ésta se basa en fuentes periodísticas. La forma probabilística en que operan los sistemas de IA los descalifica automáticamente como una tecnología fiable para los medios de comunicación que pueda utilizarse en soluciones dirigidas al público en general.
Cuestiones más amplias de la IA
Este no es un hecho aislado en el ámbito de la inteligencia artificial. A principios de este año, el chatbot Gemini de Google enfrentó una reacción negativa por generar imágenes controvertidas que reimaginaban figuras históricas de manera inapropiada. En respuesta a estos problemas, Google suspendió temporalmente la capacidad de generar imágenes de personas en Gemini, reconociendo que habían «fallado en el blanco».
Deja una respuesta