Apple fait une autre percée et dévoile un nouveau modèle d’IA capable de manipuler des images avec des commandes en langage naturel

Apple fait une autre percée et dévoile un nouveau modèle d’IA capable de manipuler des images avec des commandes en langage naturel

Apple est à la traîne par rapport à ChatGPT et à Gemini de Google sur de nombreux aspects. Cependant, la société a investi massivement dans l’IA car elle vise à intégrer la technologie à la gamme iPhone 16 plus tard cette année avec la sortie d’iOS 18. Il est maintenant rapporté que des chercheurs d’Apple ont publié un nouveau modèle d’IA capable d’éditer des images en fonction de l’IA. commandes en langage naturel par l’utilisateur. La technologie sera éventuellement présentée lors de l’événement WWDC 2024 de l’entreprise en juin.

Le nouveau modèle d’IA d’Apple peut interpréter les entrées en langage naturel et manipuler les images

Le nouveau modèle d’IA d’Apple, appelé « MGIE », ou MLLM-Guided Image Editing , est un grand modèle de langage multimodal qui peut interpréter et exécuter des commandes utilisateur au niveau des pixels (via VentureBeat ). L’outil peut manipuler et modifier une multitude de zones d’une image, notamment la luminosité, la netteté, le contraste et bien plus encore. Il peut également manipuler une image pour ajouter des effets artistiques.

En dehors de cela, l’édition locale peut modifier la forme, la couleur, la taille et la texture du sujet sur une photo. L’édition de type Photoshop comprend le redimensionnement de l’image ou le recadrage, la rotation et l’ajout de filtres. Les utilisateurs peuvent également modifier l’arrière-plan de l’image. Le nouveau modèle d’IA d’Apple comprend le contexte et le raisonnement courant. Par exemple, vous pouvez ajouter l’image d’une pizza et une invite pour la rendre plus saine. Le modèle d’IA ajoutera automatiquement des légumes à l’image, sachant que la santé est associée aux légumes présents dans les aliments.

Apple AI Model peut manipuler des images avec une saisie en langage naturel

Grâce aux requêtes d’optimisation globales, l’outil peut manipuler l’éclairage et le contraste d’une image. De plus, l’édition de type Photoshop peut également éliminer des objets de l’arrière-plan à la demande de l’utilisateur. Vous pouvez voir le modèle d’IA d’Apple en action dans l’image ajoutée ci-dessous. La société s’est associée à des chercheurs de l’Université de Californie pour créer MGIE et, une fois la technologie prête, la société créera diverses applications pour ses appareils. Le document a été présenté à la Conférence internationale sur les représentations d’apprentissage (ICLR) 2024.

Apple AI Model peut manipuler des images avec une saisie en langage naturel

Si vous souhaitez découvrir le modèle d’IA, le code et les données avec les modèles pré-entraînés sont disponibles sur GitHub. Apple travaille sur l’IA depuis un certain temps maintenant, et même si sa mise en œuvre est tardive, les fonctionnalités pourraient être différentes de celles de l’industrie. L’année dernière, en décembre, la société a inventé la technique d’utilisation de la mémoire flash, permettant à de grands modèles de langage de fonctionner sur l’iPhone et d’autres produits Apple.

Apple annoncera certaines fonctionnalités d’IA plus tard cette année, potentiellement lors de l’événement WWDC 2024, aux côtés d’iOS 18 et d’autres mises à jour logicielles. Des rapports précédents mentionnaient qu’Apple déploierait des fonctionnalités d’IA générative avec le lancement des nouveaux modèles d’iPhone plus tard cette année. iOS 18 utilisera l’IA pour mettre Siri sous stéroïdes , car il est actuellement en retard sur Google Assistant et Alexa d’Amazon.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *