Outbyte PC Repair

Apple、新たな躍進を遂げ、自然言語コマンドで画像を操作できる新しい AI モデルを発表

Apple、新たな躍進を遂げ、自然言語コマンドで画像を操作できる新しい AI モデルを発表

Apple は多くの面で ChatGPT や Google の Gemini に後れを取っています。しかし、同社は今年後半のiOS 18のリリースに合わせてiPhone 16のラインナップにこの技術を導入することを目指しており、AIに多額の投資を行っている。現在、Appleの研究者が画像ベースで編集できる新しいAIモデルをリリースしたと報じられている。ユーザーによる自然言語コマンド。この技術は6月に開催される同社のイベント「WWDC 2024」で披露される可能性がある。

Apple の新しい AI モデルは自然言語入力を解釈し、画像を操作できる

「 MGIE」またはMLLM ガイド付き画像編集と呼ばれる Apple の新しい AI モデルは、ユーザー コマンドをピクセル レベルで解釈して実行できるマルチモーダルな大規模言語モデルです ( VentureBeat経由)。このツールは、明るさ、シャープネス、コントラストなど、画像のさまざまな領域を操作および編集できます。画像を操作して芸術的な効果を追加することもできます。

これ以外にも、ローカル編集により、写真内の被写体の形状、色、サイズ、テクスチャが変更される可能性があります。 Photoshop に似た編集には、画像のサイズ変更、トリミング、回転、フィルターの追加が含まれます。ユーザーは画像の背景を変更することもできます。 Apple の新しい AI モデルは、コンテキストと一般的な推論を理解します。たとえば、ピザの画像とそれをより健康的にするためのプロンプトを追加できます。 AI モデルは、健康が食品内の野菜に関連していることを認識し、自動的に画像に野菜を追加します。

Apple AI モデルは自然言語入力で画像を操作できます

このツールは、グローバル最適化リクエストを使用して、画像の照明とコントラストを操作できます。さらに、Photoshop のような編集により、ユーザーの要求に応じて背景からオブジェクトを削除することもできます。以下に追加した画像で、Apple の AI モデルが動作しているのを見ることができます。同社はカリフォルニア大学の研究者と提携して MGIE を作成しており、この技術が完成したら、同社のデバイス用のさまざまなアプリケーションを作成する予定です。この論文は2024年の学習表現国際会議(ICLR)で発表された。

Apple AI モデルは自然言語入力で画像を操作できます

AI モデルをチェックすることに興味がある場合は、事前トレーニングされたモデルを含むコードとデータが GitHub で入手できます。 Apple はかなり前から AI に取り組んでおり、実装が遅れているとはいえ、その機能は業界とは異なる可能性があります。同社は昨年12月にフラッシュメモリ利用技術を発明し、大規模な言語モデルをiPhoneや他のApple製品で動作できるようにした。

Appleは今年後半にいくつかのAI機能を発表する予定で、おそらくWWDC 2024イベントでiOS 18やその他のソフトウェアアップデートとともに発表される予定だ。以前のレポートでは、Apple が今年後半の新しい iPhone モデルの発売に合わせて生成 AI 機能を導入すると述べられていました。 iOS 18では、現在GoogleアシスタントやAmazonのAlexaなどに後れを取っているSiriを、AIを使って強化する予定だ。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です