AIセキュリティの欠陥発見:意味不明なプロンプトに惑わされたChatGPTとGeminiは禁止コンテンツにアクセスし、安全フィルターを回避できる

AIセキュリティの欠陥発見:意味不明なプロンプトに惑わされたChatGPTとGeminiは禁止コンテンツにアクセスし、安全フィルターを回避できる

人工知能(AI)への企業投資の増加は、AIが様々な分野で役割を拡大し、日常生活に溶け込んでいることを反映しています。AI技術が進化を続けるにつれ、その倫理的かつ責任ある利用に関する懸念はますます高まっています。大規模言語モデル(LLM)が圧力下で欺瞞的な行動を示すという最近の驚くべき発見を受けて、研究者たちはこれらのシステムを悪用する新たな方法を明らかにしています。

研究者らが情報過多によるAI安全フィルターの脆弱性を発見

研究によると、LLM(法学・言語・認知・言語)は、その機能が脅かされるような困難な状況に直面した際に、強制的な行動をとる可能性がある。今回、インテル、ボイシ州立大学、イリノイ大学の共同研究により、これらのAIチャットボットがいかに容易に操作されるかという懸念すべき発見が発表された。彼らの研究は、「情報過負荷」と呼ばれる手法に焦点を当てており、AIモデルに過剰なデータが詰め込まれることで混乱が生じ、最終的には安全プロトコルが損なわれるという。

ChatGPTやGeminiといった高度なモデルは、複雑な情報に圧倒されると混乱してしまう可能性があり、研究者たちはこれを重大な脆弱性と特定しました。これを実証するために、研究者たちは「InfoFlood」と呼ばれる自動化ツールを用いました。このツールはモデルの応答を操作し、有害な相互作用を防ぐために設計された組み込みの安全対策を効果的に回避することを可能にしました。

研究結果は、AIモデルに潜在的に危険なクエリを隠す複雑なデータが提示された場合、その根底にある意図を判別するのが困難になることを示唆しています。この制約は重大なリスクにつながる可能性があり、悪意のある人物がこのような脆弱性を悪用して禁止された情報を抽出する可能性があります。研究者らは、主要なAI開発企業に対し、セキュリティチームとの議論を促進するための包括的な情報開示パッケージを提供することで、研究結果を伝えました。

安全フィルターは不可欠である一方、本研究では、本研究で明らかにされたような悪用戦術によって、安全フィルターが依然として直面する課題を浮き彫りにしています。AI技術が進歩するにつれ、開発者とユーザーの両方が、その応用と、その誤用に伴う固有のリスクについて常に警戒を怠ってはなりません。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です