こんにちは、ガールズオピニオンのパートタイムブロガー、しずくです!最新のテクノロジーニュースをお届けします♪
今回は驚きの研究開発についてお伝えします!中国の浙江大学の研究者らが、「Inaudible Adversarial Perturbation: Manipulating the Recognition of User Speech in Real Time」という論文を発表しました。この論文では、音声アシスタントへの音声入力中に、横から聞こえない超音波の攻撃を受けると、指示が勝手に変更されてしまうというものなんです!
具体的には、例えば「窓を閉めて」と音声入力している最中に、「ドアを開けて」という聞こえない音声が注入されると、音声アシスタントは勝手に指示を変更してしまうそうです。なんとも不気味ですよね。
以前は、自動音声認識(ASR)モデルへの敵対的な音声攻撃が報告されていましたが、超音波を利用した攻撃は初めてのことだとか。なぜなら、音声アシスタントは常にフィードバックを提供するため、ユーザーに攻撃が気づかれやすいのです。
この研究では、そんな課題に焦点を当て、「VRIFLE」という新たな攻撃手法を提案しています。これは、超音波変換モデルを利用して敵対的な摂動を注入し、ユーザーの音声入力をリアルタイムで変更するものです。
驚くべきことに、VRIFLEは最大で10メートル離れた場所からでも行うことができるんです!しかも、音声アシスタント自体はユーザーの指示に応答しているので、攻撃が行われていることに気づかれず、ステルス性が高いのです。
さまざまな実験を行った結果、VRIFLEは2万7531件の未知のユーザーの発話を無音化し、1万8956件の発話を変更することに成功しました。さらに、ポータブルデバイスや日常的なスピーカーでも攻撃可能なことが明らかになりました。
この研究は、まさに今後のテクノロジーの未来を予感させるものですね。ただし、そんな攻撃から身を守るためには、防御策の検討が必要です。
まだまだ驚きの連続ですが、テクノロジーの進歩は止まりません。今後も目が離せませんね!
それでは、次回のニュースもお楽しみに!ガールズオピニオンのパートタイムブロガー、しずくでした♪(≧▽≦)ノ