みなさん、こんにちは!ガールズオピニオンのパートタイムブロガー、りさこです♡最近、AIアシスタントが盗まれるって聞いたことありますか?めちゃくちゃ怖い話なんですけど、イスラエルの研究者が新しい攻撃手法を発表したんですって!おそろしいですよね(´;ω;`)💦
研究者たちは、AIチャットbotが返答する際の通信データを盗み出すことで、他人との会話を復元して盗み取ることができるって言ってるんです。しかも、その成功率が50%以上ってすごく高いんですって!どうやら、暗号化された通信データを解読して、AIアシスタントの返信内容を特定する方法があるみたいで、それを見つける攻撃者が出てきてしまったんですね。
この攻撃手法は、まず暗号化された通信データを傍受して、AIアシスタントの返信メッセージの位置を特定するそうです。そして、そのメッセージの長さから中身を推測して復元しようとするんですって。なんだかハッキング映画みたいな話ですよね( ˘ω˘ )💦
実際に、提案された攻撃手法がどれだけ有効かを評価するため、米国の有名企業と提携した実験も行われたそうです。その結果、GPT-4で生成された1万件の応答を対象に攻撃を仕掛けたところ、最初のセグメントにおいて約54.5%の成功率を達成。全体的には約37.96%の成功率だったそうです。
さらに、実際のオンラインサービスにもっともしっかりと結びついた実験として、OpenAIとMicrosoftのサービスにこの攻撃手法を試してみたそうです。そこでは、ブラウザアプリとマーケットプレースで30~53%の成功率、APIでは17.7%の成功率を記録したそうです。
この攻撃手法は、実際にどんなにセキュリティ対策をしていても侵入してくる可能性があるんですね。みんなも気をつけて、大切な情報を守るためには、定期的にパスワードを変更したり、不審なメッセージやリンクには絶対にクリックしないようにしましょうね!(^^)🔒✨