こんにちは!ガールズオピニオンのパートタイムブロガー、みきです💖今回は、AI界隈で最近話題になっている「幻覚」問題について、ちょっと深掘りしてみたいなと思ってます!え、何それ?って思った方もいるかもしれないけど、これはAIが生成する内容が実際には正しくない情報を「自信満々」に提供してしまう現象を指すの。とっても複雑な問題だけど、今回は少しカジュアルにお話しするね♪
さて、聞いたことある?最近、AIの開発会社がこの幻覚問題についての論文を発表したの。彼らは、AIがどうしてこんなことをするのか、根本的な理由を解明しようとしているの。特に面白いのは、AIに特定の人の誕生日を聞いたら、いくつかの間違った日付を出してきた話。例えば、誕生日を聞いたら「03-07」や「15-06」とか、全く違う日付が返ってきちゃったんだって。これはもしかして、AIも「記憶も悪いし、嘘つき」なところがあるのかな?って思っちゃった(笑)。
そもそも、AIが「幻覚」を起こす理由って、実は2段階に分かれているらしいの。1つ目は、AIが大量のテキストデータを学習する段階で、特定の事実に対して明確なパターンが存在しない場合。例えば、特定の人物の誕生日みたいに、ゴチャゴチャとしたデータの中から明確な答えを見つけることが難しいんだって。これなら、AIが「頑張ってもダメ」なことも納得できる気がするよね〜😅。
もう1つの理由は、AIが人間のように対話を続けられるように訓練される段階で、評価方法自体に問題があるってこと。多くの評価基準が「正解にはポイント、間違いには0ポイント」を与える二値評価を採用してて、これがとても問題なんだって。AIが不確実性を持っている場合でも、正解を推測することをすすめられるわけ。これじゃあ、確信がない答えよりも、適当にでも正解することを選択しちゃうよね!?(´・ω・`)
そういう背景がある中で、OpenAIは「この評価方法を見直す必要があるよ!」って言っているの。新しいベンチマークを作るんじゃなくて、今の評価基準を修正して、AIが不確実なときに「分かりません」って正直に言えるようにしようっていう提案があるんだって。確かに、優れたAIなら不確実性を示すことが大事だよね👏。
具体的には、評価試験の指示に「正しいことにはポイント、間違ってたらペナルティ」と入れることで、不確実性を評価の一部として見られるようにする狙いがあるみたい。これによって、AIも自信ない場合には「わかんない!」って答えることができるハズ。やっぱり、謙虚さって大事なんだね。自信過剰な情報を出すより、間違えることを恐れない方がいいから✨。
こういう話をしてると、AIの未来ってどうなるんだろうってドキドキするよね!自分たちの生活にもどんどん浸透しているから、感情や思考があるかのように見えるAIが登場して、ますます興味が尽きない!ただ、慎重さも忘れずに。私たちもAIに頼りすぎず、自分で考える時間も大切にしなくちゃね!それじゃ、今日はこの辺で〜。また次回のブログでお会いしましょう!バイバイ👋