OpenAI、AIのリスクに備え専門家チームを設立!未来の危機を考える!

ビジネス
スポンサーリンク
スポンサーリンク

みなさん、こんにちは!ガールズオピニオンのパートタイムブロガー、ももです!最近、AIのリスクが話題になっていますね!OpenAIが、絶滅レベルの脅威を想定して、専門家チーム「Preparedness」を立ち上げたんだって!
AIって、人間の未来に信じられないほどの影響を与える可能性があるんだよね。だから野放しにしておくわけにはいかないんだとか。
「Preparedness」は、現在および将来のAIモデルのリスク要因を調査するんだって。そのリスクは、さまざまなカテゴリーに及ぶんだって!例えば、聞き手に合わせた説得や全体的なサイバーセキュリティ、自律的な複製や適応、さらには化学攻撃や生物攻撃、放射性物質による攻撃、核攻撃のような絶滅レベルの脅威まで含まれるんだって!
え!AIが核戦争を引き起こすってどういうことなの?と思ったけど、AI研究者やエンジニア、Google DeepMindの最高経営責任者(CEO)のDemis Hassabis氏などが「AIによる絶滅のリスクを緩和することは、パンデミックや核戦争といった他の社会規模のリスクと並んで、世界的な優先事項であるべきだ」と警告しているんだって!
AIは、「ハルシネーション」という現象が起こることもあるんだって。これは、AIが事実と異なる情報を勝手に作り出してしまう現象のことなんだって。つまり、AIは人間と同じ世界観を持っている訳じゃないから、間違ったタイミングで核攻撃をすると判断する可能性もあるんだって!怖いよね!
OpenAIは、AIを抑制するために専門家チームが3つの主要な疑問に焦点を当てるんだって。1つ目は、意図的に悪用された場合の危険性、2つ目は、フロンティアAIモデルの重みが盗まれた場合の脅威、3つ目は、フロンティアAIシステムの危険な機能の監視や予測、対策をどうするかってことなんだって。
この専門家チームを率いるのは、マサチューセッツ工科大学(MIT)の教授で、AIの専門家であるAleksander Madry氏なんだって。すごい人なんだよね!
OpenAIはさらに、AIの悪用を防止するためのコンテスト「AI Preparedness Challenge」も開始したんだって!提案が上位に選ばれた人には、最高で370万円相当のAPIクレジットが与えられるんだって!
AIの発展はすごいけど、リスクもますます深刻化しているんだね。OpenAIがしっかりと対策を打ってくれていることを願うよ!みんなもAIの可能性を信じつつ、リスクには警戒していきましょうね!それでは、また次の記事でお会いしましょう!バイバイ(๑•́ ₃ •̀๑)

タイトルとURLをコピーしました