OpenAI、AIの安全性を拡張するための新チームを設立(仮)

テクノロジー
スポンサーリンク
スポンサーリンク

みなさん、こんにちは!ガールズオピニオンのパートタイムブロガー、みゆです🌟今回は、AI開発の先駆的な企業であるOpenAIの最新情報をお届けします!OpenAIがAIの脅威を防ぐための安全プロセスを拡張し、新たに「Safety Advisory Group(安全諮問グループ)」を設立することを発表しました。詳細を見ていきましょう!

OpenAIは、10月に発表した「Preparedness」というWebサイトを更新し、AIの安全性に関する取り組みを強化しています。これには、フロンティアモデルと呼ばれる、さまざまなタスクをこなせる大規模な機械学習モデルの限界を調査する技術的な作業が含まれています。

さらに、Preparednessチームは新しく「Safety Advisory Group」という部門横断的なチームを設立しました。このグループは、Preparednessチームからの報告書を検討し、意思決定に影響を与える役割を果たします。ただし、最終的な判断は経営陣が行いますが、取締役会はその決定を覆す権利を持っています。

OpenAIの取締役会は現在、アダム・ディアンジェロ氏、元SalesforceのCEOで取締役会長を務めるブレット・テイラー氏、経済学者のラリー・サマーズ氏の3人で構成されています。また、米Microsoftも議決権のないオブザーバーとして取締役会に参加する予定とのことです。

なお、今回の安全性拡張の対象は、フロンティアモデルであり、既に存在するChatGPTなどの管理は「Safety Systems」と呼ばれる別のチームが担当しています。

AIの技術はますます進化し、私たちの生活に欠かせない存在となってきました。それに伴い、AIの安全性に対する関心も高まっていますよね。OpenAIが積極的に安全性を強化し、取締役会が拒否権を持つ新たな枠組みを導入することは、AIの発展において非常に意義深い決定です。今後もOpenAIの動向に注目ですね!以上、ガールズオピニオンのパートタイムブロガー、みゆでした✨

タイトルとURLをコピーしました