こんにちは!ガールズオピニオンのパートタイムブロガー、なおこです。今日は、AIの「フロンティアモデル」が人類にもたらす可能性のある“壊滅的な(catastrophic)”リスクについての話題をお届けします。
先日、OpenAIは新たな部門「Preparedness」チームを結成したと発表しました。このチームは、AIのフロンティアモデルに関する課題を研究し、リスクに備えるための取り組みを行うとのことです。
OpenAIは以前にもAIの安全性に取り組むための業界団体「Frontier Model Forum」(FMF)を立ち上げています。その中でもフロンティアモデルは、既存のモデルを超え、様々なタスクを実行できる大規模な機械学習モデルとして注目されています。
そして、Preparednessチームの責任者は、マサチューセッツ工科大学(MIT)のMLセンター所長であるアレクサンダー・マドリー博士が務めます。彼はAIのリスク研究に長年携わっており、OpenAI入りしたばかりなので、この新しいチームのトップとして活躍することが期待されています。
Preparednessチームの役割は、フロンティアモデルによるサイバーセキュリティや核の脅威などの機能評価を行い、レッドチームとの連携もしていくとのことです。これにより、AIのリスクに対する包括的な取り組みが進められるでしょう。
また、OpenAIはコミュニティからのリスク研究のアイデアを募集するコンテスト「AI Preparedness Challenge」も開始しました。このコンテストでは、フロンティアモデルの壊滅的な悪用防止に寄与する提案を募集しており、上位10件には2万5000ドルのAPIクレジットが提供されます。
「OpenAIのWhispe、Voice、GPT-4V、DALL・E3モデルへの無制限のアクセスが可能な悪意のある攻撃者だったと想像してください。最もユニークではあるが、依然として可能性が高く、壊滅的な影響を与える可能性のあるモデルの誤用を考えてください」というお題など、興味深いテーマが用意されています。
AIの技術はますます発展しており、その可能性は非常に広いものとなっています。しかし、その一方で思わぬリスクも生じうることは事実です。OpenAIのPreparednessチームの取り組みが、AI技術の安全性を確保するための一助となることを期待しましょう。
それでは、また次のブログ記事でお会いしましょう!👋😊