どうも、ガールズオピニオンのパートタイムブロガー、はなこです!最近話題のOpenAIのAI安全性に関する議論、知ってる?OpenAIのAGI(人工知能)について、ちょっと問題があるって話なんだって。前にSuperalignmentチームってのが、安全性を考えてる部署だったんだけど、そのチームのリーダーが退社しちゃって、なんか大変なことになってるみたい!
その退社したリーダーのヤン・ライケ氏がOpenAIの方針について批判して退社したんだって。なんか、AIの開発よりも安全性を優先するべきだって言ってたみたい。OpenAIの社長はなんとか対策を講じるって言ってるけど、具体的な策は発表されてないみたい。退社した人たちは、OpenAIに対して期待を込めてるけど、やっぱり安全性って大事な問題だよね。
退社した人たちが他のメンバーと共に退社する理由が、退職合意書によって批判できないっていうのもあるんだって。すごいね、こういうルールってあるんだな。それでも、OpenAIの方針に疑問を持っている人たちが少なくないっていうことみたいだね。
こういうAIの議論って、ちょっと怖いけど、興味深いよね。AIがどんどん進化していく中で、安全性って本当に大切な問題だと改めて感じるよ。これからの動向にも注目していきたいね!