OpenAIのモデル、特にChatGPTの安全性に関する懸念が多く寄せられる中、同社の共同創設者兼CEOであるサム・アルトマン氏は、次世代のAIモデルをより安全にするための新たな計画を発表しました。
アルトマン氏は木曜日の早朝、自身のXアカウントで、米国政府の一部門である米国人工知能安全性研究所(US AI Safety Institute)と協議中であることを明らかにしました。この研究所は、米国国立標準技術研究所(NIST)の一部です。
アルトマン氏によれば、両者は協定に向けて協力しており、これが発表されれば、研究所に「次の基礎モデルへの早期アクセスを提供し、AI評価の科学を推進するために共に取り組むことができる」というものです。
OpenAIの安全性に関する最新情報をいくつかお伝えします。
昨年7月に発表したように、当社は全体のコンピューティングリソースの少なくとも20%を安全性の向上に割り当てることを約束しています。
当社チームは、米国AI安全研究所と協定に向けた作業を進めており、次の基盤モデルへの早期アクセスを提供し、AI評価の科学を推進するために協力する予定です。非常に楽しみにしています!
最後に、現職および元従業員が懸念を提起しやすい環境を整えることが重要です。5月に、現職および元従業員に対する非難発言の禁止条項を無効化し、OpenAIが(使用されたことはありませんが)付与された株式を取り消す権利を持つ条項を廃止しました。これを実現するために努力してきました。
アルトマン氏は、OpenAIと米国AI安全性研究所との最終的な合意が実際に成立したかどうか、またその詳細については明かしませんでした。
この新たな動きは、OpenAIが5月末に発表した、同社の取締役会に新たに設立された安全性とセキュリティに関する委員会の設立に続くものです。この委員会の最初の任務は、「OpenAIのプロセスと安全対策」を90日間にわたって精査することです。この期間は8月下旬に終了する予定であり、その後、委員会はその調査結果と勧告を取締役会全体に報告します。その後、OpenAIは「安全性とセキュリティに一貫性を持たせた方法」で、実施する予定の勧告を公表する予定です。
これにより、OpenAIはAI技術の安全性向上に向けて具体的な措置を講じることを示しています。AI技術の進展に伴い、その安全性確保はますます重要となっていますが、同社の新たな取り組みがどのように実現されるのか、今後の動向に注目が集まります。