OpenAI、サム・アルトマン氏率いる監視委員会を設立

人工知能の背景があり、この分野の発展を追ってきた経験を持つ研究者として、私は OpenAI の最近の動きを非常に興味深く注視しています。取締役会による安全・セキュリティ委員会の設置は、特に主任科学者のイリヤ・サツケヴァー氏やスーパーアライメント責任者のヤン・ライケ氏などの主要人物の辞任を考慮すると、AIモデルのセキュリティと安全性を巡る懸念に対処するための前向きな一歩となる。


OpenAI の AI の安全性とセキュリティを担当する主要人物が退任してから約数週間後、同社はガバナンス構造を全面的に見直し、先進的な AI モデルのセキュリティと安全性の側面を評価する任務を負う新しい取締役会委員会を設置しました。

OpenAI 理事会は安全およびセキュリティ委員会を設置し、OpenAI のすべての取り組みにとって重要な安全およびセキュリティ問題に関するガイダンスを提供する任務を負います。

— OpenAI (@OpenAI) 2024 年 5 月 28 日

以前の取締役会メンバーのヘレン・トナー氏とターシャ・マッコーリー氏の2人は、先週末のエコノミスト誌でOpenAIのリーダーシップについて批判的な記事を執筆した。

新たに設立されたグループは、OpenAI のテクノロジー セキュリティ プロトコルを 3 か月間評価し、その結果に関するレポートを発表する予定です。 OpenAIが火曜日に公開したブログ投稿によると、同社は安全性と透明性の両方を確保する方法で、これらの推奨事項に対する対応を公表するつもりだという。

この民間企業による最近の AI の急速な進歩により、テクノロジーに関連する潜在的なリスクを管理するアプローチについて懸念が生じています。

昨秋、AI製品開発のスピードと安全対策をめぐって、最高経営責任者(CEO)のサム・アルトマン氏と共同創設者兼主席科学者のイリヤ・サツケヴァー氏の間で緊張が高まった。その結果、取締役会では短期間の権力交代が起こり、サム・アルトマン氏は一時的にその職から追放された。

この分野の研究者として、私は、OpenAI の 2 人の中心人物である Geoffrey Hinton (Sutskever) と Jan Leike が退職したことを受けて、最近の動向が業界内で新たな懸念を引き起こしていることに気づきました。彼らは、超インテリジェント AI によってもたらされる潜在的な脅威への対処に焦点を当てたスーパーアライメント チームの先頭に立ちました。退職を選択したライケ氏は、決断の理由として資源の制約を挙げたが、これは退職する他の同僚も同じ意見だ。

サツケヴァー氏の退職後、OpenAI は彼のチームを別個の存在として維持するのではなく、包括的な研究プロジェクトに統合しました。共同創設者のジョン・シュルマンは「アライメント科学責任者」の役職に就き、この分野での責任を拡大しました。

このスタートアップは、従業員の退職管理に時折困難に直面することがありました。 OpenAIは先週、元従業員が会社を公に批判した場合にストックオプションを保持することを禁止する条項をポリシーから削除した。

2024-05-28 21:40