OpenAIとGoogle DeepMindの従業員がAIリスクについて警告

人工知能 (AI) テクノロジーの発展を注意深く観察してきた経験豊富なアナリストとして、私は公開書簡で現従業員と元従業員のグループが提起した懸念を共有します。 AI 業界における透明性と説明責任の欠如は、対処する必要がある重要な問題です。


MicrosoftのOpenAIやAlphabetのDeepMindなど、これまで大手AI企業で働いていた多くの人々は、人工知能技術の進歩から生じる潜在的な危険について懸念を表明している。

アナリストとして、私は前職や現在の職場での内部告発行為に関する個人的な懸念や批判に基づいたものではなく、最先端の AI 企業の従業員に警告する権利を認めることを主張しました。

— ニールナンダ (@NeelNanda5) 2024年6月4日

アナリストとして、私はこれを次のように言い換えます。私は他の13人の専門家とともに、火曜日に公開された、人工知能(AI)に関して「警告する権利」の承認を主張する書簡を書きました。業界の秘密的な性質は、私たちがこの公開声明で取り上げようとしている懸念事項です。私たちの中には、OpenAI、Google DeepMind、Anthropic の現従業員や元従業員もいます。

この書簡は、AI企業が自社技術の機能と危険性に関する貴重な未公開データを保持していることを強調している。ただし、これらの組織は、そのような情報を公共部門または市民社会に開示するという最小限の強制に直面しています。 AI 開発のこの隠蔽された性質は、人工知能に関連する潜在的な脅威と悪影響についての不安を引き起こします。

OpenAIは、内部報告メカニズムや新技術の慎重な展開に言及し、自社の行為を擁護してきた。対照的に、Googleはこの問題について沈黙を守っている。

AI テクノロジーの進歩により、その潜在的な危険性についての懸念が高まっており、現在の AI の急増により、こうした懸念がさらに高まっています。安全な進行を保証するという公約がなされているが、専門家や内部関係者は十分な監視メカニズムが存在しないと指摘している。その結果、AI ツールは既存の社会リスクを悪化させたり、新たな社会リスクをもたらしたりする可能性があります。

公開書簡では、透明性、説明責任、安全上の懸念を表明する従業員の保護という 4 つの重要な原則を主張しています。この書簡は企業に対し、従業員がAIに関連するリスクを共有することを妨げる非軽蔑条項の賦課を控えるよう求めている。さらに、取締役会に匿名で報告するためのチャネルを作成することも推奨しています。

この書簡の公開は、同社がAI開発における安全性の確保に注力しなくなっていることに懸念を表明した安全専門家のジャン・ライケ氏を含む、OpenAIの重要人物が退職した後に行われた。さらに、従業員の表現に関する制限政策の噂により、AI セクター内の透明性と労働者の権利に対する懸念がさらに重くなっています。

人工知能の急速な進歩に伴い、業界内の関連する会話においては、安全プロトコルの強化と強力な内部告発者保護策が引き続き求められるでしょう。

2024-06-05 09:09