Microsoft、責任ある AI チームを従業員 400 名に拡大

テクノロジーとその倫理的影響に強い関心を持つ経験豊富な仮想通貨投資家として、Microsoft が自社の AI 製品の安全性と責任ある展開を確保するために積極的なアプローチをとっているのを見てうれしく思います。最近の人工知能製品安全チームの人員増員は、同社が透明性と説明責任を優先していることを示す前向きな兆候です。


アナリストとして、私はこのように言いたいと思います。昨年、マイクロソフト社が人工知能製品安全チームの人員をさらに 50 人雇用し、総従業員数が 400 名になったことを観察しました。

同社は水曜日に発表した最初のAI透明性レポートの中で、従業員の約半数がこの取り組みに全力で取り組んでいることを明らかにした。彼らは自社製品の倫理的な展開を保証するための詳細な措置を講じており、最近では新入社員もチームに加わりました。

昨年、マイクロソフトは広範なテクノロジー業界のコスト削減策の一環として、倫理と社会チームを解散しました。その結果、Google や Meta Platforms を含むさまざまな企業で安全性と信頼性の部門が廃止されました。

マイクロソフトは、2 月に Copilot チャットボットで観察されたインシデントから異常な、さらには有害なコンテンツを生成する能力に対する懸念を受けて、自社の AI ツールに対する信頼を高めることを目指しています。

アナリストとして、私は Microsoft の AI 画像制作ツールである Copilot Designer に関するいくつかの懸念すべき情報を見つけました。先月、私は連邦取引委員会、取締役会、および議員に電子メールを送信してこの問題を知らせ、このツールを使用した暴力的で虐待的な画像の作成を防ぐための同社の取り組みが不十分であることへの懸念を表明しました。

Microsoft は、人工知能システムの安全な展開を確保するために、国立標準技術研究所が作成した基本的な方法論に依存しています。

昨年、ジョー・バイデン大統領が出した大統領令に基づき、私は商務省の一部門である私の省庁内でこの新興テクノロジーに関するガイドラインを確立する責任を負っていることに気づきました。

Microsoft は最初のレポートで、責任ある AI 機能を 30 個導入したことを発表しましたが、その中には AI チャットボットに異常な動作をさせようとするユーザーにとっての課題が増大するものもあります。

暗号通貨投資家として、私は潜在的な脅威から投資を守る方法を常に探しています。そのような脅威の 1 つは、AI モデルを操作して予測不可能な動作をさせるプロンプト インジェクション攻撃やジェイルブレイクです。こうした悪意のある試みから身を守るために、企業は「プロンプト シールド」と呼ばれるものを開発しました。簡単に言うと、これらのシールドは障壁として機能し、AI の通常の機能を妨害する意図的な試みを特定して防止します。

2024-05-01 21:56