AI ニュース: メタと OpenAI が課題に直面する中、国連がグローバルな AI ガバナンスを呼びかけ

テクノロジーと政策の分野で数十年の経験を持つベテランのアナリストとして、私は最近の国連によるグローバルな AI ガバナンスの呼びかけが、デジタル時代において極めて重要な瞬間であると感じています。テクノロジーの急速な進化とそれが社会に与える影響を目の当たりにしてきた私は、AI を規制するための統一的なアプローチを確立することが緊急であることを理解しています。この分野における大規模な多国籍企業の支配力が増大していることは、AI 研究所と世界の他の国々との間の透明性の欠如と同様に憂慮すべきことです。

AI 最新情報: 国連は、国連諮問グループからの提案に基づいて、人工知能 (AI) に関連する潜在的なリスクを最小限に抑えるための 7 つの戦略を提案しました。この諮問委員会の最終報告書は、AI規制における一貫した戦略の必要性を強調しており、今月下旬に開催される国連会議で議論される予定だ。

AI ニュース: 国連がグローバルな AI ガバナンスを呼びかけ

39人のメンバーからなる諮問グループは、国際的な大企業がAI技術の進歩を驚くべきペースで主導しているという事実に対する懸念を強調した。同グループは、AIの開発と応用は単純な市場原理を超えているため、AIの効果的なグローバルガバナンスが極めて重要であると強調した。

国連の報告書が推奨しているように、人工知能に関する信頼できる公平な情報を国際社会と共有し、AI研究所と世界の他の国々の間にある既存の知識のギャップを埋めることを役割とするチームを設立することが提案されています。

この勧告には、特にAIを使用する余裕がない発展途上国における能力と協力の違いに対処するための世界的なAI基金の創設が含まれています。この報告書はまた、透明性と説明責任を高める目的でグローバルな人工知能データフレームワークを確立する方法、および人工知能のガバナンスに関するすべての問題に対処することを目的とした政策対話の確立方法に関する推奨事項も提供しています。

同報告書は、現時点で規制のための新たな国際機関の設立は提案されていないが、潜在的なリスクが増大した場合には、技術規制を監督する権限を持つより強力な世界的組織が必要になる可能性があると示唆した。最近、軍事用途でAIを制御するための「行動ロードマップ」を採用した米国などの一部の国とは異なり、中国はまだこのアプローチを支持していない。

欧州における規制の調和を求める

AI テクノロジーの進歩と同時に、Meta のチーフ AI サイエンティストであるヤン・ルカン氏などの影響力のある人物は、多数のヨーロッパの CEO や学者とともに、EU 内で AI に関する規制がどのように施行されるかを理解したいとの意向を表明しています。彼らは公開書簡の中で、ルールが学問の自由を抑圧したり、倫理的なAI開発を妨げたりしない限り、EUにはAIから経済的に利益を得るまたとない機会があると強調した。

規制上の障害により、Meta が今後リリースする Llama という名前の多面 AI モデルは、欧州連合では利用できません。この状況は、技術の進歩と規制の監視との間の緊張を浮き彫りにしています。

懸念を抱いている仮想通貨投資家として、私はマーク・ザッカーバーグ、ヨーロッパのCEO、学者らと共同で執筆した公開書簡に自分の声を加え、大陸内のAIに関する規制状況の明確化を主張しました。確実性の必要性は、イノベーションを促進し、消費者を保護し、この革新的なテクノロジーの責任ある開発を保証するために最も重要です。

欧州連合は、規制がオープンな環境を妨げない限り、AI テクノロジーを進歩させ、その経済的利益を享受する用意ができています。

— Yann LeCun (@ylecun) 2024 年 9 月 19 日

公開書簡は、過度に厳格なルールはEUがこの分野で前進する能力を妨げる可能性があると主張し、リスクに対処しながら強固な人工知能産業の発展を可能にする措置を講じるよう政策立案者に求めている。この書簡は、CoinGapeが報じたApple iPhone OSの警告のようにAIの成長を妨げず、AIの進歩を促進できる一貫した法律の必要性を強調している。

OpenAI、批判の中で安全監視を再構築

さらに、AI の安全性と規制問題に対する OpenAI のスタンスについても議論が行われています。この会話は米国の政治家や元従業員からの批判を受けて起こり、CEOのサム・アルトマン氏が同社の安全・セキュリティ委員会を辞任するに至った。

仮想通貨投資家として、私はこの委員会の役割の変化に気づきました。当初は、人工知能技術の安全性を確保することを主な目的として設立されました。現在、安全性に対する潜在的なリスクが適切に対処されるまで、新モデルの発売を一時停止できる自律的な組織に再構築された。

新たに設立された監視委員会には、ニコール・セリグマン氏、元米陸軍大将のポール・ナカソネ氏、Quora CEOのアダム・ディアンジェロ氏などが含まれている。彼らの仕事は、OpenAI によって確立された安全プロトコルが組織の目標と一致していることを確認することです。この最近の国連 AI の発表は、OpenAI が責任ある人工知能管理よりも金銭的利益を重視しているという元研究者らの主張に基づくものです。

2024-09-20 00:22