OpenAI 2023 年に盗まれた機密 AI の詳細: レポート

経験豊富なサイバーセキュリティアナリストとして、私は昨年の OpenAI でのセキュリティ侵害について懸念せずにはいられません。ハッカーが AI を収容および開発しているシステムにアクセスできなかったのは安心できますが、従業員の議論から OpenAI のテクノロジーに関する詳細を引き出すことができたという事実は、依然として懸念を抱かせる重大な原因です。


前年、ChatGPT の背後にある革新的な企業である OpenAI で、ハッカーが社内メッセージング プラットフォームへの侵入に成功するという不幸な事件が発生しました。

ハッカーは、フォーラムでの従業員の会話を通じて、OpenAI の人工知能イノベーションに関する情報にアクセスすることに成功しました。しかしロイター通信によると、この侵入はAIが構築されホストされているシステムには影響を与えなかったという。

Microsoft Corporation から資金援助を受けている OpenAI は、前年 4 月の従業員および取締役会による社内会合で、過去に起きた事件の詳細を明らかにしたと言われています。彼らは社内でこの情報を開示しましたが、事件中に顧客やパートナーシップの機密データが侵害されなかったため、この情報を公開しないことを選択しました。

OpenAI幹部は、ハッカーには外国政府とのつながりがないと考えていたため、セキュリティ違反は国家安全保障に危険を及ぼすものではないと判断した。その結果、連邦法執行機関はこの出来事について知らされていなかった。

アナリストとして、私はいくつかの注目すべきニュースに遭遇しました。OpenAI は、オンラインで欺瞞的な目的で高度な AI モデルを操作しようとする少なくとも 5 件の秘密の試みを阻止しました。この出来事は、高度な AI テクノロジーの悪用を巡る懸念が現在も続いていることをはっきりと思い出させるものとなっています。

私はアナリストとして、米国の先進的な人工知能(AI)技術を中国やロシアなどの国々によってもたらされる潜在的なリスクから守るためにバイデン政権が行っている取り組みを観察してきました。この目標を達成するために、OpenAI の ChatGPT で採用されているような高度な AI モデルを特に対象とした規制の導入を検討しています。

さまざまな障害に直面しながらも、5 月に開催されたサミットには主要な AI 企業 16 社が集まり、倫理的にテクノロジーを開発することに尽力しました。これは、規制の抜け穴や人工知能イノベーションの進歩から生じる潜在的な危険に対処するための取り組みが増えていることを示しています。

OpenAI におけるセキュリティ上の欠陥の発見により、人工知能技術の安全性に関する深刻な懸念が生じています。この事件は内部での暴露につながりましたが、盗まれたデータは本質的に機密性が高いため、一般公開はされませんでした。 AI が前例のないペースで進歩するにつれ、潜在的な誤用や規制の抜け穴に対処することがますます重要になっています。

2024-07-05 10:12