OpenAIの元従業員、「AIのタイタニック号で働く」ことを避けて辞任

人工知能と安全プロトコルの背景を持つ研究者として、ウィリアム・サンダースの懸念は非常に憂慮すべきものであると感じています。 OpenAI の現在の軌道とタイタニック号の軌道との彼の比較は誇張ではありません。 AGI の開発に伴う潜在的なリスクは計り知れず、慎重かつ系統的なアプローチが必要です。


最近のポッドキャストのインタビューで、ウィリアム・サンダース氏はOpenAIの安全担当社員としての役割を辞めた理由を語った。

同氏は同社のAI進歩戦略に対する懸念を表明し、それがタイタニック号の不運な航海を反映しており、危険な海域に向かう可能性があると警告した。

サンダース氏は、OpenAI のスーパー アライメント チームのメンバーとして 3 年間を過ごし、組織の目標についての見解を表明しました。同氏は、有料サービスを開始する計画とともに、汎用人工知能(AGI)の開発に注力していることを強調した。

インタビュー中、彼は OpenAI の現在の軌跡と、アポロ宇宙計画やタイタニック号の建造などの注目すべき歴史的事業との類似点を示し、類似点を示しました。

AI のタイタニック号で働くことになりたくなかったので、退職しました。
ウィリアム・サンダース

サンダース氏は、OpenAIが本質的な安全性の問題に対処するよりも、商業的な成果と製品のリリースをより重視していることに懸念を表明した。

また、サンダース氏の観点から、AIの進歩に関連するリスクにも注意を喚起した。 AI開発における壊滅的な事件は、大規模なサイバー攻撃を開始したり、国民感情を変えたり、生物兵器の製造に寄与したりするモデルとして形を成す可能性がある。

サンダース氏は、彼らの行動について私たちが持っている理解が限られていると強調し、高度な言語モデルの導入を遅らせないよう強く求めた。同氏は、現時点では高度なAIシステムの動作を制御し、予測することは依然として課題であると付け加えた。

2024-07-12 04:52