OpenAIのリーダーシップ、元従業員の安全性の申し立てに対応

テクノロジー業界の経験豊富なアナリストとして、私は、OpenAI の元最高安全責任者であるヤン・ライク氏の退職に関するサム・アルトマン氏とグレッグ・ブロックマン氏との間の最近の公開のやりとりが非常に興味深いと思います。


ChatGPTの背後にある組織であるOpenAIのリーダーであるサム・アルトマン氏とグレッグ・ブロックマン氏は最近、X.comの公開フォーラムでヤン・ライク氏の最近の退社について語った。 Jan Leike は、OpenAI の安全チームの著名な人物でした。

CryptoMoonの最近の記事によると、ライク氏は同社で調整責任者の職にあった。しかし、5月17日、経営陣との解決できない対立を理由に辞任を発表した。

OpenAIのリーダーシップ、元従業員の安全性の申し立てに対応

「ライク氏は、OpenAIでは安全文化や手順よりも優れた製品の開発を優先することが蔓延していると主張した。」

ライク氏の投稿から 1 日以内に、ブロックマン氏とアルトマン氏はすぐに反応し、それぞれ立て続けに X.com に参加しました。

ブロックマン氏の貢献に関して、彼は社内の安全性の調整を確実にするための 3 つの重要な要素からなる詳細かつ複雑な計画を提案しました。

まず同氏は、OpenAIが安全性への懸念を無視したという主張に反対を表明する前に、ライク氏が同社にもたらした貴重な貢献を認めた。

OpenAIのリーダーシップ、元従業員の安全性の申し立てに対応

アナリストとして、私は次のように言います。「私は執筆の中で、汎用人工知能 (AGI) の潜在的な危険性と利点に注意を向けてきました。特に、私の組織は、AGI が広く規制されるずっと前から、AGI の世界的な規制を提唱していました。」話題について話し合った。」

「第二に、私たちは、ますます高性能化するシステムを安全に導入するために必要な基盤を整備してきました。新しいテクノロジーを初めて安全にする方法を見つけるのは簡単ではありません。」

ブロックマン氏のスピーチの結びの部分では、今後の課題は私たちが過去に直面したものよりもさらに大きくなるだろうと強調した。新型車が登場するたびに増大するリスクに対応するには、安全対策を継続的に強化することが不可欠です。

状況を分析したところ、他のテクノロジー大手とは異なり、当社はより慎重に開発に取り組んでいることがわかりました。新機能をリリースするための安全基準を正確にいつ満たすかは不明であり、その結果、リリース スケジュールが延長される可能性があります。

サム・アルトマンの最近のコミュニケーションを研究している研究者として、私は彼が特定のトピックに関して最初のメッセージを簡潔に保ったにもかかわらず、近い将来さらなる洞察を共有することを示唆していることに気づきました。

「アルトマン氏の評価に同意する。ライク氏の指摘は正当な懸念を引き起こしている。我々はそれらにさらに取り組む決意をしている。」

2024-05-19 19:39