Vitalik Buterin 氏、突然危険な AI が発生した場合に備えてコンピューティングに「ソフト一時停止」を設定

イーサリアムの共同開発者ヴィタリック・ブテリン氏によると、高度な人工知能が有害であることが判明するリスクがある場合、世界の計算リソースを一時的に停止することで人類に追加の時間が与えられる可能性があるという。

1月5日のブログ更新で、ブテリン氏は「防御的加速主義」(d/acc)に関する2023年11月の投稿をさらに詳しく述べた。同氏は、高度な人工知能がわずか5年以内に出現する可能性があるが、その結果が好ましいものとなるかどうかは不透明だと警告した。

Vitalik Buterin 氏は、大規模なコンピューティング ハードウェアの生産を一時的に制限することが AI の進歩を減速させる方法として役立つ可能性があると提案しています。これにより、約 1 ~ 2 年間で世界の計算能力が 99% も削減される可能性があり、人類が準備して適応するための追加の時間を得ることができます。

スーパーインテリジェンスと呼ばれる高度な人工知能の概念は、すべての分野および知識領域にわたって一貫して人間の知能を上回るエンティティとして一般に理解されています。

2,600人以上が署名した2023年3月の公開書簡からもわかるように、かなりの数のテクノロジーリーダーや科学者がAIに関する懸念を表明している。彼らは、その開発に伴う「根深いリスク」により社会と人類に生じる潜在的な危険について懸念を表明した。

しかし、ブテリン氏は、前回の記事は危険なタイプの最高知能を避けることを示唆しただけであり、今回はAIが重大なリスクをもたらす状況に対する潜在的な解決策について議論するつもりであると明言した。

しかし、ブテリン氏は、法的責任のような「より強力な行動」が必要であると確信する場合にのみ、ハードウェア・ソフトの一時停止を主張する意向を表明した。これは、AI を利用、実装、または作成した個人が、そのモデルが害を及ぼす場合、訴訟に直面する可能性があることを意味します。

この人物は、AI ハードウェアの一時停止計画には、AI チップの位置を特定し、その登録を要求することが含まれる可能性があると示唆しましたが、その代わりに、産業規模の AI ハードウェアに、AI ハードウェアの停止のみを許可するチップを搭載できるというアイデアを提案しました。重要な国際機関から少なくとも週に 1 回、3 つの署名を受け取れば機能します。

より簡単に言うと、ブテリン氏は、これらの署名はさまざまなデバイスで機能すると述べました(オプションで、署名がブロックチェーンに投稿されたことを示す証拠を要求することもできます)。これは、一度認証されると、他のすべてのデバイスを同時に認証せずに、1 つのデバイスのみが機能し続けることを許可する実現可能な方法がないことを意味します。

技術開発に対するブテリンの提案は、加速主義または効果的な加速主義が示唆する急速で制約のない進歩ではなく、慎重な戦略を強調しています。

AI Eye: AI が作成したミームコイン「宗教」を中心に奇妙なカルトが成長しています

2025-01-06 06:07