カリフォルニア州の AI 法案で業界の数字が二分される

この分野で 20 年以上の経験を持つ熟練の技術者として、私はイーロン マスクのように AI 規制を支持する側に傾いていることに気づきました。規制されていない AI 開発によってもたらされる潜在的な危険は無視するには大きすぎます。私は、強力なテクノロジーが野放しにされるとどのように大混乱を引き起こす可能性があるかをこの目で見てきました。

よりシンプルで読みやすい英語:

フロンティア人工知能モデルのための安全かつ確実なイノベーション法 (SB 1047)

「内部告発の警報の中、カリフォルニア上院が物議を醸す人工知能法案を可決」

「私たちがOpenAIに参加したのは、同社が開発している信じられないほど強力なAIシステムの安全性を確保したかったからです」と書簡には書かれている。その過程で、前例のないサイバー攻撃や生物兵器の製造の支援など、社会に重大な危害をもたらすリスクをもたらすシステムを作成する可能性があります。もし完全に成功すれば、汎用人工知能はこれまで発明された中で最も強力な技術となるだろう」と付け加えた。

この文は公衆にとって潜在的なリスクです。

この文は、より大きな力はより大きな栄光を意味します。

分散型 AI プロジェクトは安全な AI 開発を促進できる

「この法案が仮想通貨やブロックチェーンのイノベーションに及ぼす潜在的な影響を政府の現在の制限と比較する人もいます。しかし、DAOベースのガバナンスを採用することで安全で倫理的なAIモデルを作成するには分散型AIプロジェクトが不可欠であると考える人もいます。コミュニティの積極的な関与により、危険な AI ユースケースを排除し、倫理的なユースケースの成長を促進するのに役立ちます。」

Sakawa KohjiによるPixabayからの画像

2024-09-04 13:20