AIは2年以内に人類を脅かす可能性があると英国AI特別委員会顧問が警告

英国首相の AI 特別委員会顧問は、重大な存続リスクを抑制するために、今後 2 年間で大規模な AI モデルの規制と管理が必要になると述べた。

英国の首相付きAI特別委員会顧問は、人工知能が強力になりすぎるまで人間が制御し規制するまでに約2年の猶予があると述べた。

政府の高等研究発明庁長官も務めるマット・クリフォード氏は、英国の地元メディアとのインタビューで、現在のシステムは「ますます高性能になっている」と強調した。

同氏は続けて、当局が今すぐ安全性と規制の検討を始めなければ、2年後にはシステムは「非常に強力」なものになるだろうと述べた。

「これらの非常に大規模なモデルの制御と規制の両方を現在よりもはるかに可能にする枠組みを整備するのに2年かかります。」

クリフォード氏は、AIに関しては、短期的なものと長期的なものの両方で「さまざまな種類のリスク」が存在すると警告し、それを「かなり怖い」と述べた。

このインタビューは、AI安全性センターが前週に公開した書簡に続いて行われた。書簡にはOpenAIのCEOを含む350人のAI専門家が署名し、AIは核兵器やパンデミックによってもたらされるのと同様の存続の脅威として扱われるべきだと述べた。 。

「彼らは、私たちが事実上、人間よりも優れた知性を備えた新種を創造したら何が起こるかについて話しているのです。」

AI特別委員会の顧問は、AIによってもたらされるこれらの脅威は、「2年後のモデルが予想されるところから、すべての人間ではなく、多くの人間が死亡する可能性がある」「非常に危険な」脅威である可能性があると述べた。

クリフォード氏によると、規制当局と開発者の主な焦点は、モデルを制御する方法を理解し、世界規模で規制を導入することに集中すべきであるという。

今のところ、最大の懸念は、AI モデルがなぜそのように動作するのかが理解されていないことだと同氏は述べた。

「最も有能なシステムを構築している人々は、[AI システムが] 自分たちの動作をどのように示すかを正確に理解していないことを率直に認めています。」

クリフォード氏は、AI を構築する組織のリーダーの多くも、強力な AI モデルは導入前に何らかの監査と評価のプロセスを受ける必要があることに同意していることを強調しました。

現在、世界中の規制当局は、ユーザーを保護しながらイノベーションを可能にする規制を作成しようとしながら、テクノロジーとその影響の両方を理解するために奔走しています。

6 月 5 日、欧州連合当局者は、偽情報を防ぐために、AI によって生成されたすべてのコンテンツにその旨のラベルを付けるよう義務付けることまで提案しました。

英国では野党の閣僚がCAISの書簡で述べられた意見に同調し、医療や原子力と同様に技術も規制されるべきだと述べた。

2023-06-06 13:02