ChatGPT が 2022 年後半にデビューし、人工知能 (AI) の普及に大きく貢献して以来、テクノロジー企業および非テクノロジー企業、既存の企業、新興企業など、さまざまな主体からの関心が高まっています。彼らは皆、AI アシスタントをリリースし、革新的なアプリケーションや機能強化を披露して世間の注目を集めています。
AI があらゆるタスクを処理し、複数の役割を体現できるというテクノロジーリーダーの確信により、AI アシスタントが私たちの生活のさまざまな機能を担うようになりました。彼らはビジネスや人間関係において信頼できるアドバイザーやコンサルタントとなり、指導やサポートを提供してきました。さらに、彼らはセラピスト、仲間、親友として機能し、私たちの個人情報、秘密、考えに注意深く耳を傾けます。
AI 支援サービスを提供する企業は、そのような会話の機密性を理解しており、データを安全に保つための強力な保護手段を実装していることを保証します。しかし、私たちは彼らの約束を本当に信頼できるのでしょうか?
AI アシスタント — 敵か味方か?
ベルグリオン大学の研究者らが3月に発表した新たな研究では、機密情報が危険にさらされている可能性があることが明らかになった。科学者たちは、暗号化をバイパスして、AI アシスタントの応答を驚くべき精度で解読する方法を開発しました。この手法は、Microsoft の Copilot や OpenAI の ChatGPT-4 などの主要プラットフォームのシステムの設計上の欠陥を利用していますが、Google の Gemini は影響を受けません。
さらに、この調査では、ChatGPT などのチャットを傍受する手段を開発した攻撃者が、特別な作業をすることなく、この手法を他の同様のプラットフォームに適用できることが明らかになりました。その結果、このツールはハッカーの間で広まり、広範囲に使用される可能性があります。
ChatGPT を含む AI ヘルパーの作成プロセスの脆弱性が明らかになった調査が以前にもありました。さまざまな学術機関と Google DeepMind からの調査結果が 2023 年末に発表されました。これらの研究者は、特定のプロンプトを提供することで、ChatGMT にトレーニング データの記憶された部分を読み上げさせることができることを発見しました。
研究者たちは、ChatGPT から書籍や詩の正確な一節、Web ページのリンク、個別のユーザー ID、ビットコイン ウォレット アドレス、およびコーディング スクリプトを取得することに成功しました。
悪意のある攻撃者は、トレーニング プロセスを操作するために、意図的に欺瞞的なプロンプトを作成したり、ボットに偽のデータを入力したりする可能性があります。これにより、データセット内に機密の個人情報や職業情報が含まれる可能性があります。
オープンソース モデルには、さらなるセキュリティ上の課題が存在します。たとえば、ある調査では、攻撃者が Hugging Face の変換サービスを操作し、送信されたモデルを制御できることが明らかになりました。このような侵害の結果は深刻です。侵入者は、ターゲットのモデルを独自の悪意のあるモデルに置き換えたり、有害なモデルをリポジトリにアップロードしたり、プライベート データセット リポジトリにアクセスしたりする可能性があります。
Microsoft や Google を含むこれらの組織は、変換サービスを通じて改変を受けた Hugging Face のモデルを合計 905 個保有しており、ハッキング攻撃を受けやすい可能性があり、すでに侵害されている可能性があります。
状況が悪化する可能性がある
AI アシスタントにより優れた機能を与えることは魅力的ですが、サイバー攻撃の標的になるリスクも高まります。
昨年、ビル・ゲイツ氏は高度な人工知能(AI)の将来の役割についてブログに書いた。同氏はこの AI を「包括的なアシスタント」または「エージェント」と呼び、私たちのすべての個人用デバイスと仕事用デバイスへのアクセスが許可されます。その機能は、これらのデバイスから収集されたデータを統合して調査し、情報とタスクを管理することで効率的かつ効果的なアシスタントとして機能することです。
ゲイツ氏はブログで次のように書いています。
ご希望に応じて、エージェントがすべてのアクティビティをお手伝いします。オンラインでのやり取りや現実世界の場所を追跡する許可があれば、あなたが従事している人、場所、活動についての強力な理解を深めます。あなたの個人的および仕事上の人間関係、趣味、好み、スケジュールを取得します。何かを手伝ったり、決断を求めたりするために、いつどのように介入するかを選択します。
これはSFではなく、私たちが思っているよりも早く起こる可能性があります。 AI デバイスのオープンソース エコシステムである Project 01 は、最近 01 Light と呼ばれる AI アシスタントをリリースしました。 「01 Light は、自宅のコンピュータを制御するポータブル音声インターフェースです。画面を表示し、アプリを使用し、新しいスキルを学ぶことができます。」と同社は X に書いています。
パーソナル AI アシスタントを持つことは、非常にスリリングな可能性があります。ただし、セキュリティ上の懸念に迅速に対処することが重要です。開発者は、潜在的な攻撃を防ぐために、システムとコードの脆弱性を徹底的にチェックする必要があります。このエージェントが悪意のある攻撃者の餌食になった場合、あなたの情報だけでなく、関連する個人や組織も含め、あなたの人生全体が危険にさらされる可能性があります。
私たちは自分自身を守ることができるでしょうか?
米国下院は3月下旬から、議員らによるMicrosoftのCopilotの使用に対して厳しい制限を設けた。
下院行政最高責任者のキャサリン・シュピンドール氏によると、Microsoft Copilot アプリは、誤って下院データを未承認のクラウド サービスに転送する可能性があるため、サイバーセキュリティ局によって潜在的なリスクとして特定されました。
4 月初め、サイバー安全性審査委員会 (CSRB) は、2023 年の夏に中国のハッカーによるアメリカ政府高官の電子メール アカウントへの侵害を許可した一連のセキュリティ上の欠陥についてマイクロソフトを非難する報告書を発表しました。これらの事件は回避可能であり、回避すべきでした。阻止されてきました。
レポートの調査結果に基づくと、Microsoft の現在のセキュリティ慣行は標準以下であり、大幅な改善が必要であり、これは同社の Copilot 製品にも影響を与える可能性があります。
Apple、Amazon、Samsung、Spotifyなどのいくつかのテクノロジー企業や、JPモルガン、シティ、ゴールドマン・サックスなどの金融機関は、これまで従業員によるAIアシスタントの使用を制限してきた。
昨年、OpenAI やマイクロソフトなどのテクノロジー大手は、倫理的に健全な人工知能を開発し、使用することにコミットしました。ただし、これまでのところ、この方向に向けた重要な措置は講じられていません。
約束をするだけでは十分ではありません。当局や意思決定者は代わりに具体的な行動を必要としている。当面は、機密の個人情報やビジネス情報の共有を控えることをお勧めします。
私たち全員が集合的にボットの利用を控えれば、意見を聞いてもらえる機会が増え、企業やクリエイターは必要なセキュリティ機能を強化して私たちの安全を優先せざるを得なくなる可能性があります。
この記事は一般的な情報提供を目的としており、法的または投資に関するアドバイスを目的としたものではなく、また、そのようなアドバイスとして受け取られるべきではありません。ここで表明されている見解、考え、意見は著者独自のものであり、必ずしも CryptoMoon の見解や意見を反映または代表するものではありません。
- JPY KRW 予想・見通し・の予想
- BTC 予想・見通し・の予想. BTC 暗号通貨
- BTC JPY 予想・見通し・の予想. BTC 暗号通貨
- トラップ映画のあらすじとネタバレ解説
- J.D.ヴァンスの身長論争を解説:彼の身長は実際どれくらい?
- ノーブラのヴィクトリア・ベッカムは、成功したPFWショーの後、夫のデヴィッドと子供たちのハーパー君(13歳)、クルーズ君(19歳)、そして彼の新しいガールフレンドのジャッキー・アポステルと一緒にディナーに向かう
- USD JPY 予想・見通し・の予想
- ETH 予想・見通し・の予想. ETH 暗号通貨
- ローリン・グッドマン、父親スキャンダルのさなか「アニー・キルナーとの結婚生活を解消するためにカイル・ウォーカーをスパイするよう隣人に頼んだ」
- なぜライル・メネンデスはNetflixのモンスターで頭にネジを負ったのですか?
2024-04-10 23:53