分散型 AI は、より公平な AI アルゴリズムの鍵となる — マサ共同創設者

人工知能 (AI) の発展とその潜在的な影響を注意深く観察してきた者として、私は分散型 AI がより安全で公平な AI アルゴリズムを作成するための重要な前進であると強く信じています。私たちが集中型 AI ソリューションで経験したことは、Google の画像ジェネレーターのような例に見られるように、集中型 AI ソリューションが重大な不正確さや偏りを引き起こす可能性があることを示しています。


人工知能 (AI) を分散的に開発することは、より安全で公平な AI システムを作成するために重要です。これは、AI の開発を単一の集中的な組織が管理するのではなく、さまざまな組織や個人に分散されることを意味します。そうすることで、バイアスのリスクを軽減し、AI アルゴリズムの安全性を高めることができます。

マサネットワークの共同創設者であるカランシア・メイ氏によると、集中型AIソリューションとは対照的に、分散型AIソリューションは、より透明で公平な人工知能システムの開発において重要な役割を果たすことが期待されているという。 Mei は CryptoMoon とのインタビューでこの視点を共有しました。

「分散型 AI は、AI の存在上の欠陥に対処し、より公平で安全な AI を確保しようとします。」

創設者は、ブロックチェーン上の分散型 AI の主な利点を強調しました。それは、透明性によるより明確な意思決定プロセス、より強力なデータ保護、そして個人がトークンの形で報酬を得るためにデータやコンピューティング能力を共有できるようにするユーザー制御モデルです。

私は、過去に広く使用されている一部の集中型 AI モデルが不正確さを生み出し、ソーシャル メディアの反発を引き起こしたことに気づきました。たとえば、Google は 2 月に、AI 画像ジェネレーターが生成した歴史的に不正確で物議を醸した画像を理由に、その AI 画像ジェネレーターを停止せざるを得ませんでした。この事件は、これらの先進技術の意思決定プロセスに重大な疑問を投げかけました。

「分散型 AI は、Gemini AI で発生したようなアルゴリズム出力のバイアスを克服するために不可欠です。これは、これらのアルゴリズムの意思決定プロセスの透明性を高めることで実現されます」と Mei 氏は CryptoMoon に説明しました。

「一元化された AI は、既存の力の不均衡、プライバシーへの懸念、偏見を前例のないペースで増幅させます。これは、AI が米国建国の父たちを有色人種として描写した Google Gemini AI 事件に例示されていますが、これはおそらく長年にわたる人種的偏見問題の過剰修正であると考えられます。 AIで。」

ブロックチェーンと分散型 AI プロトコルを使用することで、AI 結果のデータ発信元の透明性が確保されます。 AI の品質はトレーニング データに依存するため、この透明性は不可欠です。 Mei 氏が述べたように、「AI の有効性は、学習のために与えられたデータに大きく依存します。」

「データの品質、多様性、代表性は、AI システムのパフォーマンスと公平性に直接影響します。偏ったデータや限定されたデータは、歪んだ偏った結果をもたらし、AI 主導の意思決定の信頼性を損なう可能性があります。」

masa Network は、AI アプリケーションにより信頼性の高いデータを提供することを目的とした、最大規模の分散型 AI データおよび大規模言語モデル プロトコルの 1 つです。

Duneの報告によると、約158万の異なるウォレットが個人情報をMasa Networkと共有しています。

分散型 AI は、より公平な AI アルゴリズムの鍵となる — マサ共同創設者

4 月 25 日、Masa Network は、分散型インフラストラクチャに基づくプラットフォームに取り組む最初の 13 社の AI 開発パートナーを発表しました。分散型 AI の可能性を拡大するこれらのビルダーをサポートするために、Masa Network はこの目的のために 100,000 ドル相当の MASA トークンを割り当てました。

4 月 11 日、メインネットが MASA トークンとともにネットワークで稼働し、運用が開始されました。マサの傘下にある最初の 13 プロジェクトの中には、分散型ソーシャル メディア プラットフォームである CharacterX、オンチェーン取引用に設計されたグラフ AI モデルである Pond、Web3 アプリケーション向けに調整されたインテリジェント データ インフラストラクチャである RootData などがあります。

2024-04-25 17:05