io.net が FLock と提携して AI の新たな成果を実現

20年以上の経験を持つ熟練の仮想通貨投資家として、FLockとio.netのパートナーシップは革命に他ならないと認めざるを得ません。 Proof-of-AI (PoAI) コンセンサス メカニズムの概念は、AI と Web3 セグメントの状況を再構築する可能性があります。

AI 学習プラットフォーム FLock (小文字の「l」が付いた Flock ではありません) は、io.net と提携して、分散コンピューティング ネットワーク上のノード向け初の Proof-of-AI (PoAI) 検証システムを作成しました。このイノベーションは、多数のアプリケーションにわたって AI 計算の効率を向上させることを目的としています。

FLock と io.net が提携を発表、Proof-of-AI コンセプトを紹介

io.net と GPU 管理プラットフォームとフェデレーテッド AI 学習サービスの FLock は、長期的な戦略的パートナーシップの計画を明らかにしました。この提携により、AI および Web3 分野に、開発および計算を目的とした一連の新しいツールが提供されることが期待されています。

1/ @ionet と X FLock のエキサイティングなコラボレーション: 画期的な進歩

画期的な人工知能証明 (PoAI) コンセンサス メカニズムの構築に取り組んでいます。

目的?分散型コンピューティング ネットワーク内の DePIN ノードの信頼性を認証します。

AI を活用した、この作業中心の Proof of Work について詳しくご覧ください。

— FLock.io (@flock_io) 8 月 29 日2024年

具体的には、分散コンピューティング ネットワーク内で機能するノードの信頼性を検証するための初期の人工知能証明 (PoAI) 契約システムの開発に協力しています。

PoAI を通じて、分散型物理インフラストラクチャ ネットワーク (DePIN) は、複雑な AI トレーニング割り当てを実行することでノードの信頼性を認証できます。 PoAI は、AI 向けに特別に設計された一種の Proof of Work であり、検証リソースを貴重な AI プロジェクトに向けます。このようにして、ノードは DePIN だけでなく、IO.net や FLock.io などの AI トレーニング ネットワークからもブロック報酬を受け取ることができます。

FLock の創設者兼 CEO である Jiahao Sun 氏は、今後のリリースが DePIN、AI、Web3 セクターに重要な関連性を持っていることを強調します。

信頼できるコンピューティング リソースは、AI エンジニアとエンド ユーザーの両方にとって同様に重要であり、Proof of AI (PoAI) はそのような信頼を構築するための基盤として機能します。コンピューティング インフラストラクチャは AI 開発のバックボーンを形成するため、最初にこの側面に対処することが不可欠です。私たちは、AI の取り組みに一流のコンピューティング リソースを確実に提供できるよう、業界のパイオニアである io.net と協力できることを大変うれしく思っています。

分散型の AI 統合アプローチを使用して DePIN ノードの信頼性を確保するシステムは、一貫してチャレンジを生成し、応答を収集し、意思決定のために関連する統計 (レイテンシー、スコア変動、データ精度など) を io.net ノードに提供するエンジンを備えています。 。

Web3 で AI モデル トレーニングの障壁を乗り越える

io.net の CEO 兼共同創設者である Tory Green は、最新のパートナーシップが人工知能を複数のシナリオに適用するために提供する幅広い可能性に興奮しています。

Proof of AI の出現により、分散コンピューティング システム全体での AI モデルのトレーニングと推論プロセスが大幅に強化されることが期待されています。おそらく、GPU ノード オペレーターと広範な AI/ML 開発コミュニティは、Proof of AI の利点を期待して、Proof of AI を温かく受け入れるでしょう。

人工知能の領域に手を出している暗号通貨投資家として、私はモデルトレーニングにおける合成データの重要性を理解するようになりました。ただし、LLama3 のトレーニングで見られるように、15 兆のトークンを合成して精製するという作業は簡単な作業ではありません。したがって、FLock Data Generation は、アイドル状態の GPU リソースを活用して、FLock タスク クリエーターとトレーニング ノードの両方が要求する言語モデル (LLM) でバッチ推論を実行するという賢明なソリューションを考案しました。

長期的に見て、分散型 AI が繁栄するには、GPU を使用した分散型 AI システムが良好なパフォーマンスを発揮することが不可欠です。しかし、実際よりも多くの計算能力を持っていると偽ってシステムを悪用しようとする悪意のある人物がいます。典型的な方法の 1 つは、ネットワークをだまして、より多くのコンピューティング リソースがあると思わせることです。

研究者として、私は重大な懸念に遭遇しました。それは、強力な抑止メカニズムが欠如しているため、ノード オペレーターが実際の貢献に関係なく、ネットワークの報酬を求めて不謹慎な行動を起こす可能性があるということです。悪意のある攻撃者が真の作業をまったく実行せずにリソースの表現を捏造し、報酬を要求する可能性があるため、ノードの整合性を検証することは困難な作業です。

2024-08-29 19:19