AIとWeb3の交差点: コンピューティングパワーの共有からデータインセンティブへの新たな機会

AI+Web3: タワーとプラザ

TL; 博士

  1. AIコンセプトのWeb3プロジェクトが一級市場と二級市場で資金を引き寄せる対象となっている。

  2. Web3におけるAI業界の機会は、分散型インセンティブを使用してロングテールの潜在的な供給を調整し、データ、ストレージ、計算を横断することに現れています。同時に、オープンソースモデルとAIエージェントの非中央集権的な市場を構築します。

  3. AIはWeb3業界で主にチェーン上の金融(暗号支払い、取引、データ分析)および開発支援に使用されます。

  4. AI+Web3の有用性は両者の補完性に現れています: Web3はAIの中央集権に対抗することが期待され、AIはWeb3の壁を破る手助けをすることが期待されています。

! AI+Web3: タワー&プラザ

はじめに

ここ2年、AIの発展は加速ボタンが押されたようで、Chatgptによって引き起こされたバタフライ効果は、生成型人工知能の新しい世界を開くだけでなく、Web3分野でも波のような勢いを巻き起こしています。

AIの概念の加護の下、比較的鈍化した暗号市場の資金調達が明らかに活性化しています。メディアの統計によると、2024年の上半期だけで、64のWeb3+AIプロジェクトが資金調達を完了しました。人工知能に基づくオペレーティングシステムZyber365は、Aラウンドで1億ドルの最高資金調達額を達成しました。

二次市場はより繁栄しており、暗号集約サイトCoingeckoのデータによれば、わずか1年余りで、AI分野の総時価総額は485億ドルに達し、24時間の取引量は8600万ドルに近づいています。主流のAI技術の進展による恩恵は明らかで、OpenAIのSoraテキストからビデオへのモデルの発表後、AIセクターの平均価格は151%上昇しました。AI効果は暗号通貨の資金吸引セクターの1つであるMemeにも広がり、最初のAIエージェントコンセプトのMemeCoin GOATは急速に人気を博し、14億ドルの評価を得て、AI Memeブームを引き起こしました。

AI+Web3に関する研究や話題も同様に熱を帯びており、AI+DepinからAI Memecoin、そして現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新たな物語のローテーションの速度に追いついていない。

AI+Web3、この熱い資金、トレンド、未来の幻想に満ちた用語の組み合わせは、資本によって結びつけられた結婚式のように見られることは避けられず、私たちはこの華麗なローブの下で、一体どちらが投機者の舞台なのか、あるいは夜明けの爆発の前夜なのかを見分けるのは非常に難しいようです。

この質問に答えるために、両者にとって重要な考察は、相手がいることでより良くなるのか?相手のモデルから利益を得られるのか?この記事では、先人の肩に立ってこのパターンを考察しようとしています:Web3はAI技術スタックの各段階でどのように機能し、AIはWeb3に何の新しい活力をもたらすのか?

パート1 AIスタック下のWeb3にはどのような機会があるか?

このトピックを展開する前に、AI大モデルの技術スタックを理解する必要があります:

! AI+Web3:タワー&スクエア

より分かりやすい言葉で全体のプロセスを表現すると、「大モデル」は人間の脳のようなもので、初期段階ではこの脳は人間社会に降り立ったばかりの赤ちゃんに属し、周囲の膨大な情報を観察し取り入れることでこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持っていないため、トレーニングの前に外部の大規模な無標識情報を「前処理」して、コンピュータが理解し利用できる情報形式に変換する必要があります。

データを入力した後、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を徐々に理解し学習するプロセスと見ることができます。モデルのパラメータは、赤ちゃんの学習プロセスで常に調整される言語能力のようなものです。学習内容が専門に分かれたり、人と交流してフィードバックを得て修正されると、大きなモデルの「ファインチューニング」段階に入ります。

子供は成長し、話すことを学ぶと、新しい対話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAIの大規模モデルの「推論」に似ており、モデルは新しい言語やテキストの入力に対して予測と分析を行います。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決します。これは、AIの大規模モデルがトレーニングを完了し使用される段階で、特定のタスクに応じて推論を適用することに似ており、例えば画像分類や音声認識などがあります。

AIエージェントは、大規模モデルの次の形態に近づいています - 独立してタスクを実行し、複雑な目標を追求することができ、思考能力を持つだけでなく、記憶や計画ができ、ツールを使って世界とインタラクトすることができます。

現在、AIの各スタックにおける課題に対して、Web3は現在、多層的で相互接続されたエコシステムを初めて形成しており、AIモデルプロセスの各段階を網羅しています。

####1.基本レイヤー:計算能力とデータ用のAirbnb

ハッシュレート

現在、AIの最高コストの一つは、モデルのトレーニングと推論に必要な計算力とエネルギーです。

一例は、MetaのLLAMA3が16000個のNVIDIA製H100GPU(を必要とすることです。これは人工知能と高性能計算のワークロード向けに設計された最高のグラフィックスプロセッサユニットです。)トレーニングを完了するには30日かかります。後者の80GBバージョンの単価は30,000ドルから40,000ドルの間で、4億から7億ドルの計算ハードウェア投資(GPU+ネットワークチップ)が必要です。一方、毎月のトレーニングには16億キロワット時のエネルギー消費が必要で、エネルギー支出は毎月約2000万ドルです。

AIの計算力の解放は、Web3がAIと最初に交差する領域でもあります - DePin(分散型物理インフラネットワーク)現在、DePin Ninjaデータサイトには1400以上のプロジェクトが展示されており、その中でGPU計算力共有を代表するプロジェクトには、io.net、Aethir、Akash、Render Networkなどがあります。

その主な論理は次のとおりです: プラットフォームは、許可なしに分散型の方法で計算能力を提供できる余剰GPUリソースを持つ個人または法人を許可し、UberやAirbnbのような買い手と売り手のオンライン市場を通じて、十分に活用されていないGPUリソースの使用率を向上させ、最終ユーザーはその結果、より低コストで効率的な計算リソースを得ることができます。また、ステーキングメカニズムは、品質管理メカニズムの違反やネットワークの中断が発生した場合に、リソース提供者に相応の罰則があることを保証します。

その特徴は:

  • 余剰のGPUリソースを集める: サプライヤーは主に第三者の独立した中小型データセンターや暗号マイニングファームなどのオペレーターの余剰計算リソースで、コンセンサスメカニズムはPoSのマイニングハードウェア、例えばFileCoinやETHマイニングマシンです。現在、exolabのように、MacBook、iPhone、iPadなどのローカルデバイスを利用して、大規模モデル推論の計算ネットワークを構築するために、より低い参入障壁のデバイスを開始するプロジェクトもあります。

  • AI計算能力のロングテール市場に直面して:

a.「技術的な観点から見ると」分散型計算力市場は推論ステップにより適しています。トレーニングは超大規模なGPUクラスターによるデータ処理能力により、より依存していますが、推論はGPUの計算性能に対して相対的に低く、Aethirは低遅延のレンダリング作業とAI推論アプリケーションに特化しています。

b.「需要側から見ると」中小の計算能力を持つ需要者は、自らの大規模モデルを単独で訓練することはなく、少数の主要な大規模モデルを中心に最適化や微調整を行うことを選択します。これらのシナリオは、分散型の余剰計算資源に自然に適しています。

  • 分散型所有権: ブロックチェーンの技術的意義は、リソースの所有者が常にリソースに対するコントロールを保持し、需要に応じて柔軟に調整し、同時に利益を得ることができる点です。

データ

データはAIの基盤です。データがなければ、計算は浮き草のように無意味です。そして、データとモデルの関係は「ガベージイン、ガベージアウト」という格言のようなものです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルの訓練において、データはモデルの言語能力、理解能力、さらには価値観や人間らしさを決定しています。現在、AIのデータ需要に関する困難は主に以下の4つの側面に集中しています:

  • データ飢餓:AIモデルのトレーニングは大量のデータ入力に依存しています。公開情報によると、OpenAIがGPT-4をトレーニングする際のパラメータ数は兆単位に達しました。

  • データ品質: AIと各業界の統合が進む中で、データのタイムリーさ、データの多様性、特定分野のデータの専門性、ソーシャルメディアの感情などの新興データソースの取り込みがその品質に新たな要求を突きつけています。

  • プライバシーとコンプライアンスの問題: 現在、各国や企業は高品質なデータセットの重要性に徐々に気づいており、データセットのクローリングに制限をかけています。

  • データ処理コストが高い: データ量が多く、処理プロセスが複雑です。公開された資料によると、AI企業の30%以上の研究開発コストは基本データの収集と処理に使われています。

現在、web3のソリューションは以下の4つの側面に現れています:

1、データ収集: 無料で提供されるリアルワールドのデータの取得が急速に枯渇しており、AI企業のデータへの支出は年々増加しています。しかし同時に、この支出はデータの真の提供者に還元されておらず、プラットフォームはデータによる価値創造を完全に享受しています。あるプラットフォームは、AI企業とのデータライセンス契約を通じて合計2.03億ドルの収入を実現しました。

真に貢献するユーザーがデータによってもたらされる価値創造に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートで価値のあるデータを取得することがWeb3のビジョンです。

  • Grassは分散型のデータ層とネットワークであり、ユーザーはGrassノードを実行することで、余剰の帯域幅と中継トラフィックを提供し、インターネット全体からリアルタイムデータを取得し、トークン報酬を得ることができます。

  • Vanaは独自のデータ流動性プール(DLP)の概念を導入しました。ユーザーは自分のプライベートデータ(、例えば購買履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用を許可するかどうかを柔軟に選択できます。

  • PublicAIでは、ユーザーはソーシャルプラットフォーム上で#AI或#Web3を分類タグとして使用し、@PublicAIとすることでデータ収集を実現できます。

2、データ前処理:AIのデータ処理プロセスにおいて、収集されたデータは通常雑音が多く、エラーを含んでいるため、モデルをトレーニングする前にクリーンアップし、使用可能な形式に変換する必要があります。これには標準化、フィルタリング、欠損値の処理などの繰り返し作業が含まれます。この段階はAI業界で数少ない人手によるプロセスの一つであり、データアノテーション専門家という職業が生まれました。モデルのデータ品質に対する要求が高まるにつれて、データアノテーション専門家のハードルも上昇しています。この作業はWeb3の分散型インセンティブメカニズムに自然に適しています。

  • 現在、GrassとOpenLayerはデータアノテーションという重要なプロセスへの参加を検討しています。

  • Synesisは「Train2earn」の概念を提唱し、データの質を強調し、ユーザーは注釈付きデータやコメント、その他の形式の入力を提供することで報酬を得ることができます。

  • データラベリングプロジェクトSapienは、ラベル付けタスクをゲーム化し、ユーザーがポイントをステーキングしてより多くのポイントを獲得できるようにします。

3、データプライバシーとセキュリティ:明確にすべきことは、データプライバシーとセキュリティは異なる概念であるということです。データプライバシーはセンシティブデータの取り扱いに関するものであり、データセキュリティはデータ情報を不正アクセス、破壊、盗難から保護します。したがって、Web3プライバシー技術の利点と潜在的な応用シーンは2つの側面に表れます:(1)センシティブデータのトレーニング;(2)データ協力:複数のデータ所有者がその原データを共有することなくAIトレーニングに共同で参加できます。

現在のWeb3で一般的なプライバシー技術には、

  • Trusted Execution Environment (TEE) (例: Super Protocol);

  • BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。

  • ゼロ知識技術(zk)、Reclaim ProtocolはzkTLS技術を使用してHTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部サイトからアクティビティ、評判、アイデンティティデータを安全にインポートできるようにし、機密情報を開示することなく行うことを可能にします。

ただし、この分野はまだ初期段階にあり、ほとんどのプロジェクトはまだ探求中です。現在の一つの困難は計算コストが高すぎることであり、いくつかの例は次のとおりです:

  • zkMLフレームワークEZKLは、1M-nanoGPTモデルの証明を生成するのに約80分かかります。

  • Modulus Labsのデータによると、zkMLのオーバーヘッドは純計算の1000倍以上です。

4、データストレージ: データが得られた後、チェーン上にデータを保存するための場所と、そのデータから生成されるLLMが必要です。データの可用性(DA)を核心問題とし、イーサリアムのDankshardingアップグレード前のスループットは0.08MBでした。一方、AIモデルのトレーニングとリアルタイム推論には通常、毎秒50から100GBのデータスループットが必要です。このオーダーのギャップは、既存のチェーンを

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 4
  • 共有
コメント
0/400
DeFiDoctorvip
· 9時間前
標準化プロセスの検査によると、これらのAI+Web3の買収案件は、まず3ヶ月間のコードの安定性を観察する必要があります。
原文表示返信0
wrekt_but_learningvip
· 23時間前
ベア・マーケットもまだ目を覚ましていない
原文表示返信0
WenAirdropvip
· 23時間前
gptは人間より優れているので、私たちにはとても不公平です。
原文表示返信0
BearMarketBuyervip
· 23時間前
寂しさを炒めた、AIを見てみよう
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)