データ、モデルと算力は AI インフラの三大核心要素であり、一つも欠けてはならない。従来の AI 業界のインフラ進化パスと同様に、Crypto AI 分野も似たような段階を経ている。2024 年初頭、市場は一時的に去中心化 GPU プロジェクトに主導され、一般的に「算力を競う」粗放的な成長ロジックが強調された。しかし、2025 年に入ると、業界の関心は徐々にモデルとデータ層へと移行し、Crypto AI が基盤リソース競争からより持続可能で応用価値のある中層構築へと移行することを示している。
General Large Model(LLM)とSpecialized Model(SLM)
従来の大規模言語モデル(LLM)のトレーニングは、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに及び、1回のトレーニングコストは数百万ドルに達することがよくあります。一方、SLM(Specialized Language Model)は再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はオープンソースモデルに基づき、少量の高品質専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低下させます。
しかし、オープンソースの基盤モデルの上に、Crypto AI プロジェクトは、特化した言語モデル(SLM)をファインチューニングし、Web3 の検証可能性とインセンティブメカニズムを組み合わせることで、価値の拡張を実現できます。AI 産業チェーンの「周辺インターフェース層」として、2つのコア方向を反映しています:
データとモデルに基づくブロックチェーン AI チェーンは、各データおよびモデルの貢献源を明確かつ改ざん不可能なオンチェーン記録として記録し、データの信頼性とモデルのトレーニングのトレーサビリティを大幅に向上させます。また、スマートコントラクト機構を通じて、データまたはモデルが呼び出されると自動的に報酬配布がトリガーされ、AI 行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブ体系を構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデル性能を評価し、ルールの策定とイテレーションに参加し、分散型ガバナンス構造を強化することができます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
NEARのような、より基盤に近く、データ主権と「AI Agents on BOS」アーキテクチャを主打とする汎用AIチェーンに対して、OpenLedgerはデータとモデルインセンティブに特化したAI専用チェーンの構築に集中しており、モデルの開発と呼び出しをチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することに努めています。それはWeb3の世界におけるモデルインセンティブの基盤インフラであり、モデルホスティング、使用課金、チェーン上でのコンポーザブルインターフェースを組み合わせて、「モデルは資産である」という実現経路を推進しています。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAG トレーサビリティを通じて、6つの主要モジュールを含み、安全で制御可能、リアルタイムインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)
OpenLedgerがAIの新エコシステムをリード:OP Stack+EigenDAがインテリジェントエコノミーのインフラを構築
OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルコンバイナブルなエージェント経済を構築する
一、引言 | Crypto AI のモデルレイヤーの飛躍
データ、モデルと算力は AI インフラの三大核心要素であり、一つも欠けてはならない。従来の AI 業界のインフラ進化パスと同様に、Crypto AI 分野も似たような段階を経ている。2024 年初頭、市場は一時的に去中心化 GPU プロジェクトに主導され、一般的に「算力を競う」粗放的な成長ロジックが強調された。しかし、2025 年に入ると、業界の関心は徐々にモデルとデータ層へと移行し、Crypto AI が基盤リソース競争からより持続可能で応用価値のある中層構築へと移行することを示している。
General Large Model(LLM)とSpecialized Model(SLM)
従来の大規模言語モデル(LLM)のトレーニングは、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに及び、1回のトレーニングコストは数百万ドルに達することがよくあります。一方、SLM(Specialized Language Model)は再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はオープンソースモデルに基づき、少量の高品質専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低下させます。
注目すべきは、SLMはLLMの重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットプラグ、RAG(検索強化生成)などの方法でLLMと協力して動作することです。このアーキテクチャは、LLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟な組み合わせ型インテリジェントシステムを形成しています。
Crypto AI におけるモデル層の価値と境界
Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。その核心的な理由は、
しかし、オープンソースの基盤モデルの上に、Crypto AI プロジェクトは、特化した言語モデル(SLM)をファインチューニングし、Web3 の検証可能性とインセンティブメカニズムを組み合わせることで、価値の拡張を実現できます。AI 産業チェーンの「周辺インターフェース層」として、2つのコア方向を反映しています:
AIモデルタイプの分類とブロックチェーンの適用性分析
これにより、モデル型のCrypto AIプロジェクトの実行可能な落ち着きは主に小型SLMの軽量化チューニング、RAGアーキテクチャのオンチェーンデータ接続と検証、そしてEdgeモデルのローカルデプロイとインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。
データとモデルに基づくブロックチェーン AI チェーンは、各データおよびモデルの貢献源を明確かつ改ざん不可能なオンチェーン記録として記録し、データの信頼性とモデルのトレーニングのトレーサビリティを大幅に向上させます。また、スマートコントラクト機構を通じて、データまたはモデルが呼び出されると自動的に報酬配布がトリガーされ、AI 行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブ体系を構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデル性能を評価し、ルールの策定とイテレーションに参加し、分散型ガバナンス構造を強化することができます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン
OpenLedgerは、現在の市場で数少ないデータとモデルインセンティブメカニズムに焦点を当てたブロックチェーンAIプロジェクトです。これは「Payable AI」という概念を初めて提唱し、公平で透明性が高く、組み合わせ可能なAI運営環境を構築することを目指しています。データ提供者、モデル開発者、およびAIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に応じてチェーン上の収益を得ることを促進します。
OpenLedgerは「データ提供」から「モデルデプロイ」そして「呼び出し分配」に至る全てのチェーンループを提供しており、そのコアモジュールには以下が含まれます:
上記のモジュールを通じて、OpenLedgerはデータ駆動型のモデルコンバイナブルな「エージェント経済インフラ」を構築し、AIバリューチェーンのオンチェーン化を推進しています。
そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。
NEARのような、より基盤に近く、データ主権と「AI Agents on BOS」アーキテクチャを主打とする汎用AIチェーンに対して、OpenLedgerはデータとモデルインセンティブに特化したAI専用チェーンの構築に集中しており、モデルの開発と呼び出しをチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することに努めています。それはWeb3の世界におけるモデルインセンティブの基盤インフラであり、モデルホスティング、使用課金、チェーン上でのコンポーザブルインターフェースを組み合わせて、「モデルは資産である」という実現経路を推進しています。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
三、OpenLedger のコアコンポーネントと技術アーキテクチャ
3.1 モデルファクトリー、コード不要のモデルファクトリー
ModelFactoryはOpenLedgerエコシステムにおける大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactoryは純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールやAPI統合を必要としません。ユーザーはOpenLedgerで完了した承認と審査のデータセットに基づいてモデルを微調整できます。データの承認、モデルのトレーニング、およびデプロイメントの統合ワークフローを実現しており、そのコアプロセスには以下が含まれます:
Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAG トレーサビリティを通じて、6つの主要モジュールを含み、安全で制御可能、リアルタイムインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:
OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、チェーン上の展開における現実的な制約(推論コスト、RAG適合、LoRA互換性、EVM環境)に基づいた「実用優先」の構成がなされています。
Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ提供者とモデル開発者の権益を確保しています。低いハードル、収益化可能性、そして組み合わせ可能性の利点を持ち、従来のモデル開発ツールと比較して:
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA、微調整モデルのオンチェーンアセット化
LoRA(Low-Rank Adaptation)は、事前学習済みの大規模モデルに「低秩行列」を挿入して新しいタスクを学習することにより、元のモデルパラメータを変更せずに効率的にパラメータ調整を行う方法です。これにより、トレーニングコストとストレージの要求を大幅に削減できます。従来の大規模言語モデルは通常、数十億または数百億のパラメータを持っています。それらを特定のタスクに使用するには、ファインチューニングが必要です。LoRAの核心戦略は、「元の大規模モデルのパラメータを凍結し、新たに挿入されたパラメータ行列のみをトレーニングする。」というものです。この方法はパラメータ効率が高く、トレーニングが迅速で、デプロイが柔軟であり、現在のWeb3モデルのデプロイと組み合わせ呼び出しに最も適した主流のファインチューニング手法です。
OpenLoRAはOpenLedgerによって構築された、複数のモデルの展開とリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルの展開において一般的な高コスト、低再利用、GPUリソースの浪費といった問題を解決し、「可支払AI」(Payable AI)の実現を推進することです。
OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデル展開と呼び出し機能を実現します。