Rapport de recherche approfondi OpenLedger : construire une économie d'agents intelligente, pilotée par les données et modélisable, sur la base de OP Stack + EigenDA.
I. Introduction | La transition du niveau de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure AI, aucun ne peut être omis. Semblable à l'évolution de l'infrastructure dans l'industrie AI traditionnelle, le domaine Crypto AI a également traversé des phases similaires. Début 2024, le marché a été en grande partie dominé par des projets GPU décentralisés, mettant en avant la logique de croissance extensive basée sur la « puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant la transition de Crypto AI d'une compétition pour les ressources de base vers une construction intermédiaire plus durable et ayant une valeur d'application.
Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels de grande taille (LLM) dépendent fortement de jeux de données massifs et d'architectures distribuées complexes, avec une taille de paramètres allant de 70B à 500B, et le coût d'une seule formation atteignant souvent des millions de dollars. En revanche, le SLM (Modèle de Langage Spécialisé), en tant que paradigme de réglage léger d'un modèle de base réutilisable, est généralement basé sur des modèles open source, combinant une petite quantité de données professionnelles de haute qualité et des technologies telles que LoRA, pour construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement les coûts de formation et les barrières techniques.
Il convient de noter que SLM ne sera pas intégré dans les poids de LLM, mais fonctionnera en collaboration avec LLM grâce à des structures telles que l'architecture Agent, le routage dynamique via un système de plugins, le module LoRA en hot-plug et RAG (génération améliorée par la recherche). Cette architecture conserve la large capacité de couverture de LLM tout en améliorant les performances professionnelles grâce à des modules de réglage fin, formant ainsi un système intelligent combinatoire hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Barrière technologique trop élevée : l'échelle des données, des ressources de calcul et des capacités d'ingénierie nécessaires pour entraîner un modèle de fondation est extrêmement vaste, et seuls des géants technologiques comme les États-Unis et la Chine possèdent actuellement cette capacité.
Limites de l'écosystème open source : Bien que les modèles de base principaux aient été open source, la clé pour faire progresser véritablement les modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets blockchain au niveau des modèles centraux est limité.
Cependant, au-dessus des modèles de base open source, le projet Crypto AI peut encore réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de valeur de l'IA, cela se manifeste dans deux directions principales :
Couche de vérification fiable : enregistre les chemins de génération de modèles, les contributions de données et les utilisations sur la chaîne, renforçant ainsi la traçabilité et la résistance à la falsification des sorties AI.
Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter au téléchargement de données, à l'appel de modèles, à l'exécution d'agents (Agent), etc., construire un cycle vertueux de formation de modèles et de services.
Analyse de la classification des types de modèles IA et de leur applicabilité à la blockchain
Il en ressort que les points de chute viables des projets de type Crypto AI se concentrent principalement sur l'ajustement léger des SLM de petite taille, l'intégration et la validation des données sur la chaîne dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique à ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer de manière claire et infalsifiable l'origine des contributions de chaque donnée et modèle en les inscrivant sur la chaîne, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme de contrat intelligent, une distribution automatique des récompenses est déclenchée lorsque des données ou des modèles sont appelés, transformant ainsi le comportement de l'IA en une valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer la performance des modèles par le biais de votes avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel, axé sur les données et les mécanismes d'incitation des modèles. Il a été le premier à proposer le concept de « Payable AI », visant à créer un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger offre une chaîne de valeur complète allant de « la fourniture de données » à « le déploiement de modèles », puis à « l'appel à la répartition des bénéfices », ses modules principaux incluent :
Usine de Modèles : Pas besoin de programmation, vous pouvez utiliser LoRA pour un entraînement et un déploiement de modèles personnalisés basés sur LLM open source.
OpenLoRA : support de la coexistence de milliers de modèles, chargement dynamique à la demande, réduction significative des coûts de déploiement ;
PoA (Proof of Attribution) : mesure de contribution et distribution des récompenses réalisée par l'enregistrement des appels sur la chaîne.
Datanets : Réseaux de données structurées orientés vers des scénarios verticaux, construits et validés par la collaboration de la communauté ;
Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne combinables, appelables et payables.
Grâce aux modules ci-dessus, OpenLedger a construit une "infrastructure économique d'agents intelligents" basée sur les données et les modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en ce qui concerne l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats de haute performance, à faible coût et vérifiable pour les modèles d'IA.
Construire sur OP Stack : Basé sur la pile technologique Optimism, prenant en charge un haut débit et une exécution à faible coût ;
Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatible EVM : Permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.
Comparé à des chaînes AI plus générales comme NEAR, qui se concentrent davantage sur les couches de base et prônent la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI dédiées axées sur l'incitation des données et des modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation des modèles dans le monde du Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, propulsant le chemin vers la réalisation de « modèle comme actif ».
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle de Fabrique, modèle de fabrique sans code
ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory propose une interface graphique pure, sans besoin d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner des modèles en se basant sur des ensembles de données autorisés et vérifiés réalisés sur OpenLedger. Cela permet d'intégrer le flux de travail d'autorisation des données, d'entraînement des modèles et de déploiement, dont les processus clés incluent :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
Sélection et configuration du modèle : Prend en charge les LLM principaux, configuration des hyperparamètres via l'interface graphique.
Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
Évaluation et déploiement du modèle : Outils d'évaluation intégrés, support pour l'exportation du déploiement ou l'appel partagé dans l'écosystème.
Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
RAG génération de traçabilité : réponses avec références de source, renforçant la confiance et l'auditabilité.
L'architecture du système Model Factory comprend six grands modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant ainsi une plateforme de service de modèle intégrée, sécurisée et contrôlable, interactive en temps réel et durablement monétisable.
Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
LLaMA série : écosystème le plus large, communauté active, performances générales élevées, c'est l'un des modèles de base open source les plus courants actuellement.
Mistral : architecture efficace, performances d'inférence excellentes, adapté aux déploiements flexibles et aux scénarios avec des ressources limitées.
Qwen : Excellente performance des tâches en chinois, compétences complètes, idéal pour les développeurs nationaux.
ChatGLM : les performances en dialogue en chinois sont remarquables, adaptées aux services clients de niche et aux scénarios de localisation.
Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : Structure claire, facile à prendre en main rapidement et à expérimenter.
Falcon : autrefois une référence en termes de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : un support multilingue assez fort, mais des performances d'inférence relativement faibles, adapté à la recherche sur la couverture linguistique.
GPT-2 : un modèle classique précoce, uniquement adapté à des fins d'enseignement et de validation, non recommandé pour une utilisation en déploiement réel.
Bien que le modèle combiné d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur le pragmatisme » basée sur les contraintes réalistes de déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :
Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
Pour la plateforme : former un écosystème de circulation et de combinaison d'actifs modélisés ;
Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme vous le feriez avec un appel API.
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode d'ajustement des paramètres efficace, qui permet d'apprendre de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins en stockage. Les grands modèles de langage traditionnels ont généralement des milliards, voire des milliards de milliards de paramètres. Pour les utiliser pour des tâches spécifiques, un ajustement est nécessaire. La stratégie centrale de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que la nouvelle matrice de paramètres insérée. », ses paramètres étant efficaces, son entraînement rapide et son déploiement flexible, c'est la méthode d'ajustement la plus adaptée au déploiement et à l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu spécifiquement pour le déploiement multi-modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants liés au déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, afin de favoriser l'exécution de l'"IA payante" (Payable AI).
OpenLoRA architecture core components, based on a modular design, cover key links such as model storage, inference execution, and request routing, achieving efficient and low-cost multi-model deployment and invocation capabilities :
Module de stockage LoRA Adapter : l'adaptateur LoRA affiné est hébergé sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant des ressources.
Hébergement de modèle et couche de fusion dynamique : tous les modèles ajustés partagent le grand modèle de base, lors de l'inférence, l'adaptateur LoRA se fusionne dynamiquement, supportant plusieurs adaptateurs en inférence conjointe, améliorant les performances.
Moteur d'inférence : intègre plusieurs technologies d'optimisation CUDA, telles que Flash-Attention, Paged-Attention et SGMV.
Module de routage des requêtes et de sortie en continu : Routage dynamique vers le bon adaptateur en fonction du modèle requis dans la requête, réalisation de la sortie en continu au niveau des tokens grâce à l'optimisation du noyau.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
5
Partager
Commentaire
0/400
CryptoTherapist
· 07-19 18:26
laisser aller la peur de manquer des GPU... il est temps pour une méditation consciente sur les modèles, pour être honnête
Voir l'originalRépondre0
BearMarketBuilder
· 07-19 13:17
Crier ces choses sophistiquées, mais en réalité, il vaut mieux faire des choses concrètes.
Voir l'originalRépondre0
TokenBeginner'sGuide
· 07-16 21:03
Petit rappel : Selon les statistiques, 87 % des Débutants sont facilement influencés par la spéculation sur les concepts, il est conseillé de faire d'abord des recherches de base avant de considérer le placement dans des projets connexes.
Voir l'originalRépondre0
CommunityWorker
· 07-16 20:53
l'IA devrait aussi d'abord faire un travail physique.
Voir l'originalRépondre0
DaoResearcher
· 07-16 20:47
Selon le rapport de recherche, section 3.1, les données graphiques manquent de validation, il est conseillé de compléter l'analyse de la Volatilité.
OpenLedger mène la nouvelle écologie de l'IA : OP Stack + EigenDA construisent l'infrastructure économique des agents intelligents.
Rapport de recherche approfondi OpenLedger : construire une économie d'agents intelligente, pilotée par les données et modélisable, sur la base de OP Stack + EigenDA.
I. Introduction | La transition du niveau de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure AI, aucun ne peut être omis. Semblable à l'évolution de l'infrastructure dans l'industrie AI traditionnelle, le domaine Crypto AI a également traversé des phases similaires. Début 2024, le marché a été en grande partie dominé par des projets GPU décentralisés, mettant en avant la logique de croissance extensive basée sur la « puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant la transition de Crypto AI d'une compétition pour les ressources de base vers une construction intermédiaire plus durable et ayant une valeur d'application.
Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels de grande taille (LLM) dépendent fortement de jeux de données massifs et d'architectures distribuées complexes, avec une taille de paramètres allant de 70B à 500B, et le coût d'une seule formation atteignant souvent des millions de dollars. En revanche, le SLM (Modèle de Langage Spécialisé), en tant que paradigme de réglage léger d'un modèle de base réutilisable, est généralement basé sur des modèles open source, combinant une petite quantité de données professionnelles de haute qualité et des technologies telles que LoRA, pour construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement les coûts de formation et les barrières techniques.
Il convient de noter que SLM ne sera pas intégré dans les poids de LLM, mais fonctionnera en collaboration avec LLM grâce à des structures telles que l'architecture Agent, le routage dynamique via un système de plugins, le module LoRA en hot-plug et RAG (génération améliorée par la recherche). Cette architecture conserve la large capacité de couverture de LLM tout en améliorant les performances professionnelles grâce à des modules de réglage fin, formant ainsi un système intelligent combinatoire hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Cependant, au-dessus des modèles de base open source, le projet Crypto AI peut encore réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de valeur de l'IA, cela se manifeste dans deux directions principales :
Analyse de la classification des types de modèles IA et de leur applicabilité à la blockchain
Il en ressort que les points de chute viables des projets de type Crypto AI se concentrent principalement sur l'ajustement léger des SLM de petite taille, l'intégration et la validation des données sur la chaîne dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique à ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer de manière claire et infalsifiable l'origine des contributions de chaque donnée et modèle en les inscrivant sur la chaîne, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme de contrat intelligent, une distribution automatique des récompenses est déclenchée lorsque des données ou des modèles sont appelés, transformant ainsi le comportement de l'IA en une valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer la performance des modèles par le biais de votes avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel, axé sur les données et les mécanismes d'incitation des modèles. Il a été le premier à proposer le concept de « Payable AI », visant à créer un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger offre une chaîne de valeur complète allant de « la fourniture de données » à « le déploiement de modèles », puis à « l'appel à la répartition des bénéfices », ses modules principaux incluent :
Grâce aux modules ci-dessus, OpenLedger a construit une "infrastructure économique d'agents intelligents" basée sur les données et les modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en ce qui concerne l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats de haute performance, à faible coût et vérifiable pour les modèles d'IA.
Comparé à des chaînes AI plus générales comme NEAR, qui se concentrent davantage sur les couches de base et prônent la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI dédiées axées sur l'incitation des données et des modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation des modèles dans le monde du Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, propulsant le chemin vers la réalisation de « modèle comme actif ».
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle de Fabrique, modèle de fabrique sans code
ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory propose une interface graphique pure, sans besoin d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner des modèles en se basant sur des ensembles de données autorisés et vérifiés réalisés sur OpenLedger. Cela permet d'intégrer le flux de travail d'autorisation des données, d'entraînement des modèles et de déploiement, dont les processus clés incluent :
L'architecture du système Model Factory comprend six grands modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant ainsi une plateforme de service de modèle intégrée, sécurisée et contrôlable, interactive en temps réel et durablement monétisable.
Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
Bien que le modèle combiné d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur le pragmatisme » basée sur les contraintes réalistes de déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode d'ajustement des paramètres efficace, qui permet d'apprendre de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins en stockage. Les grands modèles de langage traditionnels ont généralement des milliards, voire des milliards de milliards de paramètres. Pour les utiliser pour des tâches spécifiques, un ajustement est nécessaire. La stratégie centrale de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que la nouvelle matrice de paramètres insérée. », ses paramètres étant efficaces, son entraînement rapide et son déploiement flexible, c'est la méthode d'ajustement la plus adaptée au déploiement et à l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu spécifiquement pour le déploiement multi-modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants liés au déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, afin de favoriser l'exécution de l'"IA payante" (Payable AI).
OpenLoRA architecture core components, based on a modular design, cover key links such as model storage, inference execution, and request routing, achieving efficient and low-cost multi-model deployment and invocation capabilities :