OpenLedger construit un modèle de données basé sur une chaîne AI composable basé sur OP Stack et EigenDA

OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligente, pilotée par les données et modélisable, sur la base d'OP Stack + EigenDA

I. Introduction | La transition du modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul) qui sont tous indispensables. Comme dans l'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des phases similaires. Début 2024, le marché a été dominé par des projets de GPU décentralisés ( certaines plateformes de calcul GPU, certaines plateformes de rendu, certaines plateformes réseau, etc. ), soulignant généralement la logique de croissance extensive axée sur "la puissance de calcul". Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant la transition de la Crypto IA d'une compétition pour les ressources de base vers une construction intermédiaire plus durable et de valeur appliquée.

Modèle Générique (LLM) vs Modèle Spécialisé (SLM)

Les modèles de langage traditionnels de grande taille (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec une échelle de paramètres allant de 70B à 500B, et le coût d'un entraînement peut atteindre des millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme d'affinage léger utilisant un modèle de base réutilisable, est généralement basé sur des modèles open source comme LLaMA, Mistral, DeepSeek, et combine un petit nombre de données professionnelles de haute qualité avec des technologies telles que LoRA pour construire rapidement des modèles d'experts possédant des connaissances dans des domaines spécifiques, réduisant ainsi considérablement les coûts d'entraînement et les barrières techniques.

Il convient de noter que SLM ne sera pas intégré dans les poids de LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture d'Agent, un système de plugins pour le routage dynamique, le module LoRA en plug-and-play, et RAG (génération augmentée par récupération). Cette architecture conserve la capacité de large couverture de LLM tout en renforçant les performances professionnelles grâce à des modules de réglage fin, formant ainsi un système intelligent combinatoire hautement flexible.

Crypto AI la valeur et les limites au niveau du modèle

Les projets Crypto AI sont essentiellement difficiles à améliorer directement les capacités de base des modèles de langage de grande taille (LLM), la raison principale étant que

  • Barrières techniques trop élevées : l'ampleur des données, des ressources de calcul et des capacités d'ingénierie nécessaires pour entraîner un modèle de base est extrêmement importante. Actuellement, seules des entreprises technologiques géantes aux États-Unis (certaines entreprises d'IA, etc.) et en Chine (certaines entreprises d'apprentissage profond, etc.) possèdent les capacités requises.
  • Limites de l'écosystème open source : bien que des modèles de base grand public tels que LLaMA et Mixtral soient open source, la véritable clé pour faire avancer les modèles repose toujours sur les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles de base est limité.

Cependant, sur la base des modèles fondamentaux open source, le projet Crypto AI peut toujours réaliser une extension de valeur en affinant des modèles de langue spécialisés (SLM), et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de valeur de l'IA, cela se manifeste dans deux directions principales :

  • Couche de vérification de confiance : enregistre le chemin de génération du modèle, la contribution des données et l'utilisation sur la chaîne, renforçant ainsi la traçabilité et la résistance à la falsification des sorties de l'IA.
  • Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle positif de formation et de service de modèles.

Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain

Il en ressort que les points d'application viables pour les projets de type Crypto AI se concentrent principalement sur le réglage léger des SLM de petite taille, l'intégration et la validation des données en chaîne du cadre RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique à ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la « couche d'interface » de l'IA.

Une chaîne de blocs AI basée sur des données et des modèles, qui peut enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement déclenchées lors de l'appel de données ou de modèles, transformant ainsi le comportement de l'IA en une valeur tokenisée mesurable et échangeable, établissant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.

OpenLedger Depth Research Report : Construire une économie d'agents intelligents axée sur les données et modélisable avec OP Stack + EigenDA

II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuellement axé sur les mécanismes d'incitation des données et des modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus on-chain en fonction de leurs contributions réelles.

OpenLedger offre une boucle fermée complète allant de la « fourniture de données » à « déploiement de modèles » puis à « appel de partage des bénéfices », ses modules principaux comprennent :

  • Model Factory : pas besoin de programmer, utilisez LoRA pour l'ajustement fin, la formation et le déploiement de modèles personnalisés basés sur LLM open source ;
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, charge dynamiquement selon les besoins, réduit considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : mesure des contributions et distribution des récompenses via l'enregistrement des appels sur la chaîne ;
  • Datanets : Réseau de données structurées destiné à des scénarios verticaux, construit et vérifié par la collaboration communautaire ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles on-chain combinables, appelables et payables.

Grâce aux modules ci-dessus, OpenLedger a construit une "infrastructure économique d'agents intelligents" basée sur des données et modulable, favorisant la chaîne de valeur de l'IA sur la blockchain.

Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.

  • Construire sur la pile OP : basé sur la pile technologique Optimism, prenant en charge un haut débit et une exécution à faible coût ;
  • Règlement sur la blockchain Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • EVM compatible : permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
  • EigenDA offre un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé à certaines chaînes publiques qui sont plus axées sur les couches inférieures, mettant l'accent sur la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées orientées vers les incitations de données et de modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation de modèles dans le monde de Web3, combinant l'hébergement de modèles de type plateforme d'hébergement de modèles, la facturation d'utilisation de type plateforme de paiement et une interface combinable sur la chaîne de type service d'infrastructure, favorisant ainsi le chemin vers la réalisation de « modèles en tant qu'actifs ».

OpenLedger Depth Research Report : Construire une économie d'agents intelligente, pilotée par les données et combinable en modèles, sur la base de OP Stack + EigenDA

Trois, les composants clés et l'architecture technique d'OpenLedger

Usine de Modèle 3.1, usine de modèle sans code

ModelFactory est une plateforme de micro-ajustement de grands modèles linguistiques (LLM) au sein de l'écosystème OpenLedger. Contrairement aux frameworks de micro-ajustement traditionnels, ModelFactory offre une interface graphique pure, sans besoin d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent ajuster les modèles en se basant sur des ensembles de données autorisés et vérifiés réalisés sur OpenLedger. Cela permet d'atteindre un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les étapes clés incluent :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur approuve après vérification, les données sont automatiquement intégrées dans l'interface d'entraînement du modèle.
  • Sélection et configuration du modèle : prend en charge les LLM grand public (comme LLaMA, Mistral), configuration des hyperparamètres via GUI.
  • Affinage léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement des modèles : Outils d'évaluation intégrés, support pour l'exportation de déploiement ou le partage d'appel écologique.
  • Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
  • RAG génération de traçabilité : réponses avec des références sources, augmentant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant une plateforme de services modèles intégrée, sécurisée et contrôlable, interactive en temps réel et capable de générer des revenus de manière durable.

Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • Série LLaMA : écosystème le plus vaste, communauté active, performances générales élevées, c'est l'un des modèles fondamentaux open source les plus courants actuellement.
  • Mistral : architecture efficace, performance d'inférence excellente, adaptée aux scénarios de déploiement flexibles et aux ressources limitées.
  • Qwen : produit par un géant de la technologie, excellent en performance sur les tâches en chinois, avec de fortes capacités globales, idéal pour les développeurs nationaux.
  • ChatGLM : les performances de dialogue en chinois sont remarquables, adaptées aux services clients de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par un géant de la technologie, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Ancien étalon de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'engagement de la communauté a diminué.
  • BLOOM : prise en charge multilingue assez forte, mais performances d'inférence relativement faibles, adapté à la recherche sur la couverture linguistique.
  • GPT-2 : modèle classique précoce, uniquement adapté à des fins d'enseignement et de validation, son utilisation en déploiement réel n'est pas conseillée.

Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas dépassée, mais s'appuie sur des contraintes réelles de déploiement sur la chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM) pour une configuration « prioritaire pratique ».

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels que des barrières d'entrée faibles, la possibilité de monétisation et de combinaison, comparé aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modèles ;
  • Pour les utilisateurs : il est possible de combiner les modèles ou les agents comme on appelle une API.

OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents, axée sur les données et modulaire, sur la base d'OP Stack + EigenDA

3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning

LoRA (Low-Rank Adaptation) est une méthode d'ajustement de paramètres efficace, qui apprend de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres d'origine du modèle, ce qui réduit considérablement les coûts d'entraînement et les besoins en stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser dans des tâches spécifiques (comme les questions juridiques, les consultations médicales), un ajustement (fine-tuning) est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que la nouvelle matrice de paramètres insérée. » Ses paramètres sont efficaces, son entraînement est rapide et son déploiement flexible, ce qui en fait la méthode d'ajustement la plus adaptée au déploiement de modèles Web3 et à l'appel combiné.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu spécifiquement pour le déploiement de plusieurs modèles et le partage de ressources. Son objectif principal est de résoudre les problèmes courants liés au déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, et de promouvoir l'exécution de l'« IA payante » (Payable AI).

Composants clés de l'architecture système OpenLoRA, basés sur une conception modulaire, couvrant des étapes clés telles que le stockage de modèles, l'exécution d'inférences, le routage des demandes, réalisant une capacité de déploiement et d'appel de plusieurs modèles de manière efficace et à faible coût :

  • Module de stockage LoRA Adapter (LoRA Adapters Storage) : Les adaptateurs LoRA après ajustement sont hébergés sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
  • Hébergement de modèle et couche de fusion d'adaptateur (Model Hosting & Adapter Merging Layer) : tous les modèles ajustés partagent le modèle de base (base model), lors de l'inférence LoRA adapter.
OP3.64%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 7
  • Partager
Commentaire
0/400
ImpermanentSagevip
· Il y a 6h
Cesse de faire semblant, c'est encore un coup de Puissance de calcul.
Voir l'originalRépondre0
FloorSweepervip
· Il y a 10h
C'est trop compétitif, c'est même plus que les programmeurs.
Voir l'originalRépondre0
SighingCashiervip
· Il y a 10h
Haha, ça a l'air de ce que tu m'as partagé il y a quelques jours.
Voir l'originalRépondre0
ZenZKPlayervip
· Il y a 11h
Encore en train de travailler sur des agents intelligents, j'adore !
Voir l'originalRépondre0
GamefiEscapeArtistvip
· Il y a 11h
C'est juste du battage.
Voir l'originalRépondre0
SilentObservervip
· Il y a 11h
La puissance de calcul est toujours la plus attrayante.
Voir l'originalRépondre0
MetaverseHermitvip
· Il y a 11h
L'IA va encore prendre les gens pour des idiots.
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)