I. Introducción | La transición del nivel de modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, y no se puede prescindir de ninguno. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, que enfatizaban lógicamente el crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha desplazado gradualmente hacia la capa de modelos y datos, lo que marca la transición de Crypto AI de la competencia por recursos básicos a una construcción de nivel medio con mayor sostenibilidad y valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje grandes tradicionales (LLM) dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que van de 70B a 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. En cambio, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero que permite la reutilización de modelos base, normalmente basado en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos en campos específicos, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante señalar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la invocación de la arquitectura Agent, el enrutamiento dinámico del sistema de plugins, la conexión en caliente de módulos LoRA, RAG (Generación Aumentada por Recuperación) y otros métodos. Esta arquitectura conserva la amplia capacidad de cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grandes (LLM), y la razón principal es que
Barreras tecnológicas demasiado altas: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Fundamental son extremadamente grandes, y actualmente solo las grandes empresas tecnológicas de países como Estados Unidos y China tienen la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: Aunque los modelos básicos principales se han abierto, la clave para impulsar verdaderamente los avances en los modelos sigue concentrándose en las instituciones de investigación y los sistemas de ingeniería cerrados, y el espacio de participación de los proyectos en cadena en el nivel del modelo central es limitado.
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr una extensión de valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de la industria de AI, se manifiesta en dos direcciones centrales:
Capa de verificación confiable: a través del registro en cadena del modelo de generación de rutas, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA.
Mecanismo de incentivos: Utilizando el Token nativo para incentivar comportamientos como la carga de datos, la llamada a modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio de modelos.
Análisis de la aplicabilidad de los tipos de modelos de IA y blockchain
De ahí se puede ver que los puntos de enfoque viables de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la ligera afinación de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local de modelos Edge y su incentivación. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferenciado en la "capa de interfaz" de IA.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inalterable la fuente de contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se llaman datos o modelos, transformando el comportamiento de la IA en un valor tokenizado, medible y comerciable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
Dos, descripción del proyecto | La visión de la cadena AI de OpenLedger
OpenLedger es uno de los pocos proyectos de IA blockchain en el mercado que se centra en los incentivos de datos y modelos. Fue pionero en el concepto de "Payable AI", con el objetivo de construir un entorno de funcionamiento de IA justo, transparente y composable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en la cadena en función de sus contribuciones reales.
OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y luego "llamada a la distribución de beneficios", cuyos módulos centrales incluyen:
Fábrica de Modelos: sin necesidad de programar, se pueden utilizar LoRA para el ajuste fino y entrenamiento de modelos personalizados basados en LLM de código abierto;
OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, reduce significativamente los costos de implementación;
PoA (Prueba de Atribución): a través de registros de llamadas en la cadena se logra la medición de contribuciones y la distribución de recompensas;
Datanets: Red de datos estructurados orientada a escenarios verticales, construida y verificada por la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la cadena de valor de IA hacia la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: basado en el stack tecnológico de Optimism, soporta una alta Profundidad y ejecución de bajos costos;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
Compatible con EVM: facilita a los desarrolladores implementar y expandir rápidamente basándose en Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con cadenas de IA generales como NEAR, que son más de nivel base y se centran en la soberanía de datos y la arquitectura de «AI Agents on BOS», OpenLedger se enfoca más en construir cadenas específicas de IA orientadas a los incentivos de datos y modelos, dedicándose a lograr que el desarrollo y la invocación de modelos se realicen en la cadena de manera rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando la gestión de modelos, la facturación por uso y las interfaces combinables en la cadena, impulsando el camino hacia la realización de «modelos como activos».
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, sin necesidad de código modelo de fábrica
ModelFactory es una plataforma de ajuste fino de modelos de lenguaje de gran tamaño (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento y despliegue de modelos, cuyo proceso central incluye:
Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, y los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta LLM populares, configurando los hiperparámetros a través de la GUI.
Ajuste ligero: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
Evaluación y despliegue de modelos: Herramienta de evaluación incorporada, soporta exportación para despliegue o llamada compartida en ecosistemas.
Interfaz de verificación interactiva: Proporciona una interfaz de chat, que facilita la prueba directa de la capacidad de respuesta del modelo.
Generación de trazabilidad RAG: Respuestas con citas de origen, aumentando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino del modelo, evaluación, implementación y trazabilidad RAG, creando una plataforma de servicios de modelos integrada que es segura y controlable, con interacción en tiempo real y monetización sostenible.
El siguiente es un resumen de las capacidades de los modelos de lenguaje de gran tamaño que ModelFactory admite actualmente:
LLaMA serie: el ecosistema más amplio, comunidad activa y rendimiento general fuerte, es uno de los modelos de base de código abierto más populares en la actualidad.
Mistral: arquitectura eficiente, excelente rendimiento de inferencia, adecuada para escenarios de despliegue flexible y con recursos limitados.
Qwen: Desempeño excelente en tareas en chino, con habilidades integrales fuertes, adecuado como la primera opción para desarrolladores nacionales.
ChatGLM: Efecto de conversación en chino destacado, adecuado para atención al cliente de nicho y escenarios de localización.
Deepseek: se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: Estructura clara, fácil de empezar rápidamente y experimentar.
Falcon: Solía ser un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero rendimiento de inferencia débil, adecuado para investigaciones de cobertura de idiomas.
GPT-2: modelo clásico temprano, solo adecuado para fines de enseñanza y verificación, no se recomienda su uso en implementación real.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de alto rendimiento MoE o modelos multimodales, su estrategia no está obsoleta, sino que se basa en una configuración "prioridad práctica" hecha según las restricciones reales de implementación en la cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM).
Model Factory como una cadena de herramientas sin código, todos los modelos tienen incorporado un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y de los desarrolladores de modelos, con las ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas tradicionales de desarrollo de modelos:
Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar un ecosistema de circulación y combinación de activos de modelo;
Para los usuarios: se pueden combinar modelos o Agentes como si se llamara a una API.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Low-Rank Adaptation) es un método de ajuste de parámetros eficiente que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros originales del modelo, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grande tradicionales suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas, es necesario realizar un ajuste. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3 en la actualidad.
OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA actuales, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable".
OpenLoRA arquitectura del sistema, componentes centrales, basado en diseño modular, cubre el almacenamiento de modelos, ejecución de inferencia, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de implementación y llamada de múltiples modelos de manera eficiente y de bajo costo:
Módulo de almacenamiento de LoRA Adapter: el adaptador LoRA ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando la precarga de todos los modelos en la memoria gráfica y ahorrando recursos.
Alojamiento de modelos y capa de fusión dinámica: todos los modelos de ajuste fino comparten un modelo base grande, durante la inferencia, el adaptador LoRA se fusiona dinámicamente, soportando la inferencia conjunta de múltiples adaptadores, mejorando el rendimiento.
Motor de inferencia: integración de múltiples tecnologías de optimización de CUDA como Flash-Attention, Paged-Attention y SGMV.
Módulo de enrutamiento de solicitudes y salida en flujo: enrutamiento dinámico al adaptador correcto según el modelo requerido en la solicitud, logrando una salida en flujo a nivel de token mediante la optimización del núcleo.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
5
Compartir
Comentar
0/400
CryptoTherapist
· 07-19 18:26
dejar ir el fomo de GPU... es hora de una meditación consciente de modelos, la verdad
Ver originalesResponder0
BearMarketBuilder
· 07-19 13:17
Gritar estas cosas grandiosas no es mejor que hacer cosas concretas.
Ver originalesResponder0
TokenBeginner'sGuide
· 07-16 21:03
Pequeño recordatorio: Según las estadísticas, el 87% de los Novatos tienden a distraerse con la especulación conceptual, se recomienda hacer una investigación básica antes de considerar la inversión en proyectos relacionados.
Ver originalesResponder0
CommunityWorker
· 07-16 20:53
La IA también debería hacer un poco de trabajo físico primero.
Ver originalesResponder0
DaoResearcher
· 07-16 20:47
Según el informe de investigación, la sección 3.1 indica que los datos del gráfico tienen una validación insuficiente y se sugiere complementar el análisis de Volatilidad.
OpenLedger lidera un nuevo ecosistema de IA: OP Stack+EigenDA construyen la infraestructura económica de los agentes inteligentes.
OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introducción | La transición del nivel de modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, y no se puede prescindir de ninguno. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, que enfatizaban lógicamente el crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha desplazado gradualmente hacia la capa de modelos y datos, lo que marca la transición de Crypto AI de la competencia por recursos básicos a una construcción de nivel medio con mayor sostenibilidad y valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje grandes tradicionales (LLM) dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que van de 70B a 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. En cambio, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero que permite la reutilización de modelos base, normalmente basado en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos en campos específicos, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante señalar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la invocación de la arquitectura Agent, el enrutamiento dinámico del sistema de plugins, la conexión en caliente de módulos LoRA, RAG (Generación Aumentada por Recuperación) y otros métodos. Esta arquitectura conserva la amplia capacidad de cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grandes (LLM), y la razón principal es que
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr una extensión de valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de la industria de AI, se manifiesta en dos direcciones centrales:
Análisis de la aplicabilidad de los tipos de modelos de IA y blockchain
De ahí se puede ver que los puntos de enfoque viables de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la ligera afinación de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local de modelos Edge y su incentivación. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferenciado en la "capa de interfaz" de IA.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inalterable la fuente de contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se llaman datos o modelos, transformando el comportamiento de la IA en un valor tokenizado, medible y comerciable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
Dos, descripción del proyecto | La visión de la cadena AI de OpenLedger
OpenLedger es uno de los pocos proyectos de IA blockchain en el mercado que se centra en los incentivos de datos y modelos. Fue pionero en el concepto de "Payable AI", con el objetivo de construir un entorno de funcionamiento de IA justo, transparente y composable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en la cadena en función de sus contribuciones reales.
OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y luego "llamada a la distribución de beneficios", cuyos módulos centrales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la cadena de valor de IA hacia la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de IA generales como NEAR, que son más de nivel base y se centran en la soberanía de datos y la arquitectura de «AI Agents on BOS», OpenLedger se enfoca más en construir cadenas específicas de IA orientadas a los incentivos de datos y modelos, dedicándose a lograr que el desarrollo y la invocación de modelos se realicen en la cadena de manera rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando la gestión de modelos, la facturación por uso y las interfaces combinables en la cadena, impulsando el camino hacia la realización de «modelos como activos».
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, sin necesidad de código modelo de fábrica
ModelFactory es una plataforma de ajuste fino de modelos de lenguaje de gran tamaño (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento y despliegue de modelos, cuyo proceso central incluye:
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino del modelo, evaluación, implementación y trazabilidad RAG, creando una plataforma de servicios de modelos integrada que es segura y controlable, con interacción en tiempo real y monetización sostenible.
El siguiente es un resumen de las capacidades de los modelos de lenguaje de gran tamaño que ModelFactory admite actualmente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de alto rendimiento MoE o modelos multimodales, su estrategia no está obsoleta, sino que se basa en una configuración "prioridad práctica" hecha según las restricciones reales de implementación en la cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM).
Model Factory como una cadena de herramientas sin código, todos los modelos tienen incorporado un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y de los desarrolladores de modelos, con las ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas tradicionales de desarrollo de modelos:
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Low-Rank Adaptation) es un método de ajuste de parámetros eficiente que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros originales del modelo, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grande tradicionales suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas, es necesario realizar un ajuste. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3 en la actualidad.
OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA actuales, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable".
OpenLoRA arquitectura del sistema, componentes centrales, basado en diseño modular, cubre el almacenamiento de modelos, ejecución de inferencia, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de implementación y llamada de múltiples modelos de manera eficiente y de bajo costo: