OpenLedger Глубина исследование: на базе OP Stack+EigenDA построить экономику интеллектуальных агентов, управляемую данными и моделями.
Один. Введение | Переход модели Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, и без них невозможно обойтись. Подобно эволюционному пути инфраструктуры традиционной индустрии ИИ, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок на время находился под влиянием децентрализованных GPU проектов, которые в основном акцентировали внимание на логике грубого роста «拼算力». Однако с наступлением 2025 года внимание индустрии постепенно сместилось к уровням модели и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивой и ценной для применения срединной конструкции.
Универсальная большая модель (LLM) vs Специализированная модель (SLM)
Традиционные крупные языковые модели (LLM) в значительной степени зависят от масштабных наборов данных и сложной распределенной архитектуры, количество параметров колеблется от 70B до 500B, а стоимость одной тренировки часто достигает нескольких миллионов долларов. В то время как SLM (Specialized Language Model) как легковесная парадигма тонкой настройки многоразовой базовой модели обычно основана на открытых моделях, сочетая небольшое количество качественных специализированных данных и технологии, такие как LoRA, быстро создает экспертные модели, обладающие знаниями в определенной области, значительно снижая стоимость обучения и технические барьеры.
Стоит отметить, что SLM не интегрируется в веса LLM, а работает в сотрудничестве с LLM через архитектуру агент, динамическую маршрутизацию системы плагинов, горячую замену модулей LoRA и RAG (улучшенное генерирование с помощью поиска). Эта архитектура сохраняет широкие возможности LLM и одновременно усиливает профессиональные показатели за счет модулей тонкой настройки, формируя высоко адаптивную комбинированную интеллектуальную систему.
Ценность и границы Crypto AI на уровне моделей
Крипто AI проекты по сути трудно напрямую повысить основные возможности больших языковых моделей (LLM), основная причина заключается в том, что
Технический барьер слишком высок: объем данных, вычислительных ресурсов и инженерных навыков, необходимых для обучения Foundation Model, крайне велик, в настоящее время только такие технологические гиганты, как США и Китай, обладают соответствующими возможностями.
Ограничения открытой экосистемы: Хотя основные модели уже открыты, ключевым фактором, способствующим прорыву модели, по-прежнему остаются научные учреждения и закрытые инженерные системы, а участие цепочных проектов на уровне основных моделей ограничено.
Однако, на основе открытых базовых моделей проект Crypto AI все еще может осуществлять расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с верифицируемостью и механизмами стимулов Web3. В качестве «периферийного интерфейсного слоя» AI цепочки поставок это проявляется в двух основных направлениях:
Доверенный уровень проверки: через запись на блокчейне пути генерации модели, внесение данных и использование, усиливается прослеживаемость и устойчивость к подделке вывода ИИ.
Механизм стимулов: с помощью родного токена для стимулирования таких действий, как загрузка данных, вызов моделей, выполнение агентов, создается положительный цикл обучения моделей и обслуживания.
Анализ классификации типов AI моделей и их применимости к блокчейну
Таким образом, можно увидеть, что жизнеспособные направления для моделей типа Crypto AI в основном сосредоточены на легкой настройке малых SLM, подключении и верификации данных в архитектуре RAG, а также на локальном развертывании и стимуляции Edge моделей. С учетом возможности верификации блокчейна и токеномики, Crypto может предоставить уникальную ценность для этих сценариев моделей со средними и низкими ресурсами, создавая дифференцированную ценность «интерфейсного слоя» AI.
Блокчейн AI цепь, основанная на данных и моделях, может четко и неизменно фиксировать источники вклада каждой записи данных и модели, значительно повышая доверие к данным и прослеживаемость обучения модели. В то же время, с помощью механизма смарт-контрактов, при вызове данных или модели автоматически инициируется распределение вознаграждений, превращая поведение AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность модели с помощью голосования токенами, участвовать в разработке и итерации правил, совершенствуя децентрализованную управленческую структуру.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
II. Обзор проекта | Видение AI Chain от OpenLedger
OpenLedger является одним из немногих блокчейн AI проектов на текущем рынке, сосредоточенных на механизмах стимулов для данных и моделей. Он первым предложил концепцию "Payable AI", нацеленную на создание справедливой, прозрачной и комбинируемой среды для работы AI, чтобы побудить участников данных, разработчиков моделей и создателей AI приложений сотрудничать на одной платформе и получать доход на цепочке в зависимости от их фактического вклада.
OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», его основные модули включают:
Модельная фабрика: не требуется программирование, можно использовать LoRA для тонкой настройки и развертывания настраиваемых моделей на основе открытого LLM.
OpenLoRA: поддержка совместного использования тысяч моделей, динамическая загрузка по мере необходимости, что значительно снижает затраты на развертывание;
PoA (Доказательство атрибуции): измерение вклада и распределение вознаграждений через записи вызовов в блокчейне;
Datanets: Сетевые структуры данных, ориентированные на вертикальные сценарии, построенные и проверенные с помощью сотрудничества сообщества;
Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и оплачиваемый рынок моделей на блокчейне.
С помощью вышеуказанных модулей OpenLedger построил «инфраструктуру экономических агентов», основанную на данных и комбинируемых моделях, способствующую онлайнизации цепочки создания ценности ИИ.
А в применении технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, недорогую и проверяемую среду для работы с данными и контрактами для AI моделей.
Построено на базе OP Stack: основано на технологии Optimism, поддерживает высокую пропускную способность и низкие затраты на выполнение;
Расчеты в основной сети Эфириума: обеспечение безопасности транзакций и целостности активов;
EVM совместимость: позволяет разработчикам быстро разрабатывать и расширять на основе Solidity;
EigenDA предоставляет поддержку доступности данных: значительно снижает расходы на хранение, обеспечивает проверяемость данных.
По сравнению с такими более низкоуровневыми решениями, как NEAR, которые ориентированы на суверенитет данных и архитектуру «AI Agents on BOS», OpenLedger более сосредоточен на создании специализированной цепочки AI, нацеленной на стимулы для данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивого замыкания ценностей в разработке и вызове моделей на цепочке. Это инфраструктура стимулов для моделей в мире Web3, объединяющая хостинг моделей, выставление счетов за использование и комбинируемые интерфейсы на цепочке, способствуя реализации пути «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и технологическая архитектура OpenLedger
3.1 Модельный завод,无需代码模型工厂
ModelFactory является крупной платформой для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков дообучения, ModelFactory предлагает чисто графический интерфейс, не требующий использования командной строки или интеграции API. Пользователи могут дообучать модели на основе наборов данных, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс, включающий авторизацию данных, обучение моделей и их развертывание, основной процесс включает в себя:
Контроль доступа к данным: пользователь отправляет запрос на данные, провайдер проверяет и утверждает, данные автоматически подключаются к интерфейсу обучения модели.
Выбор и настройка модели: поддержка основных LLM, настройка гиперпараметров через GUI.
Легкая настройка: встроенный движок LoRA / QLoRA, демонстрирующий ход обучения в реальном времени.
Оценка и развертывание модели: встроенные инструменты оценки, поддерживающие экспорт развертывания или совместное использование экосистемы.
Интерфейс проверки взаимодействия: обеспечивает чат-интерфейс для прямого тестирования способности модели к вопросам и ответам.
Генерация RAG отслеживания: ответы с цитированием источников, повышающие доверие и возможность аудита.
Архитектура системы Model Factory включает шесть основных модулей, охватывающих идентификацию, права доступа к данным, микронастройку моделей, оценку развертывания и трассировку RAG, создавая безопасную, контролируемую, интерактивную и устойчивую платформу услуг моделей.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
Модельный завод в настоящее время поддерживает следующие возможности больших языковых моделей:
LLaMA серия: самая широкая экосистема, активное сообщество, универсальная производительность, одна из самых популярных открытых базовых моделей на данный момент.
Mistral: Архитектура эффективна, производительность вывода отличная, подходит для гибкого развертывания в условиях ограниченных ресурсов.
Qwen:中文 задача показывает отличные результаты, обладает высокой комплексной способностью, подходит для выбора отечественных разработчиков.
ChatGLM: выдающийся эффект китайского диалога, подходит для специализированного обслуживания клиентов и локализованных сцен.
Deepseek:Проявляет превосходство в генерации кода и математическом выводе, подходит для инструментов помощи в интеллектуальной разработке.
Gemma: Четкая структура, легко для быстрого освоения и экспериментов.
Falcon: Раньше был эталоном производительности, подходит для фундаментальных исследований или сравнительных тестов, но активность сообщества снизилась.
BLOOM: поддержка множества языков довольно сильная, но производительность вывода слабая, подходит для исследований с охватом языков.
GPT-2: классическая ранняя модель, подходит только для учебных и верификационных целей, не рекомендуется для реального развертывания.
Хотя модельный набор OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а основана на «приоритете практичности», учитывающем реальные ограничения развертывания на блокчейне (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели имеют встроенный механизм доказательства вклада, обеспечивающий права участников данных и разработчиков моделей, обладает низким порогом входа, возможностью монетизации и композируемостью, по сравнению с традиционными инструментами разработки моделей:
Для разработчиков: предоставление полного пути к инкубации моделей, распространению и доходам;
Для платформы: создание модели обращения активов и комбинационной экосистемы;
Для пользователей: можно комбинировать использование моделей или агентов, как при вызове API.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активизация ончейн-активов модели дообучения
LoRA (Low-Rank Adaptation) – это эффективный метод дообучения параметров, который позволяет изучать новые задачи путем вставки «низкоранговых матриц» в предобученную большую модель, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Чтобы использовать их для конкретных задач, необходимо выполнить дообучение. Основная стратегия LoRA заключается в том, чтобы: «заморозить параметры оригинальной большой модели, обучая только вставленные новые параметрические матрицы». Этот метод отличается высокой эффективностью параметров, быстрой тренировкой и гибким развертыванием, что делает его наиболее подходящим среди современных методов дообучения для развертывания и комбинированного вызова моделей Web3.
OpenLoRA — это легковесный фреймворк для инференса, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем, связанных с развертыванием AI моделей, таких как высокая стоимость, низкая переиспользуемость и расточительство GPU ресурсов, а также содействие внедрению «платежеспособного AI» (Payable AI).
Ядро архитектуры системы OpenLoRA, основанное на модульном дизайне, охватывает ключевые этапы, такие как хранение моделей, выполнение вывода, маршрутизация запросов и т.д., что обеспечивает эффективное и экономичное развертывание и вызов множества моделей.
Модуль хранения LoRA Adapter: откалиброванный адаптер LoRA размещается на OpenLedger, обеспечивая загрузку по мере необходимости, что позволяет избежать предварительной загрузки всех моделей в видеопамять и экономит ресурсы.
Хостинг моделей и динамический слой слияния: все модели с дообучением используют основную большую модель, во время вывода адаптер LoRA динамически объединяется, поддерживая совместный вывод нескольких адаптеров, что повышает производительность.
Инженерный вывод: интеграция множества CUDA-оптимизационных технологий, таких как Flash-Attention, Paged-Attention, SGMV оптимизация и др.
Модуль маршрутизации запросов и потокового вывода: динамически маршрутизирует к правильному адаптеру в зависимости от требуемой модели в запросе, достигая потоковой передачи на уровне токенов с помощью оптимизированного ядра.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
13 Лайков
Награда
13
5
Поделиться
комментарий
0/400
CryptoTherapist
· 07-19 18:26
отпускаем страх упустить возможность с GPU... время для осознанной медитации модели, если честно
Посмотреть ОригиналОтветить0
BearMarketBuilder
· 07-19 13:17
Говоря о высоких материях, на самом деле лучше заняться делом.
Посмотреть ОригиналОтветить0
TokenBeginner'sGuide
· 07-16 21:03
Вежливое напоминание: Согласно статистике, 87% новичков легко сбиваются с толку из-за концептуального хайпа, рекомендуется сначала провести базовое исследование, а затем рассмотреть возможность инвестирования в соответствующие проекты.
Посмотреть ОригиналОтветить0
CommunityWorker
· 07-16 20:53
ai также должен сначала выполнить физическую работу
Посмотреть ОригиналОтветить0
DaoResearcher
· 07-16 20:47
Согласно отчету, в разделе 3.1, данные в графиках недостаточно подтверждены, рекомендуется дополнить анализом волатильности.
OpenLedger ведет новую экосистему AI: OP Stack + EigenDA создают инфраструктуру для экономики интеллектуальных агентов
OpenLedger Глубина исследование: на базе OP Stack+EigenDA построить экономику интеллектуальных агентов, управляемую данными и моделями.
Один. Введение | Переход модели Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, и без них невозможно обойтись. Подобно эволюционному пути инфраструктуры традиционной индустрии ИИ, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок на время находился под влиянием децентрализованных GPU проектов, которые в основном акцентировали внимание на логике грубого роста «拼算力». Однако с наступлением 2025 года внимание индустрии постепенно сместилось к уровням модели и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивой и ценной для применения срединной конструкции.
Универсальная большая модель (LLM) vs Специализированная модель (SLM)
Традиционные крупные языковые модели (LLM) в значительной степени зависят от масштабных наборов данных и сложной распределенной архитектуры, количество параметров колеблется от 70B до 500B, а стоимость одной тренировки часто достигает нескольких миллионов долларов. В то время как SLM (Specialized Language Model) как легковесная парадигма тонкой настройки многоразовой базовой модели обычно основана на открытых моделях, сочетая небольшое количество качественных специализированных данных и технологии, такие как LoRA, быстро создает экспертные модели, обладающие знаниями в определенной области, значительно снижая стоимость обучения и технические барьеры.
Стоит отметить, что SLM не интегрируется в веса LLM, а работает в сотрудничестве с LLM через архитектуру агент, динамическую маршрутизацию системы плагинов, горячую замену модулей LoRA и RAG (улучшенное генерирование с помощью поиска). Эта архитектура сохраняет широкие возможности LLM и одновременно усиливает профессиональные показатели за счет модулей тонкой настройки, формируя высоко адаптивную комбинированную интеллектуальную систему.
Ценность и границы Crypto AI на уровне моделей
Крипто AI проекты по сути трудно напрямую повысить основные возможности больших языковых моделей (LLM), основная причина заключается в том, что
Однако, на основе открытых базовых моделей проект Crypto AI все еще может осуществлять расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с верифицируемостью и механизмами стимулов Web3. В качестве «периферийного интерфейсного слоя» AI цепочки поставок это проявляется в двух основных направлениях:
Анализ классификации типов AI моделей и их применимости к блокчейну
Таким образом, можно увидеть, что жизнеспособные направления для моделей типа Crypto AI в основном сосредоточены на легкой настройке малых SLM, подключении и верификации данных в архитектуре RAG, а также на локальном развертывании и стимуляции Edge моделей. С учетом возможности верификации блокчейна и токеномики, Crypto может предоставить уникальную ценность для этих сценариев моделей со средними и низкими ресурсами, создавая дифференцированную ценность «интерфейсного слоя» AI.
Блокчейн AI цепь, основанная на данных и моделях, может четко и неизменно фиксировать источники вклада каждой записи данных и модели, значительно повышая доверие к данным и прослеживаемость обучения модели. В то же время, с помощью механизма смарт-контрактов, при вызове данных или модели автоматически инициируется распределение вознаграждений, превращая поведение AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность модели с помощью голосования токенами, участвовать в разработке и итерации правил, совершенствуя децентрализованную управленческую структуру.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
II. Обзор проекта | Видение AI Chain от OpenLedger
OpenLedger является одним из немногих блокчейн AI проектов на текущем рынке, сосредоточенных на механизмах стимулов для данных и моделей. Он первым предложил концепцию "Payable AI", нацеленную на создание справедливой, прозрачной и комбинируемой среды для работы AI, чтобы побудить участников данных, разработчиков моделей и создателей AI приложений сотрудничать на одной платформе и получать доход на цепочке в зависимости от их фактического вклада.
OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», его основные модули включают:
С помощью вышеуказанных модулей OpenLedger построил «инфраструктуру экономических агентов», основанную на данных и комбинируемых моделях, способствующую онлайнизации цепочки создания ценности ИИ.
А в применении технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, недорогую и проверяемую среду для работы с данными и контрактами для AI моделей.
По сравнению с такими более низкоуровневыми решениями, как NEAR, которые ориентированы на суверенитет данных и архитектуру «AI Agents on BOS», OpenLedger более сосредоточен на создании специализированной цепочки AI, нацеленной на стимулы для данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивого замыкания ценностей в разработке и вызове моделей на цепочке. Это инфраструктура стимулов для моделей в мире Web3, объединяющая хостинг моделей, выставление счетов за использование и комбинируемые интерфейсы на цепочке, способствуя реализации пути «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и технологическая архитектура OpenLedger
3.1 Модельный завод,无需代码模型工厂
ModelFactory является крупной платформой для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков дообучения, ModelFactory предлагает чисто графический интерфейс, не требующий использования командной строки или интеграции API. Пользователи могут дообучать модели на основе наборов данных, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс, включающий авторизацию данных, обучение моделей и их развертывание, основной процесс включает в себя:
Архитектура системы Model Factory включает шесть основных модулей, охватывающих идентификацию, права доступа к данным, микронастройку моделей, оценку развертывания и трассировку RAG, создавая безопасную, контролируемую, интерактивную и устойчивую платформу услуг моделей.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
Модельный завод в настоящее время поддерживает следующие возможности больших языковых моделей:
Хотя модельный набор OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а основана на «приоритете практичности», учитывающем реальные ограничения развертывания на блокчейне (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели имеют встроенный механизм доказательства вклада, обеспечивающий права участников данных и разработчиков моделей, обладает низким порогом входа, возможностью монетизации и композируемостью, по сравнению с традиционными инструментами разработки моделей:
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активизация ончейн-активов модели дообучения
LoRA (Low-Rank Adaptation) – это эффективный метод дообучения параметров, который позволяет изучать новые задачи путем вставки «низкоранговых матриц» в предобученную большую модель, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Чтобы использовать их для конкретных задач, необходимо выполнить дообучение. Основная стратегия LoRA заключается в том, чтобы: «заморозить параметры оригинальной большой модели, обучая только вставленные новые параметрические матрицы». Этот метод отличается высокой эффективностью параметров, быстрой тренировкой и гибким развертыванием, что делает его наиболее подходящим среди современных методов дообучения для развертывания и комбинированного вызова моделей Web3.
OpenLoRA — это легковесный фреймворк для инференса, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем, связанных с развертыванием AI моделей, таких как высокая стоимость, низкая переиспользуемость и расточительство GPU ресурсов, а также содействие внедрению «платежеспособного AI» (Payable AI).
Ядро архитектуры системы OpenLoRA, основанное на модульном дизайне, охватывает ключевые этапы, такие как хранение моделей, выполнение вывода, маршрутизация запросов и т.д., что обеспечивает эффективное и экономичное развертывание и вызов множества моделей.