OpenLedger lidera um novo ecossistema de IA: infraestrutura básica da economia de agentes construída com OP Stack+EigenDA

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Uma, Introdução | A transição do nível de modelo do Crypto AI

Dados, modelos e poder computacional são os três elementos centrais da infraestrutura de IA, e todos são indispensáveis. Semelhante ao caminho de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto AI também passou por estágios semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, que enfatizavam amplamente a lógica de crescimento extensivo de "competir em poder computacional". No entanto, a partir de 2025, o foco da indústria começou a se deslocar para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de médio nível mais sustentável e com valor de aplicação.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem tradicionais de grande escala (LLM) dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que utiliza um modelo base reutilizável, geralmente é baseado em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e técnicas como LoRA, para construir rapidamente um modelo especialista com conhecimento específico de domínio, reduzindo significativamente o custo e a barreira técnica do treinamento.

É importante notar que o SLM não será integrado nos pesos do LLM, mas sim operará em colaboração com o LLM através de chamadas de arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA, RAG (Geração Aumentada por Recuperação) e outros métodos. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, ao mesmo tempo que melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente altamente flexível e combinável.

Valor e limites da Crypto AI na camada de modelo

Os projetos de IA cripto, na sua essência, têm dificuldade em melhorar diretamente as capacidades fundamentais dos modelos de linguagem de grande escala (LLM), e a razão principal para isso é que

  • Barreiras tecnológicas demasiado altas: a escala de dados, os recursos computacionais e a capacidade de engenharia necessários para treinar um Modelo Fundamental são extremamente grandes, e atualmente apenas gigantes tecnológicos como os Estados Unidos e a China possuem essa capacidade.
  • Limitações do ecossistema de código aberto: Embora os modelos básicos principais tenham sido abertos, a verdadeira chave para impulsionar os avanços dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia fechados, e o espaço de participação dos projetos em blockchain no nível dos modelos centrais é limitado.

No entanto, em cima de modelos de base de código aberto, o projeto Crypto AI ainda pode estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções principais:

  • Camada de verificação confiável: através do registro em cadeia do caminho de geração do modelo, contribuição de dados e uso, aumenta a rastreabilidade e a resistência à manipulação das saídas de IA.
  • Mecanismo de incentivo: Com a ajuda do Token nativo, utilizado para incentivar o upload de dados, a chamada de modelos, a execução de agentes (Agent) e outras ações, construindo um ciclo positivo de treinamento e serviço de modelos.

Análise da classificação de tipos de modelos de IA e da aplicabilidade em blockchain

Assim, pode-se ver que os pontos de viabilidade dos projetos de AI Crypto do tipo modelo estão principalmente concentrados na afinação leve de SLMs pequenos, na integração e validação de dados on-chain da arquitetura RAG, e na implementação e incentivo de modelos Edge localmente. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios a baixos, formando um valor diferenciado na «camada de interface» da AI.

A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, melhorando significativamente a confiabilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando os dados ou modelos são utilizados, transformando o comportamento da IA em um valor tokenizado que é mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, aperfeiçoando a estrutura de governança descentralizada.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Dois, Visão Geral do Projeto | A visão da cadeia AI da OpenLedger

OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a receber recompensas na cadeia de acordo com suas contribuições reais.

A OpenLedger oferece um ciclo fechado completo desde "fornecimento de dados" até "implantação de modelos" e "chamadas de distribuição de lucros", sendo seus módulos principais:

  • Fábrica de Modelos: sem necessidade de programação, é possível utilizar LoRA para afinar, treinar e implantar modelos personalizados baseados em LLM de código aberto;
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implementação;
  • PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registo de chamadas em cadeia;
  • Datanets: Rede de dados estruturados voltada para cenários verticais, construída e verificada pela colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos on-chain que é combinável, chamável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído sobre OP Stack: baseado na pilha tecnológica Optimism, suporta alta taxa de transferência e execução de baixo custo;
  • Liquidação na rede principal do Ethereum: Garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: Facilita o desenvolvimento e a rápida implementação e expansão com base em Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado a cadeias de IA genéricas como NEAR, que são mais voltadas para a camada inferior e focadas na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger está mais focada na construção de cadeias de IA especializadas voltadas para incentivos de dados e modelos, com o objetivo de tornar o desenvolvimento e a chamada de modelos na cadeia um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de incentivos de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelo como ativo".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, os componentes principais e a arquitetura técnica do OpenLedger

3.1 Fábrica de Modelos, sem necessidade de código

ModelFactory é uma plataforma de ajuste fino de um grande modelo de linguagem (LLM) dentro do ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar modelos com base em conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de acesso a dados: Os usuários submetem pedidos de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração do modelo: Suporta LLMs populares, configurações de hiperparâmetros através da interface gráfica.
  • Ajuste leve: Motor LoRA / QLoRA embutido, exibindo o progresso de treinamento em tempo real.
  • Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou chamadas de compartilhamento ecológico.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG: Respostas com referências de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação, implantação e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura, controlável, com interação em tempo real e monetização sustentável.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

A tabela abaixo resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: o ecossistema mais amplo, comunidade ativa e desempenho geral forte, é um dos modelos básicos de código aberto mais populares atualmente.
  • Mistral: arquitetura eficiente, excelente desempenho em inferência, adequada para cenários de implantação flexíveis e com recursos limitados.
  • Qwen: Desempenho excelente em tarefas em chinês, com habilidades abrangentes, adequado como a primeira escolha para desenvolvedores nacionais.
  • ChatGLM: Efeito de conversa em chinês destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Estrutura clara, fácil de começar rapidamente e experimentar.
  • Falcon: Era um padrão de desempenho, adequado para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte a múltiplas línguas bastante forte, mas desempenho de inferência fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico dos primeiros tempos, adequado apenas para fins de ensino e verificação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim uma configuração "prioridade prática" baseada nas limitações reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM).

Model Factory, como uma cadeia de ferramentas sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, com as vantagens de baixa barreira, potencial de monetização e combinabilidade, em comparação com as ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
  • Para a plataforma: formar um ecossistema de circulação e combinação de ativos modelo;
  • Para utilizadores: é possível combinar modelos ou Agentes como se estivesse a chamar uma API.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a tokenização em cadeia de modelos de ajuste fino

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas inserindo uma "matriz de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas, é necessário realizar um ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original, treinando apenas a nova matriz de parâmetros inserida." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-se o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.

OpenLoRA é uma estrutura de inferência leve construída pela OpenLedger, projetada especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns de implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução de "AI Pagável".

OpenLoRA sistema de arquitetura componentes centrais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outras etapas críticas, alcançando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:

  • Módulo de Armazenamento do LoRA Adapter: o LoRA adapter ajustado é hospedado na OpenLedger, permitindo carregamento sob demanda, evitando carregar todos os modelos na memória gráfica, economizando recursos.
  • Hospedagem de modelos e camada de fusão dinâmica: todos os modelos ajustados em conjunto utilizam um grande modelo base, com a fusão dinâmica do adaptador LoRA durante a inferência, suportando a inferência conjunta de múltiplos adaptadores, melhorando o desempenho.
  • Motor de inferência: integração de várias tecnologias de otimização CUDA, como Flash-Attention, Paged-Attention e SGMV.
  • Módulo de Roteamento de Solicitações e Saída em Fluxo: Roteamento dinâmico para o adaptador correto com base no modelo necessário na solicitação, realizando fluxo a nível de token através da otimização do núcleo.
OP-5.22%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Partilhar
Comentar
0/400
CryptoTherapistvip
· 07-19 18:26
deixando de lado o fomo das gpus... é hora de uma meditação consciente sobre modelos, para ser sincero
Ver originalResponder0
BearMarketBuildervip
· 07-19 13:17
Falar sobre essas coisas grandiosas é menos eficaz do que fazer coisas concretas.
Ver originalResponder0
TokenBeginner'sGuidevip
· 07-16 21:03
Pequeno lembrete: Segundo estatísticas, 87% dos novatos são facilmente desviados por especulações de conceitos, recomenda-se fazer uma pesquisa básica antes de considerar o investimento em projetos relacionados.
Ver originalResponder0
CommunityWorkervip
· 07-16 20:53
a inteligência artificial também deve fazer algum trabalho físico primeiro
Ver originalResponder0
DaoResearchervip
· 07-16 20:47
De acordo com a seção 3.1 do relatório de pesquisa, a validação dos dados do gráfico é insuficiente. Recomenda-se a complementação da análise de Volatilidade.
Ver originalResponder0
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)