تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
1. المقدمة | انتقال نموذج Crypto AI
تعتبر البيانات والنماذج وقوة الحساب العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، ولا يمكن الاستغناء عن أي منها. على غرار مسار تطور بنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهدت أيضًا مجال الذكاء الاصطناعي في التشفير مراحل مشابهة. في أوائل عام 2024، كان السوق في مرحلة هيمنة مشاريع GPU اللامركزية، مع التركيز بشكل عام على منطق النمو الواسع "في قوة الحساب". ومع دخول عام 2025، بدأ اهتمام الصناعة يتحول تدريجيًا نحو طبقة النماذج والبيانات، مما يرمز إلى انتقال الذكاء الاصطناعي في التشفير من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية.
نماذج كبيرة عامة (LLM) مقابل نماذج متخصصة (SLM)
تتطلب نماذج اللغة الكبيرة التقليدية (LLM) تدريبًا يعتمد بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يصل حجم المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب الواحدة إلى عدة ملايين من الدولارات. بينما تُعتبر SLM (نموذج اللغة المتخصص) كنوع من نماذج الأساس القابلة لإعادة الاستخدام، فإنه يعتمد عادةً على نماذج مفتوحة المصدر، ويجمع بين كمية قليلة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة في مجالات معينة بسرعة، مما يقلل بشكل ملحوظ من تكاليف التدريب والعوائق التقنية.
من المهم أن نلاحظ أن SLM لن يتم دمجه في أوزان LLM، بل سيتم تشغيله بالتعاون مع LLM من خلال هيكل الوكيل، ونظام المكونات الإضافية للتوجيه الديناميكي، وقابلية الإدخال الساخن لوحدات LoRA، و RAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. يحتفظ هذا الهيكل بقدرة LLM الواسعة، بينما يعزز الأداء الاحترافي من خلال وحدات الضبط الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة و حدود الذكاء الاصطناعي في طبقة النموذج
مشاريع الذكاء الاصطناعي المشفرة من الصعب من الناحية الجوهرية تعزيز القدرات الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
العوائق التقنية مرتفعة للغاية: حجم البيانات والموارد الحسابية والقدرات الهندسية المطلوبة لتدريب نموذج Foundation ضخمة للغاية، حالياً فقط تمتلك الشركات التقنية الكبرى مثل الولايات المتحدة والصين القدرة المناسبة.
قيود النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية السائدة مفتوحة المصدر، إلا أن الدفع الحقيقي لتجاوز النماذج لا يزال مركزًا في المؤسسات البحثية ونظم الهندسة المغلقة، والمشاريع على السلسلة لديها مساحة مشاركة محدودة في طبقة النموذج الأساسية.
ومع ذلك، فإن مشاريع Crypto AI يمكن أن تحقق قيمة ممتدة من خلال ضبط نماذج اللغة المتخصصة (SLM) فوق نماذج الأساس مفتوحة المصدر، بالتزامن مع القابلية للتحقق وآليات التحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين أساسيين:
طبقة التحقق الموثوقة: من خلال تسجيل مسار توليد النموذج، ومساهمات البيانات، واستخدامها على السلسلة، تعزز قابلية تتبع مخرجات الذكاء الاصطناعي وقدرتها على مقاومة التلاعب.
آلية التحفيز: من خلال استخدام الرموز الأصلية، لتحفيز سلوكيات مثل رفع البيانات، واستدعاء النماذج، وتنفيذ الوكلاء، لبناء حلقة إيجابية لتدريب النماذج وتقديم الخدمات.
تحليل ملاءمة أنواع نماذج الذكاء الاصطناعي مع blockchain
من هنا، يتبين أن النقاط القابلة للتطبيق لمشاريع AI Crypto من نوع نموذجية تتركز بشكل رئيسي على تحسين خفيف لنماذج SLM الصغيرة، ودمج البيانات والتحقق منها على السلسلة في هيكل RAG، بالإضافة إلى نشر وتحفيز النماذج المحلية. بالاستفادة من قابلية التحقق في blockchain وآلية الرموز، يمكن لـ Crypto أن يقدم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة متميزة في "طبقة واجهة" AI.
سلسلة blockchain AI القائمة على البيانات والنماذج، يمكن أن تسجل بوضوح وسجل لا يمكن تغييره مصدر مساهمة كل بيانات ونموذج على السلسلة، مما يعزز بشكل كبير مصداقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك الذكاء الاصطناعي إلى قيمة قابلة للقياس وقابلة للتداول. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال التصويت بالرموز، والمشاركة في وضع القواعد والتكرار، مما يعزز الهيكل الحاكم اللامركزي.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
٢. نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي
OpenLedger هو أحد المشاريع القليلة في السوق التي تركز على حوافز البيانات والنماذج في مجال الذكاء الاصطناعي على البلوكشين. وقد قدمت لأول مرة مفهوم "Payable AI"، الذي يهدف إلى بناء بيئة تشغيلية عادلة وشفافة وقابلة للتجميع للذكاء الاصطناعي، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات الذكاء الاصطناعي للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.
OpenLedger توفر حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم إلى "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:
مصنع النموذج: بدون الحاجة إلى البرمجة، يمكنك استخدام LoRA لتدريب نموذج مخصص وضبطه بناءً على LLM مفتوح المصدر؛
OpenLoRA: يدعم التعايش مع آلاف النماذج، التحميل الديناميكي حسب الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
PoA (إثبات النسبة): تحقيق قياس المساهمة وتوزيع المكافآت من خلال تسجيل الاستدعاءات على السلسلة؛
Datanets: شبكة بيانات هيكلية موجهة نحو سيناريوهات عمودية، تم بناؤها والتحقق منها من قبل المجتمع؛
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتجميع، قابلة للاستدعاء، وقابلة للدفع.
من خلال الوحدات أعلاه، أنشأت OpenLedger "بنية تحتية للاقتصاد الذكي" قائمة على البيانات وقابلة للتجميع، مما يدفع إلى تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
أما في اعتماد تقنية البلوكتشين، فقد استخدمت OpenLedger قاعدة OP Stack + EigenDA، لبناء بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.
مبني على OP Stack: يعتمد على تقنية Optimism، ويدعم التنفيذ عالي الإنتاجية ومنخفض التكلفة؛
تسوية على الشبكة الرئيسية للإيثريوم: ضمان أمان المعاملات وسلامة الأصول؛
متوافق مع EVM: يسهل على المطورين نشر وتوسيع بسرعة على أساس Solidity؛
EigenDA يوفر دعم قابلية البيانات: يقلل بشكل كبير من تكاليف التخزين، ويضمن قابلية التحقق من البيانات.
بالمقارنة مع سلاسل AI العامة مثل NEAR التي تركز أكثر على البنية التحتية، وتركز على سيادة البيانات و "AI Agents on BOS"، فإن OpenLedger تركز بشكل أكبر على بناء سلاسل AI المخصصة التي تستهدف تحفيز البيانات والنماذج، وتهدف إلى تحقيق تطوير واستدعاء النماذج على السلسلة بطريقة يمكن تتبعها، وقابلة للتجميع، ومستدامة. إنها بنية تحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج، وفوترة الاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يدفع نحو تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية و هيكل التكنولوجيا لـ OpenLedger
3.1 نموذج المصنع ،无需 كود نموذج المصنع
ModelFactory هو منصة كبيرة لتعديل النماذج اللغوية (LLM) تحت نظام OpenLedger. على عكس أطر التعديل التقليدية، يوفر ModelFactory واجهة رسومية بحتة للعمل، دون الحاجة إلى أدوات سطر الأوامر أو تكامل واجهة برمجة التطبيقات. يمكن للمستخدمين تعديل النماذج بناءً على مجموعات البيانات التي تم الحصول على إذنها ومراجعتها على OpenLedger. تم تحقيق سير عمل متكامل لتفويض البيانات، وتدريب النماذج ونشرها، وتشتمل العمليات الأساسية على:
التحكم في الوصول إلى البيانات: يقدم المستخدم طلب بيانات، ويقوم المزود بمراجعته والموافقة عليه، وتتم عملية إدخال البيانات تلقائيًا إلى واجهة تدريب النماذج.
اختيار النموذج وتكوينه: يدعم LLM الشائع، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
تعديل خفيف الوزن: محرك LoRA / QLoRA المدمج، عرض تقدم التدريب في الوقت الفعلي.
تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو مشاركة الاستدعاء في النظام البيئي.
واجهة التحقق التفاعلي: توفر واجهة دردشة، مما يسهل اختبار قدرة النموذج على الإجابة.
توليد تتبع RAG: الردود مع اقتباسات المصدر، لتعزيز الثقة وقابلية التدقيق.
يتضمن هيكل نظام Model Factory ستة وحدات، تغطي المصادقة على الهوية، حقوق البيانات، ضبط النموذج، نشر التقييم وRAG للتتبع، لإنشاء منصة خدمات نماذج متكاملة آمنة وقابلة للتحكم، تفاعلية في الوقت الحقيقي، وقابلة للاستدامة لتحقيق العوائد.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حاليًا بواسطة ModelFactory كما يلي:
سلسلة LLaMA: الأكثر شمولاً، المجتمع النشط، الأداء العام القوي، وهي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعًا في الوقت الحالي.
Mistral: بنية فعالة، أداء استدلال ممتاز، مناسب للنشر في سيناريوهات مرنة وموارد محدودة.
Qwen:أداء ممتاز في المهام الصينية، قدرة شاملة قوية، مناسب للاختيار الأول للمطورين المحليين.
ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمات العملاء المتخصصة والمشاهد المحلية.
Deepseek: يتمتع بأداء متفوق في توليد الشفرات والاستدلال الرياضي، مناسب كأداة مساعدة للتطوير الذكي.
جيمما: هيكل واضح، سهل الاستخدام والتجربة بسرعة.
فالكون: كان معيار الأداء، مناسب للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
BLOOM: دعم متعدد اللغات قوي، لكن أداء الاستدلال ضعيف، مناسب لأبحاث تغطية اللغات.
GPT-2: نموذج كلاسيكي مبكر، مناسب فقط لأغراض التعليم والتحقق، لا يُنصح باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تشمل أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "الأولوية العملية" الذي تم بناءً على القيود الواقعية للنشر على السلسلة (تكلفة الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).
تعتبر Model Factory كأداة بدون كود، حيث تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمستوى منخفض من الحواجز، وقابلية التحويل، والقدرة على التجميع، مقارنة بأدوات تطوير النماذج التقليدية:
للمطورين: توفير مسار كامل لنمذجة الحضانة والتوزيع والإيرادات؛
بالنسبة للمنصة: تشكيل تدفق أصول النموذج وبيئة التركيب؛
بالنسبة للمستخدمين: يمكن استخدام النماذج أو الوكلاء بشكل مركب كما هو الحال عند استدعاء API.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA، تحويل الأصول على السلسلة للنموذج المدرب
LoRA (التكيف ذو الرتبة المنخفضة) هي طريقة فعالة لضبط المعلمات، من خلال إدخال "مصفوفة ذات رتبة منخفضة" في نموذج كبير مُدرَّب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادةً ما تمتلك نماذج اللغة الكبيرة التقليدية عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة، يلزم إجراء ضبط. الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفات المعلمات الجديدة المدخلة فقط."، مع كونها فعالة من حيث المعلمات، وسريعة التدريب، ومرنة في النشر، تُعتبر الطريقة الرئيسية الأكثر ملاءمة لنشر نماذج Web3 واستدعاءها بشكل متكامل.
OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger ومصمم لنشر نماذج متعددة ومشاركة الموارد. الهدف الأساسي له هو حل المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية، مثل التكلفة العالية، وقلة إعادة الاستخدام، وإهدار موارد وحدة معالجة الرسومات، مما يعزز تنفيذ "الذكاء الاصطناعي المدفوع".
المكونات الأساسية لهندسة نظام OpenLoRA، مبنية على تصميم معياري، تغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الرئيسية، لتحقيق قدرات نشر واستدعاء متعددة النماذج بكفاءة وتكلفة منخفضة:
وحدة تخزين LoRA Adapter: يتم استضافة LoRA adapter الذي تم ضبطه في OpenLedger، مما يتيح التحميل عند الطلب، ويتجنب تحميل جميع النماذج مسبقًا في الذاكرة، مما يوفر الموارد.
استضافة النموذج وطبقة الدمج الديناميكي: جميع النماذج المعدلة تشترك في النموذج الأساسي الكبير، أثناء الاستدلال يتم دمج محول LoRA ديناميكياً، ويدعم استدلال عدة محولات بشكل مشترك، مما يعزز الأداء.
محرك الاستدلال: يدمج تقنيات تحسين CUDA المتعددة مثل Flash-Attention و Paged-Attention و SGMV.
وحدة توجيه الطلبات والإخراج التدريجي: توجيه ديناميكي إلى المحول الصحيح بناءً على النموذج المطلوب في الطلب، وتحقيق الإخراج التدريجي على مستوى الرموز من خلال تحسين النواة.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 13
أعجبني
13
5
مشاركة
تعليق
0/400
CryptoTherapist
· 07-19 18:26
التخلي عن خوف فقدان الفرصة مع وحدات معالجة الرسوميات... حان الوقت لبعض التأمل الواعي في النماذج بصراحة
شاهد النسخة الأصليةرد0
BearMarketBuilder
· 07-19 13:17
إن الصراخ بهذه الأمور الرفيعة ليس أفضل من القيام بأشياء واقعية.
شاهد النسخة الأصليةرد0
TokenBeginner'sGuide
· 07-16 21:03
تذكير لطيف: وفقًا للإحصاءات، 87% من المبتدئين容易被概念炒作带偏،建议先做好基础研究再考虑布局相关项目
شاهد النسخة الأصليةرد0
CommunityWorker
· 07-16 20:53
يجب على الذكاء الاصطناعي أيضًا أن يقوم ببعض الأعمال البدنية أولاً
شاهد النسخة الأصليةرد0
DaoResearcher
· 07-16 20:47
وفقًا لما ورد في القسم 3.1 من التقرير، فإن بيانات الرسوم البيانية غير كافية للتحقق، ويوصى بإضافة تحليل التقلب.
OpenLedger تقود النظام البيئي الجديد للذكاء الاصطناعي: OP Stack + EigenDA تبني بنية تحتية لاقتصاد الوكالات الذكية
تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
1. المقدمة | انتقال نموذج Crypto AI
تعتبر البيانات والنماذج وقوة الحساب العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، ولا يمكن الاستغناء عن أي منها. على غرار مسار تطور بنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهدت أيضًا مجال الذكاء الاصطناعي في التشفير مراحل مشابهة. في أوائل عام 2024، كان السوق في مرحلة هيمنة مشاريع GPU اللامركزية، مع التركيز بشكل عام على منطق النمو الواسع "في قوة الحساب". ومع دخول عام 2025، بدأ اهتمام الصناعة يتحول تدريجيًا نحو طبقة النماذج والبيانات، مما يرمز إلى انتقال الذكاء الاصطناعي في التشفير من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية.
نماذج كبيرة عامة (LLM) مقابل نماذج متخصصة (SLM)
تتطلب نماذج اللغة الكبيرة التقليدية (LLM) تدريبًا يعتمد بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يصل حجم المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب الواحدة إلى عدة ملايين من الدولارات. بينما تُعتبر SLM (نموذج اللغة المتخصص) كنوع من نماذج الأساس القابلة لإعادة الاستخدام، فإنه يعتمد عادةً على نماذج مفتوحة المصدر، ويجمع بين كمية قليلة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة في مجالات معينة بسرعة، مما يقلل بشكل ملحوظ من تكاليف التدريب والعوائق التقنية.
من المهم أن نلاحظ أن SLM لن يتم دمجه في أوزان LLM، بل سيتم تشغيله بالتعاون مع LLM من خلال هيكل الوكيل، ونظام المكونات الإضافية للتوجيه الديناميكي، وقابلية الإدخال الساخن لوحدات LoRA، و RAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. يحتفظ هذا الهيكل بقدرة LLM الواسعة، بينما يعزز الأداء الاحترافي من خلال وحدات الضبط الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة و حدود الذكاء الاصطناعي في طبقة النموذج
مشاريع الذكاء الاصطناعي المشفرة من الصعب من الناحية الجوهرية تعزيز القدرات الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
ومع ذلك، فإن مشاريع Crypto AI يمكن أن تحقق قيمة ممتدة من خلال ضبط نماذج اللغة المتخصصة (SLM) فوق نماذج الأساس مفتوحة المصدر، بالتزامن مع القابلية للتحقق وآليات التحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين أساسيين:
تحليل ملاءمة أنواع نماذج الذكاء الاصطناعي مع blockchain
من هنا، يتبين أن النقاط القابلة للتطبيق لمشاريع AI Crypto من نوع نموذجية تتركز بشكل رئيسي على تحسين خفيف لنماذج SLM الصغيرة، ودمج البيانات والتحقق منها على السلسلة في هيكل RAG، بالإضافة إلى نشر وتحفيز النماذج المحلية. بالاستفادة من قابلية التحقق في blockchain وآلية الرموز، يمكن لـ Crypto أن يقدم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة متميزة في "طبقة واجهة" AI.
سلسلة blockchain AI القائمة على البيانات والنماذج، يمكن أن تسجل بوضوح وسجل لا يمكن تغييره مصدر مساهمة كل بيانات ونموذج على السلسلة، مما يعزز بشكل كبير مصداقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك الذكاء الاصطناعي إلى قيمة قابلة للقياس وقابلة للتداول. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال التصويت بالرموز، والمشاركة في وضع القواعد والتكرار، مما يعزز الهيكل الحاكم اللامركزي.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
٢. نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي
OpenLedger هو أحد المشاريع القليلة في السوق التي تركز على حوافز البيانات والنماذج في مجال الذكاء الاصطناعي على البلوكشين. وقد قدمت لأول مرة مفهوم "Payable AI"، الذي يهدف إلى بناء بيئة تشغيلية عادلة وشفافة وقابلة للتجميع للذكاء الاصطناعي، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات الذكاء الاصطناعي للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.
OpenLedger توفر حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم إلى "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:
من خلال الوحدات أعلاه، أنشأت OpenLedger "بنية تحتية للاقتصاد الذكي" قائمة على البيانات وقابلة للتجميع، مما يدفع إلى تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
أما في اعتماد تقنية البلوكتشين، فقد استخدمت OpenLedger قاعدة OP Stack + EigenDA، لبناء بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.
بالمقارنة مع سلاسل AI العامة مثل NEAR التي تركز أكثر على البنية التحتية، وتركز على سيادة البيانات و "AI Agents on BOS"، فإن OpenLedger تركز بشكل أكبر على بناء سلاسل AI المخصصة التي تستهدف تحفيز البيانات والنماذج، وتهدف إلى تحقيق تطوير واستدعاء النماذج على السلسلة بطريقة يمكن تتبعها، وقابلة للتجميع، ومستدامة. إنها بنية تحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج، وفوترة الاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يدفع نحو تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية و هيكل التكنولوجيا لـ OpenLedger
3.1 نموذج المصنع ،无需 كود نموذج المصنع
ModelFactory هو منصة كبيرة لتعديل النماذج اللغوية (LLM) تحت نظام OpenLedger. على عكس أطر التعديل التقليدية، يوفر ModelFactory واجهة رسومية بحتة للعمل، دون الحاجة إلى أدوات سطر الأوامر أو تكامل واجهة برمجة التطبيقات. يمكن للمستخدمين تعديل النماذج بناءً على مجموعات البيانات التي تم الحصول على إذنها ومراجعتها على OpenLedger. تم تحقيق سير عمل متكامل لتفويض البيانات، وتدريب النماذج ونشرها، وتشتمل العمليات الأساسية على:
يتضمن هيكل نظام Model Factory ستة وحدات، تغطي المصادقة على الهوية، حقوق البيانات، ضبط النموذج، نشر التقييم وRAG للتتبع، لإنشاء منصة خدمات نماذج متكاملة آمنة وقابلة للتحكم، تفاعلية في الوقت الحقيقي، وقابلة للاستدامة لتحقيق العوائد.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حاليًا بواسطة ModelFactory كما يلي:
على الرغم من أن مجموعة نماذج OpenLedger لا تشمل أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "الأولوية العملية" الذي تم بناءً على القيود الواقعية للنشر على السلسلة (تكلفة الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).
تعتبر Model Factory كأداة بدون كود، حيث تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمستوى منخفض من الحواجز، وقابلية التحويل، والقدرة على التجميع، مقارنة بأدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA، تحويل الأصول على السلسلة للنموذج المدرب
LoRA (التكيف ذو الرتبة المنخفضة) هي طريقة فعالة لضبط المعلمات، من خلال إدخال "مصفوفة ذات رتبة منخفضة" في نموذج كبير مُدرَّب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادةً ما تمتلك نماذج اللغة الكبيرة التقليدية عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة، يلزم إجراء ضبط. الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفات المعلمات الجديدة المدخلة فقط."، مع كونها فعالة من حيث المعلمات، وسريعة التدريب، ومرنة في النشر، تُعتبر الطريقة الرئيسية الأكثر ملاءمة لنشر نماذج Web3 واستدعاءها بشكل متكامل.
OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger ومصمم لنشر نماذج متعددة ومشاركة الموارد. الهدف الأساسي له هو حل المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية، مثل التكلفة العالية، وقلة إعادة الاستخدام، وإهدار موارد وحدة معالجة الرسومات، مما يعزز تنفيذ "الذكاء الاصطناعي المدفوع".
المكونات الأساسية لهندسة نظام OpenLoRA، مبنية على تصميم معياري، تغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الرئيسية، لتحقيق قدرات نشر واستدعاء متعددة النماذج بكفاءة وتكلفة منخفضة: