OpenLedger Глибина дослідницького звіту: на базі OP Stack + EigenDA створення економіки інтелектуальних агентів, що керується даними і має модельну комбінацію
Один. Вступ | Переход моделі Crypto AI
Дані, моделі та обчислювальна потужність є трьома основними складовими інфраструктури ШІ, без яких не обійтися. Як і в традиційній еволюції інфраструктури ШІ, сфера Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок на певний час був під контролем децентралізованих GPU проектів, які в основному підкреслювали логіку грубого зростання «конкуренції обчислювальної потужності». Однак з початком 2025 року увага індустрії поступово перемістилася до моделей та рівня даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного для застосування середнього рівня будівництва.
Універсальна велика модель (LLM) vs Спеціалізована модель (SLM)
Традиційні великі мовні моделі (LLM) сильно залежать від великих наборів даних та складних розподілених архітектур, а кількість параметрів становить від 70B до 500B, вартість одного навчання часто досягає кількох мільйонів доларів. У той час як SLM (Спеціалізована мовна модель) є легким підходом до тонкої настройки повторного використання базових моделей, зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології, такі як LoRA, швидко створюючи експертні моделі, що мають специфічні знання в певній області, значно знижуючи витрати на навчання та технічний поріг.
Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде взаємодіяти з LLM через архітектуру Agent, динамічну маршрутизацію через плагінну систему, гарячу заміну модулів LoRA, RAG (покращене генерування на основі запитів) та інші способи. Ця архітектура зберігає широку охоплювальність LLM і водночас посилює професійну продуктивність за допомогою модуля тонкого налаштування, формуючи високо гнучку комбіновану інтелектуальну систему.
Значення та межі Crypto AI на рівні моделі
Проекти Crypto AI в основному важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Технічний бар'єр надто високий: обсяги даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, на даний момент лише такі технологічні гіганти, як США та Китай, мають відповідні можливості.
Обмеження відкритої екосистеми: хоча основні модельні бази вже відкриті, справжнім ключем до прориву моделей все ще залишаються науково-дослідні установи та закриті інженерні системи, а участь проектів на блокчейні на рівні основної моделі є обмеженою.
Однак на основі відкритих базових моделей проекти Crypto AI все ще можуть досягати розширення вартості шляхом тонкої налаштування спеціалізованих мовних моделей (SLM) та поєднання з перевіряністю та механізмами стимулювання Web3. Як «периферійний інтерфейс» у ланцюзі постачання AI, це втілено в двох основних напрямках:
Достовірний верифікаційний рівень: шляхом запису на блокчейні шляху генерування моделей, внесків даних та їх використання, посилюється відстежуваність та стійкість до підробок виходу AI.
Механізм стимулювання: за допомогою рідного токена, який використовується для стимулювання завантаження даних, виклику моделей, виконання агентів тощо, створюється позитивний цикл навчання моделі та послуг.
Аналіз класифікації типів AI моделей та їх застосовності до блокчейну
Отже, модельні проекти Crypto AI можуть зосередитися на легкій налаштуванні малих SLM, інтеграції та верифікації даних на ланцюзі за допомогою архітектури RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи верифікацію блокчейну та токеноміку, Crypto може надати унікальну цінність для цих сценаріїв моделей з обмеженими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.
Базований на даних і моделях блокчейн AI ланцюг може чітко та незмінно реєструвати джерела внесків кожного даних і моделі, значно підвищуючи достовірність даних та простежуваність навчання моделей. Одночасно, через механізм смарт-контрактів, автоматично активується розподіл винагород при виклику даних або моделей, перетворюючи поведінку AI в вимірювальну, торгівельну токенізовану вартість, що створює стійку систему стимулювання. Крім того, користувачі громади можуть оцінювати продуктивність моделі за допомогою голосування токенами, брати участь у розробці правил і їх ітерації, вдосконалюючи децентралізовану управлінську структуру.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на сьогоднішньому ринку, які зосереджуються на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», метою якої є створення справедливого, прозорого та комбінованого середовища для роботи AI, що стимулює учасників, які вносять дані, розробників моделей та творців AI застосунків, співпрацювати на одній платформі та отримувати дохід на основі фактичного внеску.
OpenLedger надає повний ланцюг від «надання даних» до «деплойменту моделі», а потім до «виклику розподілу прибутку», його основні модулі включають:
Модельна фабрика: без програмування можна використовувати LoRA для налаштування, навчання та розгортання кастомізованих моделей на основі відкритого LLM;
OpenLoRA: підтримка одночасного використання тисячі моделей, динамічне завантаження за потребою, суттєве зниження витрат на розгортання;
PoA (Доказ атрибуції): вимірювання внеску та розподіл винагороди через запис викликів на ланцюгу;
Datanets: Структуровані мережі даних, орієнтовані на вертикальні сценарії, які будуються та перевіряються завдяки співпраці громади;
Платформа пропозицій моделей (Model Proposal Platform): комбінаційний, викликаний, платіжний ринковий модель на блокчейні.
За допомогою вищезгаданих модулів OpenLedger побудував "інфраструктуру економіки агентів", що базується на даних і має можливість комбінування моделей, що сприяє онлайнізації ціннісного ланцюга AI.
А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA в якості бази, створюючи високопродуктивне, низькоструктурне та перевірне середовище для роботи з даними та контрактами для AI моделей.
Побудовано на OP Stack: на основі технологічного стеку Optimism, що підтримує високу пропускну здатність та низькі витрати на виконання;
Розрахунок в основній мережі Ethereum: забезпечення безпеки транзакцій та цілісності активів;
EVM сумісність: зручність для розробників швидко розгортати та розширювати на основі Solidity;
EigenDA надає підтримку доступності даних: значно знижує витрати на зберігання, забезпечує верифікацію даних.
У порівнянні з NEAR, який більше орієнтований на базовий рівень і ставить акцент на суверенітет даних та архітектуру «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованого блокчейну для AI, орієнтованого на дані та моделі, прагнучи забезпечити можливість розробки та виклику моделей з можливістю відстеження, комбінування та стійкого ціннісного циклу. Це інфраструктура для стимулювання моделей у світі Web3, яка поєднує в собі хостинг моделей, облік використання та комбіновані інтерфейси на блокчейні, сприяючи реалізації концепції «модель як актив».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, не потрібна кодова модельна фабрика
ModelFactory є великою платформою для тонкої настройки мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків для тонкої настройки, ModelFactory пропонує чисто графічний інтерфейс, без необхідності використовувати командний рядок або інтеграцію API. Користувачі можуть проводити тонку настройку моделей на основі наборів даних, які були авторизовані та перевірені в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:
Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та схвалює, дані автоматично підключаються до інтерфейсу навчання моделі.
Вибір і налаштування моделі: Підтримка основних LLM, конфігурація гіперпараметрів через GUI.
Легке налаштування: Вбудований двигун LoRA / QLoRA, що в реальному часі демонструє прогрес навчання.
Оцінка та розгортання моделі: вбудовані інструменти для оцінки, підтримка експорту для розгортання або екосистемного спільного виклику.
Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, що полегшує безпосереднє тестування здатності моделі до запитань і відповідей.
Генерація RAG: відповіді з посиланнями на джерела, що підвищує довіру та аудиторську здатність.
Система архітектури Model Factory складається з шести основних модулів, які охоплюють аутентифікацію особи, права доступу до даних, мікронастройку моделей, оцінку та розгортання, а також RAG трасування, створюючи інтегровану платформу модельних послуг, що забезпечує безпечність, контрольованість, реальний інтерактивний зв'язок та сталий монетизаційний процес.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
Модельний завод наразі підтримує такі можливості великих мовних моделей:
Серія LLaMA: найбільш широка екосистема, активна спільнота, потужні загальні можливості, є однією з найпоширеніших відкритих базових моделей на сьогодні.
Mistral: архітектура ефективна, продуктивність виводу відмінна, підходить для гнучкого розгортання в умовах обмежених ресурсів.
Qwen: китайський завдання показує відмінні результати, має потужні можливості, підходить для вибору вітчизняних розробників.
ChatGLM: видатні результати китайського діалогу, підходить для специфічних обслуговувань клієнтів та локалізованих сценаріїв.
Deepseek: Відзначається перевагою в генерації коду та математичному висновуванні, підходить для інструментів допомоги в розумному розвитку.
Gemma: Чітка структура, легко швидко освоїти і експериментувати.
Falcon: колись був еталоном продуктивності, підходить для фундаментальних досліджень або порівняльних тестів, але активність у спільноті зменшилася.
BLOOM: Підтримка кількох мов досить сильна, але продуктивність висновків слабка, підходить для досліджень, що охоплюють мови.
GPT-2: класична рання модель, підходить лише для навчальних та верифікаційних цілей, не рекомендується для реального розгортання.
Хоча модельний склад OpenLedger не містить останніх високо продуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а базується на реалістичних обмеженнях розгортання в мережі (витрати на інференцію, адаптація RAG, сумісність LoRA, середовище EVM), що призводить до конфігурації «пріоритет практичності».
Model Factory як безкодовий інструмент, всі моделі мають вбудований механізм підтвердження внеску, що забезпечує права даних учасників та розробників моделей, має низький бар'єр, можливість монетизації та комбінованість, в порівнянні з традиційними інструментами розробки моделей:
Для розробників: забезпечити повний шлях до інкубації, розподілу та доходу моделей;
Для платформи: формування моделі обігу активів та комбінаційної екосистеми;
Для користувачів: можна комбінувати моделі або агенти так само, як викликати API.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активізація он-chain активів моделі тонкої настройки
LoRA (Low-Rank Adaptation) є ефективним методом мікронастроювання параметрів, який навчає нові завдання шляхом вставки «матриць низького рангу» у попередньо навчену велику модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань, необхідно виконати мікронастроювання. Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише вставлені нові параметричні матриці». Його параметри є ефективними, навчання швидким, а розгортання гнучким, що робить його найбільш підходящим для розгортання Web3 моделей і комбінованих викликів серед сучасних методів мікронастроювання.
OpenLoRA – це легковагова інфраструктура для виведення, розроблена OpenLedger, спеціально для розгортання кількох моделей та обміну ресурсами. Її основна мета – вирішити поширені проблеми розгортання AI моделей, такі як високі витрати, низька повторна використаність, марнотратство GPU-ресурсів тощо, сприяючи впровадженню «платоспроможного AI» (Payable AI).
OpenLoRA системна архітектура основних компонентів, що базується на модульному дизайні, охоплює зберігання моделей, виконання висновків, маршрутизацію запитів та інші ключові етапи, що забезпечують ефективне та економічне розгортання та виклик кількох моделей:
Модуль зберігання LoRA адаптера: налаштований LoRA адаптер розміщується на OpenLedger, забезпечуючи завантаження за запитом, уникаючи попереднього завантаження всіх моделей у відеопам'ять, економлячи ресурси.
Модельне хостинг та динамічний шар злиття: всі моделі тонкої настройки спільно використовують базову велику модель, під час інференції динамічно об'єднуються LoRA адаптери, підтримують спільну інференцію кількох адаптерів, підвищуючи продуктивність.
Інформаційний двигун: інтеграція Flash-Attention, Paged-Attention, оптимізація SGMV та інших технологій оптимізації CUDA.
Модуль маршрутизації запитів та потоку виводу: динамічно маршрутизує до правильного адаптера в залежності від моделі, необхідної в запиті, реалізуючи потік на рівні токенів через оптимізоване ядро.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
5
Поділіться
Прокоментувати
0/400
CryptoTherapist
· 07-19 18:26
відпустити страх втрати графічних процесорів... час для усвідомленої медитації моделі, чесно кажучи
Переглянути оригіналвідповісти на0
BearMarketBuilder
· 07-19 13:17
Кричати про ці великі справи, а насправді краще займатися реальними справами.
Переглянути оригіналвідповісти на0
TokenBeginner'sGuide
· 07-16 21:03
Нагадуємо: згідно з статистикою, 87% новачків легко піддаються маніпуляціям з концепціями, тому рекомендуємо спочатку провести базове дослідження, а вже потім розглядати розміщення відповідних проектів.
Переглянути оригіналвідповісти на0
CommunityWorker
· 07-16 20:53
ai також слід спочатку виконати фізичну роботу
Переглянути оригіналвідповісти на0
DaoResearcher
· 07-16 20:47
Згідно з доповіддю, розділ 3.1, дані графіків недостатньо підтверджені, рекомендується доповнити аналізом волатильності.
OpenLedger веде нову екосистему ШІ: OP Stack + EigenDA створюють інфраструктуру економіки агентів
OpenLedger Глибина дослідницького звіту: на базі OP Stack + EigenDA створення економіки інтелектуальних агентів, що керується даними і має модельну комбінацію
Один. Вступ | Переход моделі Crypto AI
Дані, моделі та обчислювальна потужність є трьома основними складовими інфраструктури ШІ, без яких не обійтися. Як і в традиційній еволюції інфраструктури ШІ, сфера Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок на певний час був під контролем децентралізованих GPU проектів, які в основному підкреслювали логіку грубого зростання «конкуренції обчислювальної потужності». Однак з початком 2025 року увага індустрії поступово перемістилася до моделей та рівня даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного для застосування середнього рівня будівництва.
Універсальна велика модель (LLM) vs Спеціалізована модель (SLM)
Традиційні великі мовні моделі (LLM) сильно залежать від великих наборів даних та складних розподілених архітектур, а кількість параметрів становить від 70B до 500B, вартість одного навчання часто досягає кількох мільйонів доларів. У той час як SLM (Спеціалізована мовна модель) є легким підходом до тонкої настройки повторного використання базових моделей, зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології, такі як LoRA, швидко створюючи експертні моделі, що мають специфічні знання в певній області, значно знижуючи витрати на навчання та технічний поріг.
Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде взаємодіяти з LLM через архітектуру Agent, динамічну маршрутизацію через плагінну систему, гарячу заміну модулів LoRA, RAG (покращене генерування на основі запитів) та інші способи. Ця архітектура зберігає широку охоплювальність LLM і водночас посилює професійну продуктивність за допомогою модуля тонкого налаштування, формуючи високо гнучку комбіновану інтелектуальну систему.
Значення та межі Crypto AI на рівні моделі
Проекти Crypto AI в основному важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Однак на основі відкритих базових моделей проекти Crypto AI все ще можуть досягати розширення вартості шляхом тонкої налаштування спеціалізованих мовних моделей (SLM) та поєднання з перевіряністю та механізмами стимулювання Web3. Як «периферійний інтерфейс» у ланцюзі постачання AI, це втілено в двох основних напрямках:
Аналіз класифікації типів AI моделей та їх застосовності до блокчейну
Отже, модельні проекти Crypto AI можуть зосередитися на легкій налаштуванні малих SLM, інтеграції та верифікації даних на ланцюзі за допомогою архітектури RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи верифікацію блокчейну та токеноміку, Crypto може надати унікальну цінність для цих сценаріїв моделей з обмеженими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.
Базований на даних і моделях блокчейн AI ланцюг може чітко та незмінно реєструвати джерела внесків кожного даних і моделі, значно підвищуючи достовірність даних та простежуваність навчання моделей. Одночасно, через механізм смарт-контрактів, автоматично активується розподіл винагород при виклику даних або моделей, перетворюючи поведінку AI в вимірювальну, торгівельну токенізовану вартість, що створює стійку систему стимулювання. Крім того, користувачі громади можуть оцінювати продуктивність моделі за допомогою голосування токенами, брати участь у розробці правил і їх ітерації, вдосконалюючи децентралізовану управлінську структуру.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на сьогоднішньому ринку, які зосереджуються на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», метою якої є створення справедливого, прозорого та комбінованого середовища для роботи AI, що стимулює учасників, які вносять дані, розробників моделей та творців AI застосунків, співпрацювати на одній платформі та отримувати дохід на основі фактичного внеску.
OpenLedger надає повний ланцюг від «надання даних» до «деплойменту моделі», а потім до «виклику розподілу прибутку», його основні модулі включають:
За допомогою вищезгаданих модулів OpenLedger побудував "інфраструктуру економіки агентів", що базується на даних і має можливість комбінування моделей, що сприяє онлайнізації ціннісного ланцюга AI.
А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA в якості бази, створюючи високопродуктивне, низькоструктурне та перевірне середовище для роботи з даними та контрактами для AI моделей.
У порівнянні з NEAR, який більше орієнтований на базовий рівень і ставить акцент на суверенітет даних та архітектуру «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованого блокчейну для AI, орієнтованого на дані та моделі, прагнучи забезпечити можливість розробки та виклику моделей з можливістю відстеження, комбінування та стійкого ціннісного циклу. Це інфраструктура для стимулювання моделей у світі Web3, яка поєднує в собі хостинг моделей, облік використання та комбіновані інтерфейси на блокчейні, сприяючи реалізації концепції «модель як актив».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, не потрібна кодова модельна фабрика
ModelFactory є великою платформою для тонкої настройки мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків для тонкої настройки, ModelFactory пропонує чисто графічний інтерфейс, без необхідності використовувати командний рядок або інтеграцію API. Користувачі можуть проводити тонку настройку моделей на основі наборів даних, які були авторизовані та перевірені в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:
Система архітектури Model Factory складається з шести основних модулів, які охоплюють аутентифікацію особи, права доступу до даних, мікронастройку моделей, оцінку та розгортання, а також RAG трасування, створюючи інтегровану платформу модельних послуг, що забезпечує безпечність, контрольованість, реальний інтерактивний зв'язок та сталий монетизаційний процес.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
Модельний завод наразі підтримує такі можливості великих мовних моделей:
Хоча модельний склад OpenLedger не містить останніх високо продуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а базується на реалістичних обмеженнях розгортання в мережі (витрати на інференцію, адаптація RAG, сумісність LoRA, середовище EVM), що призводить до конфігурації «пріоритет практичності».
Model Factory як безкодовий інструмент, всі моделі мають вбудований механізм підтвердження внеску, що забезпечує права даних учасників та розробників моделей, має низький бар'єр, можливість монетизації та комбінованість, в порівнянні з традиційними інструментами розробки моделей:
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активізація он-chain активів моделі тонкої настройки
LoRA (Low-Rank Adaptation) є ефективним методом мікронастроювання параметрів, який навчає нові завдання шляхом вставки «матриць низького рангу» у попередньо навчену велику модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань, необхідно виконати мікронастроювання. Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише вставлені нові параметричні матриці». Його параметри є ефективними, навчання швидким, а розгортання гнучким, що робить його найбільш підходящим для розгортання Web3 моделей і комбінованих викликів серед сучасних методів мікронастроювання.
OpenLoRA – це легковагова інфраструктура для виведення, розроблена OpenLedger, спеціально для розгортання кількох моделей та обміну ресурсами. Її основна мета – вирішити поширені проблеми розгортання AI моделей, такі як високі витрати, низька повторна використаність, марнотратство GPU-ресурсів тощо, сприяючи впровадженню «платоспроможного AI» (Payable AI).
OpenLoRA системна архітектура основних компонентів, що базується на модульному дизайні, охоплює зберігання моделей, виконання висновків, маршрутизацію запитів та інші ключові етапи, що забезпечують ефективне та економічне розгортання та виклик кількох моделей: