Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первичном и вторичном рынках.
Возможности Web3 в AI-отрасли проявляются в: использовании распределенных стимулов для координации потенциального предложения в длинном хвосте ( через данные, хранилище и вычисления ), одновременно создавая децентрализованный рынок для открытых моделей и AI-агентов.
ИИ в индустрии Web3 в основном используется для ончейн-финансов ( крипто-платежей, торговли, анализа данных ) и вспомогательной разработки.
Эффективность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизации AI, а AI обещает помочь Web3 выйти за пределы.
В последние два года развитие ИИ стало стремительным, волна, поднятая Chatgpt, не только открыла новую эру генеративного искусственного интеллекта, но и вызвала огромные волны в области Web3.
С учетом концепции ИИ, заметно улучшилось финансирование в замедляющемся крипторынке. Согласно статистике, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, среди которых операционная система на базе искусственного интеллекта Zyber365 собрала 100 миллионов долларов в раунде A, установив рекорд.
Вторичный рынок становится все более процветающим, данные криптоагрегатора Coingecko показывают, что всего за год общая рыночная капитализация сектора ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; очевидные преимущества, связанные с прогрессом в области основных технологий ИИ, после выпуска модели OpenAI Sora для преобразования текста в видео, средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на один из секторов привлечения капитала в криптовалюте — Meme: первый концепт AI Agent MemeCoin — GOAT быстро стал популярным и получил оценку в 1,4 миллиарда долларов, успешно вызвав бум AI Meme.
Исследования и темы, связанные с AI+Web3, также становятся популярными, от AI+Depin до AI Memecoin и текущих AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.
Комбинация терминов AI+Web3, наполненная горячими деньгами, модными трендами и фантазиями о будущем, неизбежно воспринимается как устроенный брак, заключенный при участии капитала. Нам сложно разобраться, под этой великолепной оболочкой на самом деле является ли это ареной спекулянтов или же преддверием взрыва на рассвете?
Чтобы ответить на этот вопрос, ключевым размышлением для обеих сторон является: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? Эта статья пытается взглянуть на эту картину с высоты плеч предшественников: как Web3 может играть роль на разных этапах технологического стека AI, и какую новую жизнь AI может принести Web3?
Какие возможности для Web3 в рамках AI-стека?
Прежде чем раскрыть эту тему, нам необходимо понять технологический стек больших моделей ИИ:
Большие модели похожи на человеческий мозг. На начальном этапе они подобны новорожденному, которому необходимо наблюдать и поглощать огромное количество внешней информации, чтобы понять мир. Это этап "сбора" данных; поскольку компьютеры не обладают многими человеческими сенсорными способностями, перед обучением необходимо через "предобработку" преобразовать неразмеченные данные в формат, понятный компьютеру.
После ввода данных ИИ с помощью "обучения" строит модель, обладающую пониманием и предсказательной способностью, подобно тому, как младенец постепенно понимает и изучает окружающий мир; параметры модели аналогичны языковым способностям, которые младенец постоянно корректирует. Содержимое обучения делится на темы или взаимодействует с людьми для получения обратной связи и корректировки, переходя в стадию "доработки".
Когда дети вырастают и начинают говорить, они могут понимать смысл и выражать мысли в новом диалоге, что похоже на "вывод" в больших моделях ИИ, которые могут прогнозировать и анализировать ввод новых языковых текстов. Младенцы выражают свои чувства через язык, описывают предметы и решают проблемы, что похоже на применение больших моделей ИИ на этапе вывода для различных специфических задач, таких как классификация изображений, распознавание речи и т.д.
AI Агенты ближе к следующей форме больших моделей — они могут независимо выполнять задачи и стремиться к сложным целям, обладают не только способностью к мышлению, но и могут запоминать, планировать и взаимодействовать с миром, используя инструменты.
В настоящее время, в ответ на больные точки стека ИИ, Web3 в целом сформировал многоуровневую, взаимосвязанную экосистему, охватывающую все стадии процесса моделей ИИ.
Базовый уровень: Airbnb вычислительных мощностей и данных
Хэшрейт
В настоящее время одной из самых высоких затрат в области ИИ являются вычислительные мощности и энергия, необходимые для обучения и вывода моделей.
Например, для обучения LLAMA3 от Meta требуется 16000 NVIDIA H100 GPU в течение 30 дней. Один экземпляр H100 80GB стоит от 30 до 40 тысяч долларов, что требует инвестиций в вычислительное оборудование от 400 до 700 миллионов долларов ( GPU + сетевые чипы ), ежемесячное потребление энергии составляет 1,6 миллиарда киловатт-часов, а затраты на энергию составляют почти 20 миллионов долларов.
Декомпрессия вычислительной мощности ИИ также является одной из первых областей пересечения Web3 и ИИ — DePin( децентрализованная сеть физической инфраструктуры). В настоящее время на сайте данных DePin Ninja перечислено более 1400 проектов, среди которых представленные проекты по обмену вычислительной мощностью GPU включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в том, что платформа позволяет владельцам неиспользуемых ресурсов GPU в децентрализованном порядке без разрешения вносить свой вычислительный мощность, создавая онлайн-рынок для покупателей и продавцов, подобный Uber или Airbnb, что увеличивает использование недостаточно задействованных ресурсов GPU, а конечные пользователи получают более дешевые и эффективные вычислительные ресурсы; в то же время механизм залога гарантирует, что поставщики ресурсов будут наказаны в случае нарушения механизмов контроля качества или прерывания сети.
Характерные черты включают:
Сбор неиспользуемых ресурсов GPU: поставщиками в основном являются независимые операторы третьих сторон, такие как небольшие и средние дата-центры, криптодобывающие фермы и т.д., имеющие избыточные вычислительные ресурсы, а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. Некоторые проекты стремятся снизить порог входа, такие как exolab, который использует локальные устройства, такие как MacBook, iPhone, iPad и т.д., для создания вычислительной сети для выполнения больших моделей.
Ориентирован на длинный хвост рынка вычислительных мощностей ИИ:
a. Техническая сторона: децентрализованный рынок вычислительной мощности лучше подходит для этапов вывода. Обучение больше зависит от обработки данных с использованием супер крупных кластеров GPU, тогда как для вывода требования к вычислительной производительности GPU относительно ниже, например, Aethir сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. Сторона спроса: небольшие и средние пользователи вычислительных мощностей не будут самостоятельно обучать свои большие модели, а выберут оптимизацию и дообучение вокруг нескольких ведущих больших моделей. Эти сценарии идеально подходят для распределённых неиспользуемых вычислительных ресурсов.
Децентрализованное владение: Значение технологии блокчейн заключается в том, что владельцы ресурсов всегда сохраняют контроль над ресурсами, могут гибко регулировать их в зависимости от потребностей и получать прибыль.
Данные
Данные являются основой ИИ. Без данных вычисления подобны плавающим водорослям, не имеющим никакой пользы, а связь данных и модели аналогична пословице "Мусор на входе, мусор на выходе"; количество данных и качество ввода определяют качество выходных данных модели. Для текущего обучения ИИ модели данные определяют языковые способности модели, способности к пониманию, а также её ценности и гуманистические проявления. В настоящее время основные проблемы с потребностями в данных для ИИ проявляются в следующем:
Данные в дефиците: обучение моделей ИИ зависит от огромного объема данных. По сообщениям, количество параметров, используемых OpenAI для обучения GPT-4, достигло триллионов.
Качество данных: с развитием ИИ и его интеграцией в различные отрасли новые требования к качеству данных выдвигаются за счет своевременности, разнообразия, специализированности вертикальных данных и новых источников данных, таких как анализ эмоций в социальных сетях.
Проблемы конфиденциальности и соблюдения норм: различные страны и компании постепенно осознают важность качественных наборов данных и начинают ограничивать сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно сообщениям, более 30% затрат на исследование и разработку в AI-компаниях уходит на сбор и обработку базовых данных.
В настоящее время решения Web3 проявляются в:
Сбор данных: доступные бесплатные данные из реального мира стремительно исчерпываются, компании по разработке ИИ ежегодно увеличивают расходы на оплату данных. Однако эти расходы не возвращаются настоящим поставщикам данных, платформы единолично извлекают ценность из данных, например, Reddit заработал 203 миллиона долларов, заключив соглашения о лицензировании данных с компаниями ИИ.
Позволить настоящим пользователям участвовать в создании ценности данных и получать более приватные и более ценные данные от пользователей с низкими затратами через распределенную сеть и механизмы стимулов — это видение Web3.
Grass является децентрализованным слоем данных и сетью, пользователи могут запустить узлы Grass, предоставляя неиспользуемую пропускную способность и ретранслируя трафик для захвата данных всего интернета в реальном времени и получать токеновые вознаграждения.
Vana вводит уникальную концепцию пула ликвидности данных (DLP), пользователи могут загружать личные данные (, такие как записи о покупках, привычки просмотра, активность в социальных сетях и т.д. ) в определенный DLP и гибко выбирать, предоставлять ли разрешение на использование определенным третьим лицам.
В PublicAI пользователи могут использовать #AI或#Web3 тег на X и @PublicAI для сбора данных.
Предобработка данных: в процессе обработки данных AI, поскольку собранные данные обычно шумные и содержат ошибки, их необходимо очистить и преобразовать в пригодный формат перед обучением модели, что включает стандартизацию, фильтрацию и обработку отсутствующих значений. Этот этап является одним из немногих ручных этапов в индустрии AI, что привело к возникновению профессии аннотаторов данных. С повышением требований к качеству данных для моделей, требования к аннотаторам данных также возросли, и эта задача естественным образом подходит для децентрализованной модели вознаграждений Web3.
Grass и OpenLayer рассматривают возможность добавления ключевого этапа аннотации данных.
Synesis представил концепцию "Train2earn", подчеркивая качество данных, пользователи могут получать вознаграждения за предоставление аннотированных данных, комментариев или других вводов.
Проект маркировки данных Sapien игровым образом подходит к задачам маркировки и позволяет пользователям ставить свои баллы для получения дополнительных баллов.
Конфиденциальность и безопасность данных: необходимо четко понимать, что конфиденциальность и безопасность данных — это два разных понятия. Конфиденциальность данных касается обработки чувствительной информации, в то время как безопасность данных защищает информацию от несанкционированного доступа, уничтожения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные области применения проявляются в: (1) обучении на чувствительных данных; (2) сотрудничестве по данным: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь исходными данными.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда(TEE), например, Super Protocol;
Полностью гомоморфное шифрование ( FHE ), такие как BasedAI, Fhenix.io или Inco Network;
Технология нулевого знания (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевого знания трафика HTTPS, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако эта область все еще находится на ранней стадии, большинство проектов все еще находятся в процессе исследования, а текущая проблема заключается в слишком высоких вычислительных затратах, например:
Для фреймворка zkML EZKL требуется около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML превышают затраты на чистые вычисления более чем в 1000 раз.
Хранение данных: После получения данных необходимо сохранить их на цепи, а также создать LLM на основе этих данных. Основной проблемой является доступность данных (DA). До обновления Danksharding в Ethereum его пропускная способность составляла 0,08 МБ. Однако для обучения AI-моделей и выполнения реальных задач обычно требуется пропускная способность данных от 50 до 100 ГБ в секунду. Эта разница в порядках делает существующие решения на цепи неэффективными при "ресурсозатратных AI-приложениях."
0g.AI является представительным проектом такого рода. Это централизованное решение для хранения, разработанное для высокопроизводительных требований AI, ключевые характеристики включают: высокую производительность и масштабируемость, поддерживающее быструю загрузку и скачивание массивных наборов данных с помощью технологий (Sharding) и (Erasure Coding), скорость передачи данных достигает почти 5 ГБ в секунду.
Посредник: Обучение и вывод модели
Децентрализованный рынок открытых моделей
Дебаты о том, должны ли AI-модели быть закрытыми или открытыми, никогда не прекращались. Преимущества коллективного новаторства, которые приносит открытый исходный код, не сопоставимы с закрытыми моделями. Однако, в условиях отсутствия модели получения прибыли, как открытые модели могут повысить мотивацию разработчиков? Это стоит обдумать. Основатель Baidu Ли Яньхун в апреле этого года утверждал: "Открытые модели будут все больше отставать."
В связи с этим Web3 предлагает возможность создания децентрализованного открытого рынка моделей, то есть токенизации самих моделей, оставляя команде определенный процент токенов и направляя часть будущих доходов от модели на пользование держателями токенов.
Протокол Bittensor создает P2P рынок открытых моделей, состоящий из десятков "подсетей", где поставщики ресурсов ( вычисления, сбора/хранения данных и специалисты по машинному обучению ) конкурируют друг с другом, чтобы удовлетворить цели владельцев конкретной подсети. Подсети могут взаимодействовать и обучаться друг у друга, достигая более мощного интеллекта. Награды распределяются через голосование сообщества и далее распределяются в каждой подсети в зависимости от результатов конкуренции.
ORA вводит концепцию первоначального выпуска модели (IMO), токенизируя AI модели, которые можно покупать, продавать и разрабатывать через децентрализованную сеть.
Sentient, децентрализованный
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
16 Лайков
Награда
16
5
Репост
Поделиться
комментарий
0/400
DAOplomacy
· 20ч назад
еще одна история web3 x ai... честно говоря, я уже видел этот фильм
AI+Web3:Данные, Вычислительная мощность и модель Децентрализация революция
AI+Web3: Башни и площади
ТЛ; ДОКТОР
Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первичном и вторичном рынках.
Возможности Web3 в AI-отрасли проявляются в: использовании распределенных стимулов для координации потенциального предложения в длинном хвосте ( через данные, хранилище и вычисления ), одновременно создавая децентрализованный рынок для открытых моделей и AI-агентов.
ИИ в индустрии Web3 в основном используется для ончейн-финансов ( крипто-платежей, торговли, анализа данных ) и вспомогательной разработки.
Эффективность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизации AI, а AI обещает помочь Web3 выйти за пределы.
! AI+Web3: Башни и площади
Введение
В последние два года развитие ИИ стало стремительным, волна, поднятая Chatgpt, не только открыла новую эру генеративного искусственного интеллекта, но и вызвала огромные волны в области Web3.
С учетом концепции ИИ, заметно улучшилось финансирование в замедляющемся крипторынке. Согласно статистике, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, среди которых операционная система на базе искусственного интеллекта Zyber365 собрала 100 миллионов долларов в раунде A, установив рекорд.
Вторичный рынок становится все более процветающим, данные криптоагрегатора Coingecko показывают, что всего за год общая рыночная капитализация сектора ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; очевидные преимущества, связанные с прогрессом в области основных технологий ИИ, после выпуска модели OpenAI Sora для преобразования текста в видео, средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на один из секторов привлечения капитала в криптовалюте — Meme: первый концепт AI Agent MemeCoin — GOAT быстро стал популярным и получил оценку в 1,4 миллиарда долларов, успешно вызвав бум AI Meme.
Исследования и темы, связанные с AI+Web3, также становятся популярными, от AI+Depin до AI Memecoin и текущих AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.
Комбинация терминов AI+Web3, наполненная горячими деньгами, модными трендами и фантазиями о будущем, неизбежно воспринимается как устроенный брак, заключенный при участии капитала. Нам сложно разобраться, под этой великолепной оболочкой на самом деле является ли это ареной спекулянтов или же преддверием взрыва на рассвете?
Чтобы ответить на этот вопрос, ключевым размышлением для обеих сторон является: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? Эта статья пытается взглянуть на эту картину с высоты плеч предшественников: как Web3 может играть роль на разных этапах технологического стека AI, и какую новую жизнь AI может принести Web3?
Какие возможности для Web3 в рамках AI-стека?
Прежде чем раскрыть эту тему, нам необходимо понять технологический стек больших моделей ИИ:
Большие модели похожи на человеческий мозг. На начальном этапе они подобны новорожденному, которому необходимо наблюдать и поглощать огромное количество внешней информации, чтобы понять мир. Это этап "сбора" данных; поскольку компьютеры не обладают многими человеческими сенсорными способностями, перед обучением необходимо через "предобработку" преобразовать неразмеченные данные в формат, понятный компьютеру.
После ввода данных ИИ с помощью "обучения" строит модель, обладающую пониманием и предсказательной способностью, подобно тому, как младенец постепенно понимает и изучает окружающий мир; параметры модели аналогичны языковым способностям, которые младенец постоянно корректирует. Содержимое обучения делится на темы или взаимодействует с людьми для получения обратной связи и корректировки, переходя в стадию "доработки".
Когда дети вырастают и начинают говорить, они могут понимать смысл и выражать мысли в новом диалоге, что похоже на "вывод" в больших моделях ИИ, которые могут прогнозировать и анализировать ввод новых языковых текстов. Младенцы выражают свои чувства через язык, описывают предметы и решают проблемы, что похоже на применение больших моделей ИИ на этапе вывода для различных специфических задач, таких как классификация изображений, распознавание речи и т.д.
AI Агенты ближе к следующей форме больших моделей — они могут независимо выполнять задачи и стремиться к сложным целям, обладают не только способностью к мышлению, но и могут запоминать, планировать и взаимодействовать с миром, используя инструменты.
В настоящее время, в ответ на больные точки стека ИИ, Web3 в целом сформировал многоуровневую, взаимосвязанную экосистему, охватывающую все стадии процесса моделей ИИ.
! AI+Web3: Башни и площади
Базовый уровень: Airbnb вычислительных мощностей и данных
Хэшрейт
В настоящее время одной из самых высоких затрат в области ИИ являются вычислительные мощности и энергия, необходимые для обучения и вывода моделей.
Например, для обучения LLAMA3 от Meta требуется 16000 NVIDIA H100 GPU в течение 30 дней. Один экземпляр H100 80GB стоит от 30 до 40 тысяч долларов, что требует инвестиций в вычислительное оборудование от 400 до 700 миллионов долларов ( GPU + сетевые чипы ), ежемесячное потребление энергии составляет 1,6 миллиарда киловатт-часов, а затраты на энергию составляют почти 20 миллионов долларов.
Декомпрессия вычислительной мощности ИИ также является одной из первых областей пересечения Web3 и ИИ — DePin( децентрализованная сеть физической инфраструктуры). В настоящее время на сайте данных DePin Ninja перечислено более 1400 проектов, среди которых представленные проекты по обмену вычислительной мощностью GPU включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в том, что платформа позволяет владельцам неиспользуемых ресурсов GPU в децентрализованном порядке без разрешения вносить свой вычислительный мощность, создавая онлайн-рынок для покупателей и продавцов, подобный Uber или Airbnb, что увеличивает использование недостаточно задействованных ресурсов GPU, а конечные пользователи получают более дешевые и эффективные вычислительные ресурсы; в то же время механизм залога гарантирует, что поставщики ресурсов будут наказаны в случае нарушения механизмов контроля качества или прерывания сети.
Характерные черты включают:
Сбор неиспользуемых ресурсов GPU: поставщиками в основном являются независимые операторы третьих сторон, такие как небольшие и средние дата-центры, криптодобывающие фермы и т.д., имеющие избыточные вычислительные ресурсы, а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. Некоторые проекты стремятся снизить порог входа, такие как exolab, который использует локальные устройства, такие как MacBook, iPhone, iPad и т.д., для создания вычислительной сети для выполнения больших моделей.
Ориентирован на длинный хвост рынка вычислительных мощностей ИИ: a. Техническая сторона: децентрализованный рынок вычислительной мощности лучше подходит для этапов вывода. Обучение больше зависит от обработки данных с использованием супер крупных кластеров GPU, тогда как для вывода требования к вычислительной производительности GPU относительно ниже, например, Aethir сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода. b. Сторона спроса: небольшие и средние пользователи вычислительных мощностей не будут самостоятельно обучать свои большие модели, а выберут оптимизацию и дообучение вокруг нескольких ведущих больших моделей. Эти сценарии идеально подходят для распределённых неиспользуемых вычислительных ресурсов.
Децентрализованное владение: Значение технологии блокчейн заключается в том, что владельцы ресурсов всегда сохраняют контроль над ресурсами, могут гибко регулировать их в зависимости от потребностей и получать прибыль.
Данные
Данные являются основой ИИ. Без данных вычисления подобны плавающим водорослям, не имеющим никакой пользы, а связь данных и модели аналогична пословице "Мусор на входе, мусор на выходе"; количество данных и качество ввода определяют качество выходных данных модели. Для текущего обучения ИИ модели данные определяют языковые способности модели, способности к пониманию, а также её ценности и гуманистические проявления. В настоящее время основные проблемы с потребностями в данных для ИИ проявляются в следующем:
Данные в дефиците: обучение моделей ИИ зависит от огромного объема данных. По сообщениям, количество параметров, используемых OpenAI для обучения GPT-4, достигло триллионов.
Качество данных: с развитием ИИ и его интеграцией в различные отрасли новые требования к качеству данных выдвигаются за счет своевременности, разнообразия, специализированности вертикальных данных и новых источников данных, таких как анализ эмоций в социальных сетях.
Проблемы конфиденциальности и соблюдения норм: различные страны и компании постепенно осознают важность качественных наборов данных и начинают ограничивать сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно сообщениям, более 30% затрат на исследование и разработку в AI-компаниях уходит на сбор и обработку базовых данных.
В настоящее время решения Web3 проявляются в:
Позволить настоящим пользователям участвовать в создании ценности данных и получать более приватные и более ценные данные от пользователей с низкими затратами через распределенную сеть и механизмы стимулов — это видение Web3.
Grass является децентрализованным слоем данных и сетью, пользователи могут запустить узлы Grass, предоставляя неиспользуемую пропускную способность и ретранслируя трафик для захвата данных всего интернета в реальном времени и получать токеновые вознаграждения.
Vana вводит уникальную концепцию пула ликвидности данных (DLP), пользователи могут загружать личные данные (, такие как записи о покупках, привычки просмотра, активность в социальных сетях и т.д. ) в определенный DLP и гибко выбирать, предоставлять ли разрешение на использование определенным третьим лицам.
В PublicAI пользователи могут использовать #AI或#Web3 тег на X и @PublicAI для сбора данных.
Grass и OpenLayer рассматривают возможность добавления ключевого этапа аннотации данных.
Synesis представил концепцию "Train2earn", подчеркивая качество данных, пользователи могут получать вознаграждения за предоставление аннотированных данных, комментариев или других вводов.
Проект маркировки данных Sapien игровым образом подходит к задачам маркировки и позволяет пользователям ставить свои баллы для получения дополнительных баллов.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда(TEE), например, Super Protocol;
Полностью гомоморфное шифрование ( FHE ), такие как BasedAI, Fhenix.io или Inco Network;
Технология нулевого знания (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевого знания трафика HTTPS, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако эта область все еще находится на ранней стадии, большинство проектов все еще находятся в процессе исследования, а текущая проблема заключается в слишком высоких вычислительных затратах, например:
Для фреймворка zkML EZKL требуется около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML превышают затраты на чистые вычисления более чем в 1000 раз.
Посредник: Обучение и вывод модели
Децентрализованный рынок открытых моделей
Дебаты о том, должны ли AI-модели быть закрытыми или открытыми, никогда не прекращались. Преимущества коллективного новаторства, которые приносит открытый исходный код, не сопоставимы с закрытыми моделями. Однако, в условиях отсутствия модели получения прибыли, как открытые модели могут повысить мотивацию разработчиков? Это стоит обдумать. Основатель Baidu Ли Яньхун в апреле этого года утверждал: "Открытые модели будут все больше отставать."
В связи с этим Web3 предлагает возможность создания децентрализованного открытого рынка моделей, то есть токенизации самих моделей, оставляя команде определенный процент токенов и направляя часть будущих доходов от модели на пользование держателями токенов.
Протокол Bittensor создает P2P рынок открытых моделей, состоящий из десятков "подсетей", где поставщики ресурсов ( вычисления, сбора/хранения данных и специалисты по машинному обучению ) конкурируют друг с другом, чтобы удовлетворить цели владельцев конкретной подсети. Подсети могут взаимодействовать и обучаться друг у друга, достигая более мощного интеллекта. Награды распределяются через голосование сообщества и далее распределяются в каждой подсети в зависимости от результатов конкуренции.
ORA вводит концепцию первоначального выпуска модели (IMO), токенизируя AI модели, которые можно покупать, продавать и разрабатывать через децентрализованную сеть.
Sentient, децентрализованный