Сеть Mira: создание слоя доверия для ИИ для решения проблем предвзятости и иллюзий

Уровень доверия ИИ: как сеть Mira решает проблемы предвзятости и иллюзий ИИ

На днях сеть под названием Mira выпустила публичную тестовую версию, целью которой является создание уровня доверия для ИИ. Это вызвало размышления о проблеме доверия к ИИ: почему ИИ нужно доверять? Как Mira решает эту проблему?

Когда речь заходит о ИИ, люди часто больше сосредотачиваются на его мощных возможностях. Однако проблема "галлюцинаций" или предвзятости ИИ зачастую игнорируется. Так называемые "галлюцинации" ИИ, простыми словами, означают, что ИИ иногда может "выдумывать" и серьезно нести чепуху. Например, если вы спросите ИИ, почему луна розовая, он может дать на первый взгляд разумное, но на самом деле не имеющее оснований объяснение.

Эти проблемы искусственного интеллекта связаны с текущими технологическими путями. Генеративный ИИ достигает связности и разумности, предсказывая "наиболее вероятное" содержание, но этот подход иногда трудно проверить на подлинность. Кроме того, сами обучающие данные могут содержать ошибки, предвзятости и даже вымышленные содержания, что может повлиять на выводы ИИ. Другими словами, ИИ учится языковым паттернам человека, а не самим фактам.

Текущие механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно приводят к возможности появления иллюзий ИИ. Хотя в обычных знаниях или развлекательном контенте эта проблема временно не приведет к прямым последствиям, в таких строго регламентированных областях, как медицина, право, авиация и финансы, она может иметь серьезные последствия. Поэтому решение проблем иллюзий и предвзятости ИИ стало одной из ключевых проблем в процессе эволюции ИИ.

Проект Mira как раз и направлен на решение этой проблемы. Он пытается создать уровень доверия к ИИ, уменьшая предвзятость и иллюзии ИИ, повышая его надежность. Так как же Mira достигает этой цели?

Основной метод Mira заключается в проверке вывода ИИ с помощью консенсуса нескольких моделей ИИ. Mira по сути является сетью валидации, которая использует консенсус нескольких моделей ИИ для проверки надежности вывода ИИ. Более того, она использует децентрализованный метод проверки консенсуса.

Ключ к сети Mira заключается в децентрализованной валидации консенсуса. Этот метод заимствует преимущества криптографической области, одновременно используя особенности многомодельного взаимодействия, чтобы снизить предвзятость и иллюзии через коллективную валидацию.

В отношении архитектуры верификации протокол Mira поддерживает преобразование сложного контента в независимо проверяемые утверждения. Операторы узлов участвуют в верификации этих утверждений, и для обеспечения честности операторов узлов Mira применяет механизмы криптоэкономических стимулов/наказаний. Участие различных AI-моделей и распределенных операторов узлов гарантирует надежность результатов верификации.

Сетевая архитектура Mira включает в себя преобразование контента, распределенную валидацию и механизм консенсуса. Преобразование контента является ключевым этапом. Сеть Mira сначала разбивает кандидатный контент на разные подлежащие проверке утверждения, которые распределяются по узлам для проверки их действительности, и результаты суммируются для достижения консенсуса. Для защиты конфиденциальности клиентов утверждения будут распределены по различным узлам в случайном разбиении, чтобы предотвратить утечку информации.

Операторы узлов отвечают за работу модели верификаторов, обработку заявлений и представление результатов верификации. Они участвуют в верификации для получения дохода, который поступает от создаваемой для клиентов ценности. Цель сети Mira заключается в снижении уровня ошибок ИИ, особенно в таких областях, как медицина, право, авиация и финансы, что может привести к огромной ценности. Чтобы предотвратить спекуляции со стороны операторов узлов, узлы, которые постоянно отклоняются от консенсуса, будут наказываться.

В целом, Mira предлагает новый подход к обеспечению надежности ИИ: создание децентрализованной сети подтверждения консенсуса на основе нескольких моделей ИИ, что повышает надежность ИИ-сервисов для клиентов, снижает предвзятость и иллюзии ИИ, а также удовлетворяет требования к более высокой точности и четкости. Короче говоря, Mira строит уровень доверия к ИИ, что будет способствовать глубокому развитию приложений ИИ.

В настоящее время пользователи могут участвовать в публичной тестовой сети Mira через Klok (приложение для чата на базе LLM от Mira), испытать проверенные AI-выводы и получить возможность заработать баллы Mira. Будущее использование этих баллов пока не объявлено, но, безусловно, предоставляет пользователям дополнительный стимул для участия.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Поделиться
комментарий
0/400
SelfRuggervip
· 07-14 15:41
Есть что посмотреть, братья.
Посмотреть ОригиналОтветить0
CoconutWaterBoyvip
· 07-13 15:14
Надежная попытка!
Посмотреть ОригиналОтветить0
FrontRunFightervip
· 07-11 16:40
Давайте проведем тест на реальных примерах.
Посмотреть ОригиналОтветить0
AirdropFatiguevip
· 07-11 16:32
Доверие нужно проверять.
Посмотреть ОригиналОтветить0
  • Закрепить