Le réseau Mira crée une couche de confiance AI, le consensus multi-modèles améliore la fiabilité.

robot
Création du résumé en cours

Amélioration de la crédibilité de l'IA : Construction d'une couche de confiance AI sur le réseau Mira

Récemment, le réseau Mira a officiellement lancé son testnet public, visant à construire une couche de confiance pour l'IA. Cela a suscité des réflexions sur la crédibilité de l'IA : pourquoi l'IA doit-elle être digne de confiance ? Comment Mira résout-elle ce problème ?

Lorsqu'on discute de l'IA, les gens se concentrent souvent davantage sur ses capacités impressionnantes, tout en négligeant les problèmes d'"illusions" ou de biais qui existent dans l'IA. Les "illusions" de l'IA font référence au fait que l'IA peut parfois "inventer" des contenus qui semblent raisonnables mais qui ne sont en réalité pas précis. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA peut donner une série d'explications qui semblent raisonnables mais qui sont en réalité fictives.

L'apparition d'"illusions" ou de biais dans l'IA est liée à certaines voies technologiques actuelles de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais parfois elle ne peut pas vérifier l'authenticité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais, voire des contenus fictifs, ce qui peut également affecter la sortie de l'IA. En résumé, l'IA apprend des modèles linguistiques humains plutôt que des faits eux-mêmes.

Le mécanisme de génération de probabilités actuel et le modèle basé sur les données conduisent presque inévitablement à la possibilité d'illusions d'IA. Bien que dans les contenus de connaissance générale ou de divertissement, ces sorties biaisées ou illusoires ne causent pas de conséquences directes temporaires, dans des domaines hautement rigoureux comme la santé, le droit, l'aviation et la finance, cela peut avoir des impacts significatifs. Par conséquent, résoudre les illusions et les biais de l'IA est devenu l'un des problèmes centraux dans le processus de développement de l'IA.

Le projet Mira tente de résoudre ce problème en construisant une couche de confiance pour l'IA, réduisant ainsi les biais et les hallucinations de l'IA, et améliorant la fiabilité de l'IA. L'idée principale de Mira est de valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. C'est un réseau de validation qui utilise le consensus de plusieurs modèles d'IA et un consensus décentralisé pour vérifier la fiabilité des sorties de l'IA.

La clé du réseau Mira réside dans la validation de consensus décentralisée. Il combine les avantages du domaine de la cryptographie avec une approche de collaboration multi-modèles, en réduisant les biais et les illusions grâce à un modèle de validation collective. En termes d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de validation indépendantes. Les opérateurs de nœuds participent à la validation de ces déclarations, garantissant l'honnêteté des opérateurs de nœuds grâce à des incitations économiques cryptographiques et des mécanismes de punition.

L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et le mécanisme de consensus. La conversion de contenu est un élément important, le réseau Mira décompose le contenu candidat en différentes déclarations vérifiables et les distribue aux nœuds pour validation. Pour protéger la vie privée des clients, les déclarations sont distribuées de manière aléatoire en fragments à différents nœuds.

Les opérateurs de nœuds sont responsables de l'exécution des modèles de validation, de la gestion des déclarations et de la soumission des résultats de validation. Ils participent à la validation pour obtenir des revenus, qui proviennent de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreur de l'IA, en particulier dans des domaines tels que la santé, le droit, l'aviation et la finance, ce qui générera une énorme valeur.

Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, offrant une plus grande fiabilité aux services d'IA de ses clients, réduisant ainsi les biais et les hallucinations de l'IA, et répondant aux besoins d'une plus grande précision et d'une plus grande exactitude. Mira tente de construire une couche de confiance pour l'IA, ce qui stimulera le développement approfondi des applications d'IA.

Actuellement, Mira a collaboré avec plusieurs frameworks d'agents AI. Les utilisateurs peuvent participer au test public de Mira via Klok (une application de chat basée sur le LLM de Mira), vivre des sorties AI vérifiées et avoir la chance de gagner des points Mira.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 6
  • Partager
Commentaire
0/400
CoffeeNFTradervip
· 07-14 12:07
L'IA revient avec de nouvelles idées, une fin de mort sociale ?
Voir l'originalRépondre0
BearMarketBrovip
· 07-13 03:36
L'IA a-t-elle encore besoin d'une couche de confiance ?
Voir l'originalRépondre0
OnlyOnMainnetvip
· 07-13 03:32
Les illusions peuvent-elles aussi résoudre ? C'est stable.
Voir l'originalRépondre0
ConsensusDissentervip
· 07-13 03:26
ai encore fait ces trucs compliqués
Voir l'originalRépondre0
SchrodingerWalletvip
· 07-13 03:10
incroyable a un certain sens, cette piége de l'IA peut
Voir l'originalRépondre0
NotAFinancialAdvicevip
· 07-13 03:09
Enfin, il y a une validation fiable.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)