La couche de confiance de l'IA : comment le réseau Mira résout les problèmes de biais et d'hallucination de l'IA
Récemment, un réseau nommé Mira a lancé une version bêta publique, dont l'objectif est de créer une couche de confiance pour l'IA. Cela a suscité des réflexions sur la question de la fiabilité de l'IA : pourquoi l'IA doit-elle être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, le problème des "hallucinations" ou des biais de l'IA est souvent négligé. Ce que l'on appelle les "hallucinations" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des choses et raconter des absurdités avec un sérieux apparent. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait donner une explication qui semble raisonnable mais qui est en réalité complètement infondée.
Ces questions sur l'IA sont liées aux voies technologiques actuelles. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu le "plus probable", mais cette méthode peut parfois être difficile à vérifier. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais ou même des contenus fictifs, ce qui peut influencer la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains, et non des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle basé sur les données entraînent presque inévitablement la possibilité d'illusions d'IA. Bien que ce problème ne cause pas de conséquences directes dans le contenu de connaissance générale ou de divertissement, il peut avoir un impact significatif dans des domaines hautement rigoureux tels que la médecine, le droit, l'aviation et la finance. Par conséquent, résoudre les illusions d'IA et les biais est devenu l'un des problèmes centraux dans le processus d'évolution de l'IA.
Le projet Mira vise à résoudre ce problème. Il tente de construire une couche de confiance pour l'IA, réduisant les biais et les hallucinations de l'IA, et améliorant la fiabilité de l'IA. Alors, comment Mira réalise-t-il cet objectif ?
La méthode principale de Mira consiste à valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. Mira est essentiellement un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, il adopte une méthode de validation par consensus décentralisée.
La clé du réseau Mira réside dans la validation de consensus décentralisée. Cette méthode s'inspire des avantages du domaine cryptographique tout en tirant parti des caractéristiques de collaboration multi-modèles pour réduire les biais et les illusions grâce à un modèle de validation collectif.
En matière d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations pouvant être vérifiées de manière indépendante. Les opérateurs de nœuds participent à la validation de ces déclarations, et afin d'assurer l'honnêteté des opérateurs de nœuds, Mira utilise un mécanisme d'incitation/punition économique cryptographique. La participation de différents modèles d'IA et d'opérateurs de nœuds décentralisés garantit la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et le mécanisme de consensus. La conversion de contenu est un maillon clé. Le réseau Mira décompose d'abord le contenu candidat en différentes déclarations vérifiables, qui sont distribuées aux nœuds pour validation afin de déterminer leur validité, puis les résultats sont consolidés pour parvenir à un consensus. Pour protéger la vie privée des clients, les déclarations sont distribuées à différents nœuds de manière aléatoire en fragments, afin d'éviter toute fuite d'informations.
Les opérateurs de nœuds sont responsables de l'exécution du modèle de validateurs, du traitement des déclarations et de la soumission des résultats de validation. Ils participent à la validation pour obtenir des bénéfices, qui proviennent de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreurs de l'IA, en particulier dans des domaines tels que la santé, le droit, l'aviation et la finance, qui peuvent générer une valeur énorme. Pour éviter que les opérateurs de nœuds ne cherchent à tirer parti du système, les nœuds qui s'écartent continuellement du consensus seront pénalisés.
Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA : construire un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, offrant ainsi une plus grande fiabilité aux services IA des clients, réduisant les biais et les hallucinations de l'IA, et répondant à des exigences de précision et de taux de précision plus élevés. En résumé, Mira est en train de construire une couche de confiance pour l'IA, ce qui favorisera le développement approfondi des applications IA.
Actuellement, les utilisateurs peuvent participer au test public de Mira via Klok (une application de chat LLM basée sur Mira), expérimenter des résultats d'IA vérifiés et avoir la chance de gagner des points Mira. Les futurs usages de ces points n'ont pas encore été annoncés, mais cela offre sans aucun doute une motivation supplémentaire à la participation des utilisateurs.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Réseau Mira : Construire une couche de confiance en IA pour résoudre les problèmes de biais et d'illusion.
La couche de confiance de l'IA : comment le réseau Mira résout les problèmes de biais et d'hallucination de l'IA
Récemment, un réseau nommé Mira a lancé une version bêta publique, dont l'objectif est de créer une couche de confiance pour l'IA. Cela a suscité des réflexions sur la question de la fiabilité de l'IA : pourquoi l'IA doit-elle être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, le problème des "hallucinations" ou des biais de l'IA est souvent négligé. Ce que l'on appelle les "hallucinations" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des choses et raconter des absurdités avec un sérieux apparent. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait donner une explication qui semble raisonnable mais qui est en réalité complètement infondée.
Ces questions sur l'IA sont liées aux voies technologiques actuelles. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu le "plus probable", mais cette méthode peut parfois être difficile à vérifier. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais ou même des contenus fictifs, ce qui peut influencer la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains, et non des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle basé sur les données entraînent presque inévitablement la possibilité d'illusions d'IA. Bien que ce problème ne cause pas de conséquences directes dans le contenu de connaissance générale ou de divertissement, il peut avoir un impact significatif dans des domaines hautement rigoureux tels que la médecine, le droit, l'aviation et la finance. Par conséquent, résoudre les illusions d'IA et les biais est devenu l'un des problèmes centraux dans le processus d'évolution de l'IA.
Le projet Mira vise à résoudre ce problème. Il tente de construire une couche de confiance pour l'IA, réduisant les biais et les hallucinations de l'IA, et améliorant la fiabilité de l'IA. Alors, comment Mira réalise-t-il cet objectif ?
La méthode principale de Mira consiste à valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. Mira est essentiellement un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, il adopte une méthode de validation par consensus décentralisée.
La clé du réseau Mira réside dans la validation de consensus décentralisée. Cette méthode s'inspire des avantages du domaine cryptographique tout en tirant parti des caractéristiques de collaboration multi-modèles pour réduire les biais et les illusions grâce à un modèle de validation collectif.
En matière d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations pouvant être vérifiées de manière indépendante. Les opérateurs de nœuds participent à la validation de ces déclarations, et afin d'assurer l'honnêteté des opérateurs de nœuds, Mira utilise un mécanisme d'incitation/punition économique cryptographique. La participation de différents modèles d'IA et d'opérateurs de nœuds décentralisés garantit la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et le mécanisme de consensus. La conversion de contenu est un maillon clé. Le réseau Mira décompose d'abord le contenu candidat en différentes déclarations vérifiables, qui sont distribuées aux nœuds pour validation afin de déterminer leur validité, puis les résultats sont consolidés pour parvenir à un consensus. Pour protéger la vie privée des clients, les déclarations sont distribuées à différents nœuds de manière aléatoire en fragments, afin d'éviter toute fuite d'informations.
Les opérateurs de nœuds sont responsables de l'exécution du modèle de validateurs, du traitement des déclarations et de la soumission des résultats de validation. Ils participent à la validation pour obtenir des bénéfices, qui proviennent de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreurs de l'IA, en particulier dans des domaines tels que la santé, le droit, l'aviation et la finance, qui peuvent générer une valeur énorme. Pour éviter que les opérateurs de nœuds ne cherchent à tirer parti du système, les nœuds qui s'écartent continuellement du consensus seront pénalisés.
Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA : construire un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, offrant ainsi une plus grande fiabilité aux services IA des clients, réduisant les biais et les hallucinations de l'IA, et répondant à des exigences de précision et de taux de précision plus élevés. En résumé, Mira est en train de construire une couche de confiance pour l'IA, ce qui favorisera le développement approfondi des applications IA.
Actuellement, les utilisateurs peuvent participer au test public de Mira via Klok (une application de chat LLM basée sur Mira), expérimenter des résultats d'IA vérifiés et avoir la chance de gagner des points Mira. Les futurs usages de ces points n'ont pas encore été annoncés, mais cela offre sans aucun doute une motivation supplémentaire à la participation des utilisateurs.