La red Mira crea una capa de confianza AI, el consenso de múltiples modelos mejora la fiabilidad.

robot
Generación de resúmenes en curso

Mejora de la Credibilidad de la IA: Construcción de la Capa de Confianza de Mira Network

Recientemente, la red pública de pruebas de Mira se lanzó oficialmente, con el objetivo de construir una capa de confianza para la IA. Esto ha generado reflexiones sobre la credibilidad de la IA: ¿por qué se necesita confiar en la IA? ¿Y cómo aborda Mira este problema?

Al discutir la IA, las personas a menudo se centran más en su poderosa capacidad, mientras que pasan por alto los problemas de "ilusión" o sesgo que existen en la IA. La "ilusión" de la IA se refiere a que a veces la IA puede "inventar" contenido que parece razonable pero que en realidad no es preciso. Por ejemplo, cuando se le pregunta por qué la luna es rosa, la IA puede dar una serie de explicaciones que suenan razonables pero que en realidad son ficticias.

La aparición de "alucinaciones" o sesgos en la IA está relacionada con algunas de las actuales rutas tecnológicas de la IA. La IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero a veces no puede verificar la veracidad. Además, los datos de entrenamiento en sí mismos pueden contener errores, sesgos e incluso contenido ficticio, lo que también afecta la salida de la IA. En resumen, la IA aprende patrones del lenguaje humano en lugar de hechos en sí.

El mecanismo de generación de probabilidades actual y el modelo impulsado por datos casi inevitablemente conducen a la posibilidad de ilusiones de IA. Aunque en contenidos de conocimiento general o entretenimiento, estas salidas sesgadas o ilusorias no causan consecuencias directas de inmediato, en campos altamente rigurosos como la medicina, el derecho, la aviación y las finanzas, pueden tener un impacto significativo. Por lo tanto, abordar las ilusiones y sesgos de la IA se ha convertido en uno de los problemas centrales en el proceso de desarrollo de la IA.

El proyecto Mira intenta abordar este problema construyendo una capa de confianza para la IA, reduciendo los sesgos y alucinaciones de la IA, y mejorando la fiabilidad de la IA. La idea central de Mira es validar la salida de la IA a través del consenso de múltiples modelos de IA. Es una red de validación que utiliza el consenso de múltiples modelos de IA y un consenso descentralizado para verificar la fiabilidad de la salida de la IA.

La clave de la red Mira radica en la validación de consenso descentralizada. Combina las ventajas del campo de la criptografía y un enfoque de múltiples modelos en colaboración, utilizando un modelo de validación colectiva para reducir sesgos y alucinaciones. En términos de arquitectura de validación, el protocolo Mira admite la conversión de contenido complejo en declaraciones de validación independientes. Los operadores de nodos participan en la validación de estas declaraciones, asegurando la honestidad de los operadores de nodos a través de incentivos económicos criptográficos y mecanismos de penalización.

La arquitectura de red de Mira incluye conversión de contenido, validación distribuida y mecanismos de consenso. La conversión de contenido es una parte importante, la red de Mira descompone el contenido candidato en diferentes declaraciones verificables y las distribuye a los nodos para su validación. Para proteger la privacidad del cliente, las declaraciones se distribuirán a diferentes nodos de manera fragmentada al azar.

Los operadores de nodos son responsables de ejecutar el modelo de validación, procesar las declaraciones y enviar los resultados de la validación. Participan en la validación para obtener beneficios, los cuales provienen del valor creado para los clientes. El objetivo de la red Mira es reducir la tasa de error de la IA, especialmente en campos como la medicina, el derecho, la aviación y las finanzas, lo que generará un gran valor.

En general, Mira ofrece un nuevo enfoque para lograr la confiabilidad de la IA. Se basa en una red de validación de consenso descentralizada construida sobre múltiples modelos de IA, lo que aporta una mayor confiabilidad a los servicios de IA de los clientes, reduce los sesgos y alucinaciones de la IA, y satisface la demanda de mayor precisión y exactitud de los clientes. Mira intenta construir una capa de confianza para la IA, lo que impulsará el desarrollo profundo de las aplicaciones de IA.

Actualmente, Mira ha colaborado con varios marcos de agentes de IA. Los usuarios pueden participar en la red de prueba pública de Mira a través de Klok (una aplicación de chat basada en LLM de Mira), experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos Mira.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Compartir
Comentar
0/400
CoffeeNFTradervip
· 07-14 12:07
¿La IA vuelve a hacer cosas nuevas, un final de muerte social?
Ver originalesResponder0
BearMarketBrovip
· 07-13 03:36
¿La IA aún necesita una capa de confianza?
Ver originalesResponder0
OnlyOnMainnetvip
· 07-13 03:32
¿Las ilusiones también pueden resolverse? Estable.
Ver originalesResponder0
ConsensusDissentervip
· 07-13 03:26
ai también hace estas cosas llamativas
Ver originalesResponder0
SchrodingerWalletvip
· 07-13 03:10
increíble Hay algo de interés esta trampa de AI puede
Ver originalesResponder0
NotAFinancialAdvicevip
· 07-13 03:09
Finalmente hay una verificación confiable.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)