Capa de confianza de la IA: Cómo la red Mira aborda los problemas de sesgo y alucinación de la IA
Recientemente, una red llamada Mira lanzó una versión de prueba pública, cuyo objetivo es construir una capa de confianza para la IA. Esto ha suscitado reflexiones sobre la confiabilidad de la IA: ¿por qué debería confiarse en la IA? ¿Cómo aborda Mira este problema?
Al discutir la IA, a menudo la gente se centra más en su poderosa capacidad. Sin embargo, el problema de las "ilusiones" o prejuicios de la IA a menudo se pasa por alto. Lo que se llama "ilusión" de la IA, en términos simples, es que a veces la IA puede "inventar" y hablar tonterías con total seriedad. Por ejemplo, si le preguntas a la IA por qué la luna es de color rosa, puede dar una explicación que parece razonable pero que en realidad carece de fundamento.
Estas cuestiones de la IA están relacionadas con las rutas tecnológicas actuales. La IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero este enfoque a veces es difícil de verificar en cuanto a su autenticidad. Además, los datos de entrenamiento en sí pueden contener errores, sesgos e incluso contenido ficticio, lo que puede afectar la salida de la IA. En otras palabras, la IA aprende patrones del lenguaje humano, en lugar de hechos en sí.
El actual mecanismo de generación de probabilidades y el modelo impulsado por datos han traído casi inevitablemente la posibilidad de ilusiones de IA. Aunque en contenidos de conocimiento general o entretenimiento, este problema no tendrá consecuencias directas de inmediato, en campos altamente rigurosos como la medicina, el derecho, la aviación y las finanzas, puede tener un impacto significativo. Por lo tanto, abordar las ilusiones y sesgos de la IA se ha convertido en uno de los problemas centrales en el proceso de evolución de la IA.
El proyecto Mira se dedica a resolver este problema. Intenta construir una capa de confianza para la IA, reduciendo los sesgos y las alucinaciones de la IA, mejorando la fiabilidad de la IA. Entonces, ¿cómo logra Mira este objetivo?
El método central de Mira es validar la salida de IA a través del consenso de múltiples modelos de IA. Mira es esencialmente una red de verificación que utiliza el consenso de varios modelos de IA para validar la confiabilidad de la salida de IA. Más importante aún, adopta un enfoque de verificación de consenso descentralizado.
La clave de la red Mira radica en la verificación de consenso descentralizada. Este enfoque se basa en las ventajas del ámbito criptográfico, al tiempo que aprovecha las características de la colaboración de múltiples modelos, reduciendo sesgos y alucinaciones a través de un modo de verificación colectiva.
En términos de la arquitectura de verificación, el protocolo Mira admite la conversión de contenido complejo en declaraciones que pueden ser verificadas de forma independiente. Los operadores de nodos participan en la verificación de estas declaraciones, y para asegurar la honestidad de los operadores de nodos, Mira utiliza un mecanismo de incentivos/castigos económicos criptográficos. La participación de diferentes modelos de IA y operadores de nodos descentralizados garantiza la fiabilidad de los resultados de verificación.
La arquitectura de la red de Mira incluye conversión de contenido, validación distribuida y mecanismos de consenso. La conversión de contenido es un eslabón clave en este proceso. La red de Mira descompone primero el contenido candidato en diferentes declaraciones verificables, las cuales son distribuidas a los nodos para su validación con el fin de determinar su validez y compilar los resultados para alcanzar consenso. Para proteger la privacidad de los clientes, las declaraciones se distribuyen a diferentes nodos de manera aleatoria y fragmentada, evitando así la filtración de información.
Los operadores de nodos son responsables de ejecutar el modelo de validación, procesar declaraciones y presentar los resultados de la validación. Participan en la validación para obtener beneficios, que provienen del valor creado para los clientes. El objetivo de la red Mira es reducir la tasa de error de la IA, especialmente en campos como la medicina, el derecho, la aviación y las finanzas, donde esto puede generar un gran valor. Para evitar que los operadores de nodos busquen beneficios indebidos, los nodos que se desvían continuamente del consenso serán penalizados.
En general, Mira ofrece un nuevo enfoque para lograr la confiabilidad de la IA: construir una red de validación de consenso descentralizada basada en múltiples modelos de IA, lo que proporciona una mayor confiabilidad a los servicios de IA de los clientes, reduce el sesgo y las alucinaciones de la IA, y satisface la demanda de mayor precisión y exactitud. En resumen, Mira está construyendo una capa de confianza para la IA, lo que impulsará el desarrollo profundo de las aplicaciones de IA.
Actualmente, los usuarios pueden participar en la red de pruebas pública de Mira a través de Klok (una aplicación de chat LLM basada en Mira), experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos Mira. Los futuros usos de estos puntos aún no se han anunciado, pero sin duda ofrecen un impulso adicional para la participación de los usuarios.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Red Mira: Construir una capa de confianza en IA para resolver problemas de sesgo y alucinaciones
Capa de confianza de la IA: Cómo la red Mira aborda los problemas de sesgo y alucinación de la IA
Recientemente, una red llamada Mira lanzó una versión de prueba pública, cuyo objetivo es construir una capa de confianza para la IA. Esto ha suscitado reflexiones sobre la confiabilidad de la IA: ¿por qué debería confiarse en la IA? ¿Cómo aborda Mira este problema?
Al discutir la IA, a menudo la gente se centra más en su poderosa capacidad. Sin embargo, el problema de las "ilusiones" o prejuicios de la IA a menudo se pasa por alto. Lo que se llama "ilusión" de la IA, en términos simples, es que a veces la IA puede "inventar" y hablar tonterías con total seriedad. Por ejemplo, si le preguntas a la IA por qué la luna es de color rosa, puede dar una explicación que parece razonable pero que en realidad carece de fundamento.
Estas cuestiones de la IA están relacionadas con las rutas tecnológicas actuales. La IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero este enfoque a veces es difícil de verificar en cuanto a su autenticidad. Además, los datos de entrenamiento en sí pueden contener errores, sesgos e incluso contenido ficticio, lo que puede afectar la salida de la IA. En otras palabras, la IA aprende patrones del lenguaje humano, en lugar de hechos en sí.
El actual mecanismo de generación de probabilidades y el modelo impulsado por datos han traído casi inevitablemente la posibilidad de ilusiones de IA. Aunque en contenidos de conocimiento general o entretenimiento, este problema no tendrá consecuencias directas de inmediato, en campos altamente rigurosos como la medicina, el derecho, la aviación y las finanzas, puede tener un impacto significativo. Por lo tanto, abordar las ilusiones y sesgos de la IA se ha convertido en uno de los problemas centrales en el proceso de evolución de la IA.
El proyecto Mira se dedica a resolver este problema. Intenta construir una capa de confianza para la IA, reduciendo los sesgos y las alucinaciones de la IA, mejorando la fiabilidad de la IA. Entonces, ¿cómo logra Mira este objetivo?
El método central de Mira es validar la salida de IA a través del consenso de múltiples modelos de IA. Mira es esencialmente una red de verificación que utiliza el consenso de varios modelos de IA para validar la confiabilidad de la salida de IA. Más importante aún, adopta un enfoque de verificación de consenso descentralizado.
La clave de la red Mira radica en la verificación de consenso descentralizada. Este enfoque se basa en las ventajas del ámbito criptográfico, al tiempo que aprovecha las características de la colaboración de múltiples modelos, reduciendo sesgos y alucinaciones a través de un modo de verificación colectiva.
En términos de la arquitectura de verificación, el protocolo Mira admite la conversión de contenido complejo en declaraciones que pueden ser verificadas de forma independiente. Los operadores de nodos participan en la verificación de estas declaraciones, y para asegurar la honestidad de los operadores de nodos, Mira utiliza un mecanismo de incentivos/castigos económicos criptográficos. La participación de diferentes modelos de IA y operadores de nodos descentralizados garantiza la fiabilidad de los resultados de verificación.
La arquitectura de la red de Mira incluye conversión de contenido, validación distribuida y mecanismos de consenso. La conversión de contenido es un eslabón clave en este proceso. La red de Mira descompone primero el contenido candidato en diferentes declaraciones verificables, las cuales son distribuidas a los nodos para su validación con el fin de determinar su validez y compilar los resultados para alcanzar consenso. Para proteger la privacidad de los clientes, las declaraciones se distribuyen a diferentes nodos de manera aleatoria y fragmentada, evitando así la filtración de información.
Los operadores de nodos son responsables de ejecutar el modelo de validación, procesar declaraciones y presentar los resultados de la validación. Participan en la validación para obtener beneficios, que provienen del valor creado para los clientes. El objetivo de la red Mira es reducir la tasa de error de la IA, especialmente en campos como la medicina, el derecho, la aviación y las finanzas, donde esto puede generar un gran valor. Para evitar que los operadores de nodos busquen beneficios indebidos, los nodos que se desvían continuamente del consenso serán penalizados.
En general, Mira ofrece un nuevo enfoque para lograr la confiabilidad de la IA: construir una red de validación de consenso descentralizada basada en múltiples modelos de IA, lo que proporciona una mayor confiabilidad a los servicios de IA de los clientes, reduce el sesgo y las alucinaciones de la IA, y satisface la demanda de mayor precisión y exactitud. En resumen, Mira está construyendo una capa de confianza para la IA, lo que impulsará el desarrollo profundo de las aplicaciones de IA.
Actualmente, los usuarios pueden participar en la red de pruebas pública de Mira a través de Klok (una aplicación de chat LLM basada en Mira), experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos Mira. Los futuros usos de estos puntos aún no se han anunciado, pero sin duda ofrecen un impulso adicional para la participación de los usuarios.