Camada de confiança da IA: como a rede Mira resolve os problemas de viés e alucinação da IA
Recentemente, uma rede chamada Mira lançou uma versão de teste pública, com o objetivo de construir uma camada de confiança para a IA. Isso suscitou reflexões sobre a questão da confiabilidade da IA: por que a IA precisa ser confiável? Como é que a Mira resolve esse problema?
Ao discutir a IA, as pessoas muitas vezes se concentram em sua poderosa capacidade. No entanto, o problema da "ilusão" ou preconceito da IA costuma ser ignorado. O que se chama de "ilusão" da IA, simplificando, é que a IA às vezes "inventa" e fala bobagens de forma séria. Por exemplo, se você perguntar à IA por que a lua é rosa, ela pode dar uma explicação que parece razoável, mas que na verdade não tem fundamento.
Essas questões da IA estão relacionadas ao caminho tecnológico atual. A IA generativa alcança coerência e razoabilidade ao prever o conteúdo "mais provável", mas esse método pode ser difícil de verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos e até conteúdo fictício, o que pode afetar a saída da IA. Em outras palavras, a IA aprende padrões da linguagem humana, e não os fatos em si.
O atual mecanismo de geração de probabilidade e o modelo orientado a dados trouxeram quase inevitavelmente a possibilidade de ilusões de IA. Embora, em conteúdos de conhecimento geral ou entretenimento, esse problema não cause consequências diretas temporariamente, em áreas altamente rigorosas como medicina, direito, aviação e finanças, pode ter um impacto significativo. Portanto, resolver as ilusões e preconceitos da IA tornou-se uma das questões centrais no processo de evolução da IA.
O projeto Mira está precisamente empenhado em resolver este problema. Ele tenta construir uma camada de confiança para a IA, reduzindo os preconceitos e alucinações da IA, melhorando a fiabilidade da IA. Então, como é que a Mira alcança este objetivo?
O método central da Mira é validar a saída de IA através do consenso de múltiplos modelos de IA. A Mira é essencialmente uma rede de validação que utiliza o consenso de vários modelos de IA para verificar a fiabilidade da saída de IA. Mais importante ainda, adota uma abordagem de validação de consenso descentralizado.
A chave da rede Mira está na validação de consenso descentralizada. Este método se baseia nas vantagens do campo da criptografia, enquanto utiliza as características da colaboração multimodal, reduzindo preconceitos e ilusões através de um modelo de validação coletiva.
No que diz respeito à arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações que podem ser verificadas de forma independente. Os operadores de nós participam na verificação dessas declarações e, para garantir a honestidade dos operadores de nós, o Mira utiliza um mecanismo de incentivos/punições criptográficas. A participação de diferentes modelos de IA e de operadores de nós descentralizados garante a fiabilidade dos resultados da verificação.
A arquitetura de rede da Mira inclui conversão de conteúdo, validação distribuída e mecanismo de consenso. A conversão de conteúdo é uma etapa chave nesse processo. A rede Mira primeiro decompõe o conteúdo candidato em diferentes declarações verificáveis, que são distribuídas para os nós para validação, a fim de determinar sua validade, e os resultados são compilados para alcançar consenso. Para proteger a privacidade dos clientes, as declarações são distribuídas de forma fragmentada e aleatória para diferentes nós, evitando a divulgação de informações.
Os operadores de nós são responsáveis por executar o modelo de validadores, processar declarações e submeter resultados de validação. Eles participam da validação para obter lucros, que vêm do valor criado para os clientes. O objetivo da rede Mira é reduzir a taxa de erro da IA, especialmente em áreas como medicina, direito, aviação e finanças, onde isso pode gerar um valor enorme. Para evitar que os operadores de nós se aproveitem da situação, nós que se desviarem continuamente do consenso serão punidos.
De um modo geral, a Mira oferece uma nova abordagem para garantir a confiabilidade da IA: construir uma rede de validação de consenso descentralizada baseada em múltiplos modelos de IA, trazendo maior confiabilidade aos serviços de IA para os clientes, reduzindo o preconceito e as alucinações da IA, e atendendo à demanda por maior precisão e taxa de exatidão. Resumindo, a Mira está a construir uma camada de confiança para a IA, que impulsionará o desenvolvimento profundo das aplicações de IA.
Atualmente, os usuários podem participar da rede de testes pública do Mira através do Klok (uma aplicação de chat LLM baseada no Mira), experimentar saídas de IA verificadas e ter a oportunidade de ganhar pontos Mira. O uso futuro desses pontos ainda não foi anunciado, mas sem dúvida oferece um incentivo adicional para a participação dos usuários.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Rede Mira: Construir uma camada de confiança em IA para resolver problemas de viés e alucinação
Camada de confiança da IA: como a rede Mira resolve os problemas de viés e alucinação da IA
Recentemente, uma rede chamada Mira lançou uma versão de teste pública, com o objetivo de construir uma camada de confiança para a IA. Isso suscitou reflexões sobre a questão da confiabilidade da IA: por que a IA precisa ser confiável? Como é que a Mira resolve esse problema?
Ao discutir a IA, as pessoas muitas vezes se concentram em sua poderosa capacidade. No entanto, o problema da "ilusão" ou preconceito da IA costuma ser ignorado. O que se chama de "ilusão" da IA, simplificando, é que a IA às vezes "inventa" e fala bobagens de forma séria. Por exemplo, se você perguntar à IA por que a lua é rosa, ela pode dar uma explicação que parece razoável, mas que na verdade não tem fundamento.
Essas questões da IA estão relacionadas ao caminho tecnológico atual. A IA generativa alcança coerência e razoabilidade ao prever o conteúdo "mais provável", mas esse método pode ser difícil de verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos e até conteúdo fictício, o que pode afetar a saída da IA. Em outras palavras, a IA aprende padrões da linguagem humana, e não os fatos em si.
O atual mecanismo de geração de probabilidade e o modelo orientado a dados trouxeram quase inevitavelmente a possibilidade de ilusões de IA. Embora, em conteúdos de conhecimento geral ou entretenimento, esse problema não cause consequências diretas temporariamente, em áreas altamente rigorosas como medicina, direito, aviação e finanças, pode ter um impacto significativo. Portanto, resolver as ilusões e preconceitos da IA tornou-se uma das questões centrais no processo de evolução da IA.
O projeto Mira está precisamente empenhado em resolver este problema. Ele tenta construir uma camada de confiança para a IA, reduzindo os preconceitos e alucinações da IA, melhorando a fiabilidade da IA. Então, como é que a Mira alcança este objetivo?
O método central da Mira é validar a saída de IA através do consenso de múltiplos modelos de IA. A Mira é essencialmente uma rede de validação que utiliza o consenso de vários modelos de IA para verificar a fiabilidade da saída de IA. Mais importante ainda, adota uma abordagem de validação de consenso descentralizado.
A chave da rede Mira está na validação de consenso descentralizada. Este método se baseia nas vantagens do campo da criptografia, enquanto utiliza as características da colaboração multimodal, reduzindo preconceitos e ilusões através de um modelo de validação coletiva.
No que diz respeito à arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações que podem ser verificadas de forma independente. Os operadores de nós participam na verificação dessas declarações e, para garantir a honestidade dos operadores de nós, o Mira utiliza um mecanismo de incentivos/punições criptográficas. A participação de diferentes modelos de IA e de operadores de nós descentralizados garante a fiabilidade dos resultados da verificação.
A arquitetura de rede da Mira inclui conversão de conteúdo, validação distribuída e mecanismo de consenso. A conversão de conteúdo é uma etapa chave nesse processo. A rede Mira primeiro decompõe o conteúdo candidato em diferentes declarações verificáveis, que são distribuídas para os nós para validação, a fim de determinar sua validade, e os resultados são compilados para alcançar consenso. Para proteger a privacidade dos clientes, as declarações são distribuídas de forma fragmentada e aleatória para diferentes nós, evitando a divulgação de informações.
Os operadores de nós são responsáveis por executar o modelo de validadores, processar declarações e submeter resultados de validação. Eles participam da validação para obter lucros, que vêm do valor criado para os clientes. O objetivo da rede Mira é reduzir a taxa de erro da IA, especialmente em áreas como medicina, direito, aviação e finanças, onde isso pode gerar um valor enorme. Para evitar que os operadores de nós se aproveitem da situação, nós que se desviarem continuamente do consenso serão punidos.
De um modo geral, a Mira oferece uma nova abordagem para garantir a confiabilidade da IA: construir uma rede de validação de consenso descentralizada baseada em múltiplos modelos de IA, trazendo maior confiabilidade aos serviços de IA para os clientes, reduzindo o preconceito e as alucinações da IA, e atendendo à demanda por maior precisão e taxa de exatidão. Resumindo, a Mira está a construir uma camada de confiança para a IA, que impulsionará o desenvolvimento profundo das aplicações de IA.
Atualmente, os usuários podem participar da rede de testes pública do Mira através do Klok (uma aplicação de chat LLM baseada no Mira), experimentar saídas de IA verificadas e ter a oportunidade de ganhar pontos Mira. O uso futuro desses pontos ainda não foi anunciado, mas sem dúvida oferece um incentivo adicional para a participação dos usuários.