Camada de Confiança em IA: Uma Nova Solução para Resolver o Viés e as Ilusões da Inteligência Artificial
Recentemente, uma versão beta pública da web chamada Mira chamou a atenção da indústria. O objetivo deste projeto é construir uma camada de confiança para a inteligência artificial, visando resolver os problemas de preconceito e "alucinações" existentes nos sistemas de IA. Então, por que a IA precisa ser confiável? Como é que a Mira enfrenta esse desafio?
Ao discutir a IA, as pessoas costumam concentrar-se mais na sua poderosa capacidade. No entanto, o fato de a IA ter "alucinações" ou preconceitos é frequentemente ignorado. As chamadas "alucinações" da IA, em termos simples, referem-se ao fato de que a IA às vezes "inventa" e fornece informações erradas com confiança. Por exemplo, quando questionada sobre por que a lua é rosa, a IA pode fornecer uma explicação que parece razoável, mas é completamente fictícia.
Este fenómeno está relacionado com as atuais direcções da tecnologia de IA. A IA generativa alcança coerência e razoabilidade ao prever o conteúdo "mais provável", mas este método é difícil de verificar a veracidade. Além disso, os dados de treino podem conter erros, preconceitos e até conteúdos fictícios, o que pode afectar a qualidade da saída da IA. Em outras palavras, a IA aprende padrões de linguagem humana, e não os próprios factos.
O atual mecanismo de geração de probabilidade e o modelo orientado por dados quase inevitavelmente levam a IA a produzir "alucinações". Embora, em conteúdos de conhecimento geral ou entretenimento, esse tipo de problema possa não causar consequências graves de imediato, em áreas que exigem alta rigorosidade, como a medicina, o direito, a aviação e as finanças, uma saída errada da IA pode ter um impacto significativo. Portanto, abordar as alucinações e preconceitos da IA tornou-se um dos temas centrais no processo de desenvolvimento da IA.
O projeto Mira está precisamente empenhado em resolver este problema. Tenta reduzir viés e alucinações, aumentando a fiabilidade da IA, através da construção de uma camada de confiança para a IA. A ideia central do Mira é utilizar o consenso de múltiplos modelos de IA para validar a saída da IA. Esta rede de validação aproveita um mecanismo de consenso descentralizado, combinando colaboração entre múltiplos modelos, para reduzir a ocorrência de viés e alucinações através de um modo de validação coletivo.
Em termos de arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações que podem ser verificadas de forma independente. Os operadores de nós participam na verificação dessas declarações e, para garantir a honestidade dos operadores de nós, o sistema utiliza um mecanismo de incentivos/punições econômicas criptográficas. Diferentes modelos de IA e operadores de nós descentralizados participam juntos para garantir a confiabilidade dos resultados de verificação.
A arquitetura da rede Mira inclui três etapas-chave: conversão de conteúdo, validação distribuída e mecanismo de consenso. Primeiro, o sistema decompõe o conteúdo candidato submetido pelo cliente em diferentes declarações verificáveis, que são distribuídas para os nós para validação. Após os nós determinarem a validade das declarações, os resultados são agregados para alcançar um consenso, e finalmente, os resultados são devolvidos ao cliente. Para proteger a privacidade do cliente, as declarações são distribuídas para diferentes nós em fragmentos aleatórios, evitando a divulgação de informações durante o processo de validação.
Os operadores de nó obtêm receitas ao executar modelos de validadores, processar declarações e submeter resultados de validação. Essas receitas provêm do valor criado para os clientes, especialmente na redução da taxa de erro da IA em áreas críticas. Para prevenir comportamentos especulativos de resposta aleatória dos nós, o sistema penaliza nós que se afastam continuamente do consenso, garantindo a participação honesta dos operadores de nó na validação através da mecânica de jogos econômicos.
Em geral, a Mira oferece uma nova abordagem para melhorar a confiabilidade da IA. Ao construir uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, a Mira visa proporcionar maior confiabilidade aos serviços de IA dos clientes, reduzir preconceitos e alucinações da IA, e atender às exigências de alta precisão e taxa de acerto. Esta inovação tem o potencial de impulsionar o desenvolvimento aprofundado de aplicações de IA e pavimentar o caminho para a construção de sistemas de IA confiáveis.
Atualmente, a Mira já estabeleceu parcerias com várias estruturas de IA conhecidas. Com o lançamento da rede de testes pública, os usuários podem experimentar saídas de IA verificadas através do Klok (um aplicativo de chat LLM baseado na Mira) e têm a oportunidade de ganhar pontos Mira. Isso oferece uma plataforma de teste prática para melhorar a confiabilidade da IA no futuro.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
6
Compartilhar
Comentário
0/400
EthSandwichHero
· 16h atrás
Quem me faz um sanduíche de moeda?
Ver originalResponder0
CryptoPhoenix
· 16h atrás
AI constrói confiança, Bitcoin é realmente a base da confiança.
Ver originalResponder0
TheShibaWhisperer
· 16h atrás
Quem disse que a IA tem que dizer a verdade?
Ver originalResponder0
LayerHopper
· 16h atrás
Agora a IA finalmente está mais calma.
Ver originalResponder0
TopEscapeArtist
· 16h atrás
Haha, chegou ao fundo, não é? Outra crise de confiança, igual àquele período das velas k.
Ver originalResponder0
RektRecovery
· 16h atrás
apenas mais uma camada de teatro de segurança... vi isso a milhas de distância, para ser sincero
O projeto Mira lança a camada de confiança em IA para criar um ecossistema de inteligência artificial verificável.
Camada de Confiança em IA: Uma Nova Solução para Resolver o Viés e as Ilusões da Inteligência Artificial
Recentemente, uma versão beta pública da web chamada Mira chamou a atenção da indústria. O objetivo deste projeto é construir uma camada de confiança para a inteligência artificial, visando resolver os problemas de preconceito e "alucinações" existentes nos sistemas de IA. Então, por que a IA precisa ser confiável? Como é que a Mira enfrenta esse desafio?
Ao discutir a IA, as pessoas costumam concentrar-se mais na sua poderosa capacidade. No entanto, o fato de a IA ter "alucinações" ou preconceitos é frequentemente ignorado. As chamadas "alucinações" da IA, em termos simples, referem-se ao fato de que a IA às vezes "inventa" e fornece informações erradas com confiança. Por exemplo, quando questionada sobre por que a lua é rosa, a IA pode fornecer uma explicação que parece razoável, mas é completamente fictícia.
Este fenómeno está relacionado com as atuais direcções da tecnologia de IA. A IA generativa alcança coerência e razoabilidade ao prever o conteúdo "mais provável", mas este método é difícil de verificar a veracidade. Além disso, os dados de treino podem conter erros, preconceitos e até conteúdos fictícios, o que pode afectar a qualidade da saída da IA. Em outras palavras, a IA aprende padrões de linguagem humana, e não os próprios factos.
O atual mecanismo de geração de probabilidade e o modelo orientado por dados quase inevitavelmente levam a IA a produzir "alucinações". Embora, em conteúdos de conhecimento geral ou entretenimento, esse tipo de problema possa não causar consequências graves de imediato, em áreas que exigem alta rigorosidade, como a medicina, o direito, a aviação e as finanças, uma saída errada da IA pode ter um impacto significativo. Portanto, abordar as alucinações e preconceitos da IA tornou-se um dos temas centrais no processo de desenvolvimento da IA.
O projeto Mira está precisamente empenhado em resolver este problema. Tenta reduzir viés e alucinações, aumentando a fiabilidade da IA, através da construção de uma camada de confiança para a IA. A ideia central do Mira é utilizar o consenso de múltiplos modelos de IA para validar a saída da IA. Esta rede de validação aproveita um mecanismo de consenso descentralizado, combinando colaboração entre múltiplos modelos, para reduzir a ocorrência de viés e alucinações através de um modo de validação coletivo.
Em termos de arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações que podem ser verificadas de forma independente. Os operadores de nós participam na verificação dessas declarações e, para garantir a honestidade dos operadores de nós, o sistema utiliza um mecanismo de incentivos/punições econômicas criptográficas. Diferentes modelos de IA e operadores de nós descentralizados participam juntos para garantir a confiabilidade dos resultados de verificação.
A arquitetura da rede Mira inclui três etapas-chave: conversão de conteúdo, validação distribuída e mecanismo de consenso. Primeiro, o sistema decompõe o conteúdo candidato submetido pelo cliente em diferentes declarações verificáveis, que são distribuídas para os nós para validação. Após os nós determinarem a validade das declarações, os resultados são agregados para alcançar um consenso, e finalmente, os resultados são devolvidos ao cliente. Para proteger a privacidade do cliente, as declarações são distribuídas para diferentes nós em fragmentos aleatórios, evitando a divulgação de informações durante o processo de validação.
Os operadores de nó obtêm receitas ao executar modelos de validadores, processar declarações e submeter resultados de validação. Essas receitas provêm do valor criado para os clientes, especialmente na redução da taxa de erro da IA em áreas críticas. Para prevenir comportamentos especulativos de resposta aleatória dos nós, o sistema penaliza nós que se afastam continuamente do consenso, garantindo a participação honesta dos operadores de nó na validação através da mecânica de jogos econômicos.
Em geral, a Mira oferece uma nova abordagem para melhorar a confiabilidade da IA. Ao construir uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, a Mira visa proporcionar maior confiabilidade aos serviços de IA dos clientes, reduzir preconceitos e alucinações da IA, e atender às exigências de alta precisão e taxa de acerto. Esta inovação tem o potencial de impulsionar o desenvolvimento aprofundado de aplicações de IA e pavimentar o caminho para a construção de sistemas de IA confiáveis.
Atualmente, a Mira já estabeleceu parcerias com várias estruturas de IA conhecidas. Com o lançamento da rede de testes pública, os usuários podem experimentar saídas de IA verificadas através do Klok (um aplicativo de chat LLM baseado na Mira) e têm a oportunidade de ganhar pontos Mira. Isso oferece uma plataforma de teste prática para melhorar a confiabilidade da IA no futuro.