Couche de confiance AI : une nouvelle solution pour résoudre les biais et les illusions de l'intelligence artificielle
Récemment, une version bêta publique en ligne appelée Mira a suscité l'intérêt dans l'industrie. L'objectif de ce projet est de construire une couche de confiance pour l'intelligence artificielle, visant à résoudre les problèmes de biais et de "hallucinations" présents dans les systèmes d'IA. Alors, pourquoi l'IA doit-elle être digne de confiance ? Comment Mira fait-elle face à ce défi ?
Lorsqu'on parle d'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, le fait que l'IA présente des "hallucinations" ou des biais est souvent négligé. Ce que l'on appelle l'"hallucination" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des informations qu'elle présente avec assurance, même si elles sont incorrectes. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA peut fournir une explication qui semble raisonnable mais qui est complètement fictive.
Ce phénomène est lié aux chemins technologiques actuels de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais cette méthode est difficile à vérifier. De plus, les données d'entraînement peuvent elles-mêmes contenir des erreurs, des biais ou même du contenu fictif, ce qui affecte la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend les modèles linguistiques humains, et non les faits eux-mêmes.
Le mécanisme de génération de probabilité actuel et le modèle basé sur les données conduisent presque inévitablement à des "hallucinations" de l'IA. Bien que ce problème puisse ne pas avoir de conséquences graves immédiates dans des contenus de connaissances générales ou de divertissement, dans des domaines exigeant une grande rigueur tels que la médecine, le droit, l'aviation et la finance, une sortie erronée de l'IA peut avoir des impacts significatifs. Par conséquent, la résolution des problèmes d'hallucination et de biais de l'IA est devenue l'un des sujets centraux du développement de l'IA.
Le projet Mira vise précisément à résoudre ce problème. Il tente de réduire les biais et les hallucinations en construisant une couche de confiance pour l'IA, augmentant ainsi la fiabilité de l'IA. L'idée centrale de Mira est d'utiliser le consensus de plusieurs modèles d'IA pour valider les sorties de l'IA. Ce réseau de validation s'appuie sur un mécanisme de consensus décentralisé, combiné à une collaboration entre plusieurs modèles, afin de réduire la survenue de biais et d'hallucinations grâce à un modèle de validation collective.
En ce qui concerne l'architecture de vérification, le protocole Mira prend en charge la conversion de contenus complexes en déclarations pouvant être vérifiées de manière indépendante. Les opérateurs de nœuds participent à la vérification de ces déclarations, et pour garantir l'honnêteté des opérateurs de nœuds, le système utilise un mécanisme d'incitation/punition économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour assurer la fiabilité des résultats de vérification.
L'architecture réseau de Mira comprend trois étapes clés : la conversion de contenu, la validation distribuée et le mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat soumis par le client en différentes déclarations vérifiables, qui sont distribuées aux nœuds pour validation. Une fois que les nœuds ont déterminé la validité des déclarations, ils consolident les résultats pour parvenir à un consensus, puis renvoient les résultats au client. Pour protéger la vie privée des clients, les déclarations sont distribuées à différents nœuds de manière aléatoire, afin d'empêcher toute fuite d'informations durant le processus de validation.
Les opérateurs de nœuds génèrent des revenus en exécutant des modèles de validateurs, en traitant des déclarations et en soumettant des résultats de validation. Ces revenus proviennent de la valeur créée pour les clients, notamment en réduisant le taux d'erreur de l'IA dans des domaines critiques. Pour prévenir les comportements spéculatifs des nœuds qui répondent de manière aléatoire, le système pénalise les nœuds qui s'écartent continuellement du consensus, garantissant ainsi la participation honnête des opérateurs de nœuds à la validation grâce à un mécanisme économique de jeu.
Dans l'ensemble, Mira propose une nouvelle approche pour améliorer la fiabilité de l'IA. En construisant un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, Mira vise à offrir une plus grande fiabilité aux services d'IA de ses clients, à réduire les biais et les hallucinations de l'IA, et à répondre aux exigences de haute précision et de taux de précision. Cette innovation devrait favoriser le développement approfondi des applications d'IA et ouvrir la voie à la construction de systèmes d'IA fiables.
Actuellement, Mira a établi des partenariats avec plusieurs frameworks d'IA renommés. Avec le lancement du réseau de test public, les utilisateurs peuvent expérimenter des résultats d'IA vérifiés via Klok (une application de chat LLM basée sur Mira) et avoir la possibilité de gagner des points Mira. Cela offre une plateforme de test pratique pour améliorer la crédibilité de l'IA à l'avenir.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
14 J'aime
Récompense
14
6
Partager
Commentaire
0/400
EthSandwichHero
· Il y a 19h
Qui va me faire un sandwich au jeton ?
Voir l'originalRépondre0
CryptoPhoenix
· Il y a 19h
L'IA crée la confiance, le Bitcoin est véritablement la couche de confiance.
Voir l'originalRépondre0
TheShibaWhisperer
· Il y a 19h
Qui a dit que l'IA devait toujours dire la vérité ?
Voir l'originalRépondre0
LayerHopper
· Il y a 20h
Maintenant, l'IA est enfin un peu plus raisonnable.
Voir l'originalRépondre0
TopEscapeArtist
· Il y a 20h
Haha, c'est le fond, n'est-ce pas ? Encore une Crise de confiance, c'est aussi fictif que les chandeliers de cette période.
Voir l'originalRépondre0
RektRecovery
· Il y a 20h
juste une autre couche de théâtre de la sécurité... j'avais vu cela venir de loin pour être honnête
Lancement du projet Mira : créer une couche de confiance AI pour un écosystème d'intelligence artificielle vérifiable.
Couche de confiance AI : une nouvelle solution pour résoudre les biais et les illusions de l'intelligence artificielle
Récemment, une version bêta publique en ligne appelée Mira a suscité l'intérêt dans l'industrie. L'objectif de ce projet est de construire une couche de confiance pour l'intelligence artificielle, visant à résoudre les problèmes de biais et de "hallucinations" présents dans les systèmes d'IA. Alors, pourquoi l'IA doit-elle être digne de confiance ? Comment Mira fait-elle face à ce défi ?
Lorsqu'on parle d'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, le fait que l'IA présente des "hallucinations" ou des biais est souvent négligé. Ce que l'on appelle l'"hallucination" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des informations qu'elle présente avec assurance, même si elles sont incorrectes. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA peut fournir une explication qui semble raisonnable mais qui est complètement fictive.
Ce phénomène est lié aux chemins technologiques actuels de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais cette méthode est difficile à vérifier. De plus, les données d'entraînement peuvent elles-mêmes contenir des erreurs, des biais ou même du contenu fictif, ce qui affecte la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend les modèles linguistiques humains, et non les faits eux-mêmes.
Le mécanisme de génération de probabilité actuel et le modèle basé sur les données conduisent presque inévitablement à des "hallucinations" de l'IA. Bien que ce problème puisse ne pas avoir de conséquences graves immédiates dans des contenus de connaissances générales ou de divertissement, dans des domaines exigeant une grande rigueur tels que la médecine, le droit, l'aviation et la finance, une sortie erronée de l'IA peut avoir des impacts significatifs. Par conséquent, la résolution des problèmes d'hallucination et de biais de l'IA est devenue l'un des sujets centraux du développement de l'IA.
Le projet Mira vise précisément à résoudre ce problème. Il tente de réduire les biais et les hallucinations en construisant une couche de confiance pour l'IA, augmentant ainsi la fiabilité de l'IA. L'idée centrale de Mira est d'utiliser le consensus de plusieurs modèles d'IA pour valider les sorties de l'IA. Ce réseau de validation s'appuie sur un mécanisme de consensus décentralisé, combiné à une collaboration entre plusieurs modèles, afin de réduire la survenue de biais et d'hallucinations grâce à un modèle de validation collective.
En ce qui concerne l'architecture de vérification, le protocole Mira prend en charge la conversion de contenus complexes en déclarations pouvant être vérifiées de manière indépendante. Les opérateurs de nœuds participent à la vérification de ces déclarations, et pour garantir l'honnêteté des opérateurs de nœuds, le système utilise un mécanisme d'incitation/punition économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour assurer la fiabilité des résultats de vérification.
L'architecture réseau de Mira comprend trois étapes clés : la conversion de contenu, la validation distribuée et le mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat soumis par le client en différentes déclarations vérifiables, qui sont distribuées aux nœuds pour validation. Une fois que les nœuds ont déterminé la validité des déclarations, ils consolident les résultats pour parvenir à un consensus, puis renvoient les résultats au client. Pour protéger la vie privée des clients, les déclarations sont distribuées à différents nœuds de manière aléatoire, afin d'empêcher toute fuite d'informations durant le processus de validation.
Les opérateurs de nœuds génèrent des revenus en exécutant des modèles de validateurs, en traitant des déclarations et en soumettant des résultats de validation. Ces revenus proviennent de la valeur créée pour les clients, notamment en réduisant le taux d'erreur de l'IA dans des domaines critiques. Pour prévenir les comportements spéculatifs des nœuds qui répondent de manière aléatoire, le système pénalise les nœuds qui s'écartent continuellement du consensus, garantissant ainsi la participation honnête des opérateurs de nœuds à la validation grâce à un mécanisme économique de jeu.
Dans l'ensemble, Mira propose une nouvelle approche pour améliorer la fiabilité de l'IA. En construisant un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, Mira vise à offrir une plus grande fiabilité aux services d'IA de ses clients, à réduire les biais et les hallucinations de l'IA, et à répondre aux exigences de haute précision et de taux de précision. Cette innovation devrait favoriser le développement approfondi des applications d'IA et ouvrir la voie à la construction de systèmes d'IA fiables.
Actuellement, Mira a établi des partenariats avec plusieurs frameworks d'IA renommés. Avec le lancement du réseau de test public, les utilisateurs peuvent expérimenter des résultats d'IA vérifiés via Klok (une application de chat LLM basée sur Mira) et avoir la possibilité de gagner des points Mira. Cela offre une plateforme de test pratique pour améliorer la crédibilité de l'IA à l'avenir.