【Construir un ecosistema de IA de red Descentralización--Mira @Mira_Network 】
Mira (@Mira_Network) nació de las ideas de @karansirdesai y @hapchap88, y tiene como objetivo abordar uno de los grandes problemas en el desarrollo de la inteligencia artificial (IA): las limitaciones inherentes de los modelos de lenguaje a gran escala (LLM) en garantizar la precisión y neutralidad de las salidas.
Estos modelos a menudo generan información errónea con mucha confianza, lo que se conoce como "alucinaciones", o muestran sesgos sistemáticos debido a sesgos en los datos de entrenamiento.
Mira, al introducir el innovador marco "Flows", abstrae la infraestructura de IA, integrando modelos, datos y computación en unidades modularizadas, lo que permite a los desarrolladores centrarse en resolver problemas de los usuarios en lugar de verse atrapados en la gestión engorrosa de la infraestructura.
Mira opera en una red de Descentralización, construyendo un ecosistema abierto donde los contribuyentes comparten Flows, formando un vibrante mercado de recursos de IA, enfatizando la confianza y la participación sin barreras;
El núcleo de Mira radica en su mecanismo de verificación basado en consenso, que tiene como objetivo aumentar la credibilidad de las salidas de la IA.
A diferencia de los tradicionales LLM que dependen de un solo modelo, Mira utiliza un proceso de verificación de múltiples modelos para mitigar las "alucinaciones" —es decir, errores aleatorios pero confiados— así como los sesgos, que son problemas sistemáticos de inclinación hacia ciertos puntos de vista. Por ejemplo, los sesgos pueden llevar a que la IA se incline sutilmente hacia una posición política específica o sea más "amigable" con ciertos grupos, lo cual presenta un riesgo social potencialmente mayor que los errores ocasionales. El mecanismo de verificación de Mira se divide en tres pasos clave: Binarización: La salida de la IA se descompone en declaraciones independientes y verificables. Por ejemplo, "La Tierra gira alrededor del Sol, la Luna gira alrededor de la Tierra" se dividiría en dos declaraciones individuales, que se verificarían una por una, para evitar que respuestas que parecen correctas en general pero contienen errores en los detalles pasen desapercibidas.
▶️Validación distribuida: Estas declaraciones se asignan a diferentes nodos de validación en la red Mira, cada nodo compuesto por uno o más modelos que juzgan únicamente las declaraciones asignadas, sin acceder al contexto completo, asegurando la neutralidad de la evaluación.
▶️Mecanismo de consenso: Mira utiliza un sistema similar a la prueba de trabajo, donde los modelos de verificación deben apostar tokens para participar en la evaluación. Cada nodo razona sobre la veracidad de las declaraciones, y solo cuando casi todos los modelos están de acuerdo se considera que la declaración es confiable. Los nodos inexactos o poco confiables enfrentarán la penalización de deducción de tokens, para incentivar un razonamiento riguroso.
Este enfoque impulsado por el consenso utiliza el juicio colectivo de múltiples modelos para aproximarse a la verdad factual, equilibrando la precisión y el sesgo. Cuanto más amplio sea el conjunto de datos de entrenamiento, es posible que el sesgo se reduzca, pero aumenta el riesgo de alucinaciones; si la limpieza de datos es demasiado estricta, puede amplificar inclinaciones específicas. La validación de múltiples modelos de Mira proporciona una solución equilibrada, enfatizando la exactitud en lugar de la pura precisión, reconociendo que las salidas lógicas pero incorrectas no tienen valor.
Mira distingue más a fondo entre la ilusión y el sesgo: la ilusión es como un arquero que se desvía ocasionalmente del centro del objetivo, es evidente pero identificable; el sesgo, por otro lado, es como una flecha que se inclina continuamente hacia un lado, es implícito pero tiene un impacto profundo. Este último, debido a su sistematicidad, es más probable que moldee silenciosamente la cognición y la toma de decisiones sociales, por lo que debe ser abordado con prioridad. Mira equilibra los sesgos individuales a través de un consenso de múltiples modelos, acercándose a la verdad mediante "votación colectiva", un método riguroso y confiable.
En poco más de medio año, Mira ha logrado avances significativos, atrayendo a varios equipos para utilizar su Flow Market y desarrollar productos nativos de IA en campos como criptomonedas, juegos, SaaS, educación y bienes de consumo. Su aplicación insignia Klok, un asistente criptográfico impulsado por IA que se encuentra en fase de prueba cerrada, ofrece a los usuarios percepciones profundas, datos estructurados y estrategias de cartera, y actualmente se está abriendo a más usuarios.
La alta popularidad de Mira en la plataforma @Arbitrum y la actividad de listas de @KaitoAI destacan aún más su influencia.
Mirando hacia el futuro, Mira planea redefinir el mecanismo de confianza en el desarrollo de IA a través de más investigaciones y productos innovadores.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
【Construir un ecosistema de IA de red Descentralización--Mira @Mira_Network 】
Mira (@Mira_Network) nació de las ideas de @karansirdesai y @hapchap88, y tiene como objetivo abordar uno de los grandes problemas en el desarrollo de la inteligencia artificial (IA): las limitaciones inherentes de los modelos de lenguaje a gran escala (LLM) en garantizar la precisión y neutralidad de las salidas.
Estos modelos a menudo generan información errónea con mucha confianza, lo que se conoce como "alucinaciones", o muestran sesgos sistemáticos debido a sesgos en los datos de entrenamiento.
Mira, al introducir el innovador marco "Flows", abstrae la infraestructura de IA, integrando modelos, datos y computación en unidades modularizadas, lo que permite a los desarrolladores centrarse en resolver problemas de los usuarios en lugar de verse atrapados en la gestión engorrosa de la infraestructura.
Mira opera en una red de Descentralización, construyendo un ecosistema abierto donde los contribuyentes comparten Flows, formando un vibrante mercado de recursos de IA, enfatizando la confianza y la participación sin barreras;
El núcleo de Mira radica en su mecanismo de verificación basado en consenso, que tiene como objetivo aumentar la credibilidad de las salidas de la IA.
A diferencia de los tradicionales LLM que dependen de un solo modelo, Mira utiliza un proceso de verificación de múltiples modelos para mitigar las "alucinaciones" —es decir, errores aleatorios pero confiados— así como los sesgos, que son problemas sistemáticos de inclinación hacia ciertos puntos de vista. Por ejemplo, los sesgos pueden llevar a que la IA se incline sutilmente hacia una posición política específica o sea más "amigable" con ciertos grupos, lo cual presenta un riesgo social potencialmente mayor que los errores ocasionales. El mecanismo de verificación de Mira se divide en tres pasos clave: Binarización: La salida de la IA se descompone en declaraciones independientes y verificables. Por ejemplo, "La Tierra gira alrededor del Sol, la Luna gira alrededor de la Tierra" se dividiría en dos declaraciones individuales, que se verificarían una por una, para evitar que respuestas que parecen correctas en general pero contienen errores en los detalles pasen desapercibidas.
▶️Validación distribuida: Estas declaraciones se asignan a diferentes nodos de validación en la red Mira, cada nodo compuesto por uno o más modelos que juzgan únicamente las declaraciones asignadas, sin acceder al contexto completo, asegurando la neutralidad de la evaluación.
▶️Mecanismo de consenso: Mira utiliza un sistema similar a la prueba de trabajo, donde los modelos de verificación deben apostar tokens para participar en la evaluación. Cada nodo razona sobre la veracidad de las declaraciones, y solo cuando casi todos los modelos están de acuerdo se considera que la declaración es confiable. Los nodos inexactos o poco confiables enfrentarán la penalización de deducción de tokens, para incentivar un razonamiento riguroso.
Este enfoque impulsado por el consenso utiliza el juicio colectivo de múltiples modelos para aproximarse a la verdad factual, equilibrando la precisión y el sesgo. Cuanto más amplio sea el conjunto de datos de entrenamiento, es posible que el sesgo se reduzca, pero aumenta el riesgo de alucinaciones; si la limpieza de datos es demasiado estricta, puede amplificar inclinaciones específicas. La validación de múltiples modelos de Mira proporciona una solución equilibrada, enfatizando la exactitud en lugar de la pura precisión, reconociendo que las salidas lógicas pero incorrectas no tienen valor.
Mira distingue más a fondo entre la ilusión y el sesgo: la ilusión es como un arquero que se desvía ocasionalmente del centro del objetivo, es evidente pero identificable; el sesgo, por otro lado, es como una flecha que se inclina continuamente hacia un lado, es implícito pero tiene un impacto profundo. Este último, debido a su sistematicidad, es más probable que moldee silenciosamente la cognición y la toma de decisiones sociales, por lo que debe ser abordado con prioridad. Mira equilibra los sesgos individuales a través de un consenso de múltiples modelos, acercándose a la verdad mediante "votación colectiva", un método riguroso y confiable.
En poco más de medio año, Mira ha logrado avances significativos, atrayendo a varios equipos para utilizar su Flow Market y desarrollar productos nativos de IA en campos como criptomonedas, juegos, SaaS, educación y bienes de consumo. Su aplicación insignia Klok, un asistente criptográfico impulsado por IA que se encuentra en fase de prueba cerrada, ofrece a los usuarios percepciones profundas, datos estructurados y estrategias de cartera, y actualmente se está abriendo a más usuarios.
La alta popularidad de Mira en la plataforma @Arbitrum y la actividad de listas de @KaitoAI destacan aún más su influencia.
Mirando hacia el futuro, Mira planea redefinir el mecanismo de confianza en el desarrollo de IA a través de más investigaciones y productos innovadores.
#Mira # KAITO #KaitoAI # KaitoYappers #yapperseason