Mira项目启动AI信任层 打造可验证的人工智能生态

robot
摘要生成中

AI信任层:解决人工智能偏见与幻觉的新方案

近日,一个名为Mira的网络公共测试版引起了业内关注。这个项目的目标是构建人工智能的信任层,旨在解决AI系统中存在的偏见和"幻觉"问题。那么,为什么AI需要被信任?Mira又是如何应对这一挑战的?

在讨论AI时,人们往往更关注其强大的能力。然而,AI存在"幻觉"或偏见这一事实常常被忽视。所谓AI的"幻觉",简单来说就是AI有时会"瞎编",自信地给出错误信息。例如,当被问及月亮为什么是粉色时,AI可能会提供看似合理但完全虚构的解释。

这种现象与当前AI技术路径有关。生成式AI通过预测"最可能"的内容来实现连贯性和合理性,但这种方法难以验证真伪。此外,训练数据本身可能包含错误、偏见甚至虚构内容,这些都会影响AI的输出质量。换言之,AI学习的是人类语言模式,而非事实本身。

目前的概率生成机制和数据驱动模式几乎不可避免地会导致AI产生"幻觉"。虽然在普通知识或娱乐内容中,这种问题可能不会立即造成严重后果,但在医疗、法律、航空、金融等要求高度严谨的领域,错误的AI输出可能会产生重大影响。因此,解决AI的幻觉和偏见问题成为了AI发展过程中的核心课题之一。

Mira项目正是致力于解决这一问题。它试图通过构建AI的信任层来减少偏见和幻觉,提高AI的可靠性。Mira的核心思路是利用多个AI模型的共识来验证AI输出。这个验证网络借助去中心化的共识机制,结合多模型协同,通过集体验证模式来降低偏见和幻觉的发生。

在验证架构方面,Mira协议支持将复杂内容转换为可独立验证的声明。节点运营商参与这些声明的验证,而为了确保节点运营商的诚实性,系统采用了加密经济激励/惩罚机制。不同AI模型和分散的节点运营商共同参与,以保证验证结果的可靠性。

Mira的网络架构包括内容转换、分布式验证和共识机制三个关键环节。首先,系统将客户提交的候选内容分解成不同的可验证声明,这些声明被分发给节点进行验证。节点确定声明的有效性后,汇总结果达成共识,最后将结果返回给客户。为保护客户隐私,声明对会以随机分片的方式分发给不同节点,防止验证过程中的信息泄露。

节点运营商通过运行验证器模型、处理声明和提交验证结果来获取收益。这些收益来源于为客户创造的价值,特别是在降低AI在关键领域的错误率方面。为防止节点随机响应的投机行为,系统会惩罚持续偏离共识的节点,通过经济机制的博弈来确保节点运营商诚实参与验证。

总的来说,Mira为提高AI可靠性提供了一种新的解决思路。通过在多AI模型基础上构建去中心化共识验证网络,Mira旨在为客户的AI服务带来更高的可靠性,降低AI偏见和幻觉,满足高准确度和精确率的需求。这一创新有望推动AI应用的深入发展,为构建可信赖的AI系统铺平道路。

目前,Mira已经与多个知名AI框架建立了合作。随着公共测试网的推出,用户可以通过Klok(一个基于Mira的LLM聊天应用)体验经过验证的AI输出,并有机会赚取Mira积分。这为未来AI可信度的提升提供了一个实际的测试平台。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 6
  • 分享
评论
0/400
ETH三明治侠vip
· 15小时前
谁来炒我一个币三明治
回复0
Crypto凤凰vip
· 15小时前
AI搞信任 比特币才真正的信任底层
回复0
TheShibaWhisperervip
· 15小时前
谁说AI就一定要讲实话呢
回复0
LayerHoppervip
· 15小时前
这下AI终于老实点了
回复0
逃顶大师vip
· 15小时前
哈哈见底了吧 又是信任危机 就跟那段时间的k线一样虚
回复0
RektRecoveryvip
· 15小时前
这只是另一层安全表演……说实话,我早就看到了这一点。
查看原文回复0
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)