Mira項目啓動AI信任層 打造可驗證的人工智能生態

robot
摘要生成中

AI信任層:解決人工智能偏見與幻覺的新方案

近日,一個名爲Mira的網路公共測試版引起了業內關注。這個項目的目標是構建人工智能的信任層,旨在解決AI系統中存在的偏見和"幻覺"問題。那麼,爲什麼AI需要被信任?Mira又是如何應對這一挑戰的?

在討論AI時,人們往往更關注其強大的能力。然而,AI存在"幻覺"或偏見這一事實常常被忽視。所謂AI的"幻覺",簡單來說就是AI有時會"瞎編",自信地給出錯誤信息。例如,當被問及月亮爲什麼是粉色時,AI可能會提供看似合理但完全虛構的解釋。

這種現象與當前AI技術路徑有關。生成式AI通過預測"最可能"的內容來實現連貫性和合理性,但這種方法難以驗證真僞。此外,訓練數據本身可能包含錯誤、偏見甚至虛構內容,這些都會影響AI的輸出質量。換言之,AI學習的是人類語言模式,而非事實本身。

目前的概率生成機制和數據驅動模式幾乎不可避免地會導致AI產生"幻覺"。雖然在普通知識或娛樂內容中,這種問題可能不會立即造成嚴重後果,但在醫療、法律、航空、金融等要求高度嚴謹的領域,錯誤的AI輸出可能會產生重大影響。因此,解決AI的幻覺和偏見問題成爲了AI發展過程中的核心課題之一。

Mira項目正是致力於解決這一問題。它試圖通過構建AI的信任層來減少偏見和幻覺,提高AI的可靠性。Mira的核心思路是利用多個AI模型的共識來驗證AI輸出。這個驗證網路借助去中心化的共識機制,結合多模型協同,通過集體驗證模式來降低偏見和幻覺的發生。

在驗證架構方面,Mira協議支持將復雜內容轉換爲可獨立驗證的聲明。節點運營商參與這些聲明的驗證,而爲了確保節點運營商的誠實性,系統採用了加密經濟激勵/懲罰機制。不同AI模型和分散的節點運營商共同參與,以保證驗證結果的可靠性。

Mira的網路架構包括內容轉換、分布式驗證和共識機制三個關鍵環節。首先,系統將客戶提交的候選內容分解成不同的可驗證聲明,這些聲明被分發給節點進行驗證。節點確定聲明的有效性後,匯總結果達成共識,最後將結果返回給客戶。爲保護客戶隱私,聲明對會以隨機分片的方式分發給不同節點,防止驗證過程中的信息泄露。

節點運營商通過運行驗證器模型、處理聲明和提交驗證結果來獲取收益。這些收益來源於爲客戶創造的價值,特別是在降低AI在關鍵領域的錯誤率方面。爲防止節點隨機響應的投機行爲,系統會懲罰持續偏離共識的節點,通過經濟機制的博弈來確保節點運營商誠實參與驗證。

總的來說,Mira爲提高AI可靠性提供了一種新的解決思路。通過在多AI模型基礎上構建去中心化共識驗證網路,Mira旨在爲客戶的AI服務帶來更高的可靠性,降低AI偏見和幻覺,滿足高準確度和精確率的需求。這一創新有望推動AI應用的深入發展,爲構建可信賴的AI系統鋪平道路。

目前,Mira已經與多個知名AI框架建立了合作。隨着公共測試網的推出,用戶可以通過Klok(一個基於Mira的LLM聊天應用)體驗經過驗證的AI輸出,並有機會賺取Mira積分。這爲未來AI可信度的提升提供了一個實際的測試平台。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 6
  • 分享
留言
0/400
ETH三明治侠vip
· 15小時前
谁来炒我一个币三明治
回復0
Crypto凤凰vip
· 15小時前
AI搞信任 比特币才真正的信任底层
回復0
TheShibaWhisperervip
· 15小時前
谁说AI就一定要讲实话呢
回復0
LayerHoppervip
· 15小時前
这下AI终于老实点了
回復0
逃顶大师vip
· 16小時前
哈哈见底了吧 又是信任危机 就跟那段时间的k线一样虚
回復0
RektRecoveryvip
· 16小時前
这只是另一层安全表演……说实话,我早就看到了这一点。
查看原文回復0
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)