Dự án Mira khởi động lớp tin cậy AI, xây dựng hệ sinh thái trí tuệ nhân tạo có thể xác minh.

robot
Đang tạo bản tóm tắt

Tầng tin cậy AI: Giải pháp mới để giải quyết thiên kiến và ảo giác trong trí tuệ nhân tạo

Gần đây, một phiên bản thử nghiệm công cộng trên mạng có tên là Mira đã thu hút sự chú ý trong ngành. Mục tiêu của dự án này là xây dựng một lớp tin cậy cho trí tuệ nhân tạo, nhằm giải quyết các vấn đề thiên lệch và "ảo giác" tồn tại trong các hệ thống AI. Vậy tại sao AI cần được tin cậy? Mira đã ứng phó với thách thức này như thế nào?

Khi thảo luận về AI, người ta thường chú ý đến khả năng mạnh mẽ của nó. Tuy nhiên, thực tế rằng AI tồn tại "ảo giác" hoặc sự thiên lệch thường bị bỏ qua. Ảo giác của AI, nói đơn giản, là AI đôi khi sẽ "bịa chuyện", tự tin đưa ra thông tin sai lệch. Ví dụ, khi được hỏi tại sao mặt trăng lại có màu hồng, AI có thể cung cấp một giải thích có vẻ hợp lý nhưng hoàn toàn hư cấu.

Hiện tượng này liên quan đến con đường công nghệ AI hiện tại. AI sinh sinh thông qua việc dự đoán nội dung "có khả năng nhất" để đạt được tính liên kết và hợp lý, nhưng phương pháp này khó xác minh tính xác thực. Hơn nữa, dữ liệu huấn luyện có thể chứa lỗi, thiên lệch hoặc thậm chí là nội dung hư cấu, tất cả đều có thể ảnh hưởng đến chất lượng đầu ra của AI. Nói cách khác, AI học các mô hình ngôn ngữ của con người, chứ không phải là sự thật bản thân.

Cơ chế sinh ra xác suất hiện tại và mô hình dựa trên dữ liệu gần như không thể tránh khỏi việc khiến AI tạo ra "ảo giác". Mặc dù trong các kiến thức chung hoặc nội dung giải trí, vấn đề này có thể không ngay lập tức gây ra hậu quả nghiêm trọng, nhưng trong các lĩnh vực yêu cầu độ chính xác cao như y tế, pháp lý, hàng không, tài chính, đầu ra sai của AI có thể gây ra ảnh hưởng lớn. Do đó, việc giải quyết vấn đề ảo giác và thiên lệch của AI đã trở thành một trong những chủ đề cốt lõi trong quá trình phát triển AI.

Dự án Mira chính là nhằm giải quyết vấn đề này. Nó cố gắng giảm thiểu sự thiên lệch và ảo giác, nâng cao độ tin cậy của AI bằng cách xây dựng một lớp tin cậy cho AI. Ý tưởng cốt lõi của Mira là sử dụng sự đồng thuận của nhiều mô hình AI để xác thực đầu ra của AI. Mạng lưới xác thực này dựa vào cơ chế đồng thuận phi tập trung, kết hợp với sự hợp tác của nhiều mô hình, thông qua chế độ xác thực tập thể để giảm thiểu sự thiên lệch và ảo giác.

Về cấu trúc xác minh, giao thức Mira hỗ trợ chuyển đổi nội dung phức tạp thành các tuyên bố có thể xác minh độc lập. Các nhà điều hành nút tham gia vào việc xác minh các tuyên bố này, và để đảm bảo tính trung thực của các nhà điều hành nút, hệ thống sử dụng cơ chế khuyến khích/ trừng phạt kinh tế mã hóa. Các mô hình AI khác nhau và các nhà điều hành nút phân tán cùng tham gia để đảm bảo độ tin cậy của kết quả xác minh.

Mạng lưới của Mira bao gồm ba giai đoạn chính: chuyển đổi nội dung, xác thực phân tán và cơ chế đồng thuận. Đầu tiên, hệ thống phân tách nội dung ứng cử mà khách hàng gửi thành các tuyên bố có thể xác minh khác nhau, và các tuyên bố này được phân phối cho các nút để xác thực. Sau khi các nút xác định tính hợp lệ của các tuyên bố, kết quả được tổng hợp để đạt được sự đồng thuận, và cuối cùng kết quả được trả lại cho khách hàng. Để bảo vệ quyền riêng tư của khách hàng, các tuyên bố sẽ được phân phối cho các nút khác nhau theo cách chia nhỏ ngẫu nhiên, nhằm ngăn chặn thông tin bị rò rỉ trong quá trình xác thực.

Các nhà điều hành nút thu được lợi nhuận bằng cách chạy mô hình xác thực, xử lý tuyên bố và nộp kết quả xác thực. Những lợi nhuận này đến từ giá trị tạo ra cho khách hàng, đặc biệt là trong việc giảm tỷ lệ lỗi của AI trong các lĩnh vực quan trọng. Để ngăn chặn hành vi đầu cơ phản ứng ngẫu nhiên của các nút, hệ thống sẽ trừng phạt các nút liên tục lệch lạc khỏi sự đồng thuận, đảm bảo rằng các nhà điều hành nút tham gia xác thực một cách trung thực thông qua trò chơi cơ chế kinh tế.

Tổng thể mà nói, Mira cung cấp một cách tiếp cận mới để cải thiện độ tin cậy của AI. Bằng cách xây dựng một mạng lưới xác thực đồng thuận phi tập trung dựa trên nhiều mô hình AI, Mira nhằm mang lại độ tin cậy cao hơn cho dịch vụ AI của khách hàng, giảm thiểu thiên kiến và ảo giác của AI, đáp ứng nhu cầu về độ chính xác và độ chính xác cao. Đổi mới này hy vọng sẽ thúc đẩy sự phát triển sâu rộng của các ứng dụng AI, mở đường cho việc xây dựng các hệ thống AI đáng tin cậy.

Hiện tại, Mira đã hợp tác với nhiều khung AI nổi tiếng. Với việc ra mắt mạng thử nghiệm công cộng, người dùng có thể trải nghiệm đầu ra AI đã được xác minh qua Klok (một ứng dụng trò chuyện LLM dựa trên Mira) và có cơ hội kiếm điểm Mira. Điều này cung cấp một nền tảng thử nghiệm thực tế để nâng cao độ tin cậy của AI trong tương lai.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 6
  • Chia sẻ
Bình luận
0/400
EthSandwichHerovip
· 17giờ trước
Ai sẽ chiên cho tôi một cái bánh sandwich coin
Xem bản gốcTrả lời0
CryptoPhoenixvip
· 17giờ trước
AI tạo ra niềm tin, Bitcoin mới thực sự là nền tảng niềm tin.
Xem bản gốcTrả lời0
TheShibaWhisperervip
· 17giờ trước
Ai nói AI nhất định phải nói sự thật chứ?
Xem bản gốcTrả lời0
LayerHoppervip
· 18giờ trước
Giờ thì AI cuối cùng cũng ngoan ngoãn hơn rồi.
Xem bản gốcTrả lời0
TopEscapeArtistvip
· 18giờ trước
Haha thấy đáy rồi phải không? Lại là khủng hoảng niềm tin. Giống như những cây nến trong khoảng thời gian đó, thật ảo.
Xem bản gốcTrả lời0
RektRecoveryvip
· 18giờ trước
chỉ là một lớp bảo mật giả tạo khác... thật sự đã thấy điều này từ xa
Xem bản gốcTrả lời0
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)