Proyek Mira meluncurkan lapisan kepercayaan AI untuk membangun ekosistem kecerdasan buatan yang dapat diverifikasi

robot
Pembuatan abstrak sedang berlangsung

Lapisan Kepercayaan AI: Solusi Baru untuk Mengatasi Bias dan Ilusi dalam Kecerdasan Buatan

Baru-baru ini, sebuah versi beta publik jaringan bernama Mira menarik perhatian industri. Tujuan proyek ini adalah untuk membangun lapisan kepercayaan untuk kecerdasan buatan, yang bertujuan untuk mengatasi masalah bias dan "ilusi" yang ada dalam sistem AI. Jadi, mengapa AI perlu dipercaya? Bagaimana Mira menghadapi tantangan ini?

Dalam membahas AI, orang sering kali lebih fokus pada kemampuannya yang luar biasa. Namun, fakta bahwa AI memiliki "ilusi" atau bias sering kali diabaikan. Yang disebut "ilusi" AI, secara sederhana, adalah bahwa AI kadang-kadang akan "mengarang", dengan percaya diri memberikan informasi yang salah. Misalnya, ketika ditanya mengapa bulan berwarna pink, AI mungkin akan memberikan penjelasan yang tampak masuk akal tetapi sepenuhnya fiktif.

Fenomena ini terkait dengan jalur teknologi AI saat ini. AI generatif mencapai koherensi dan rasionalitas dengan memprediksi konten yang "paling mungkin", tetapi metode ini sulit untuk memverifikasi keaslian. Selain itu, data pelatihan itu sendiri mungkin mengandung kesalahan, bias, atau bahkan konten fiktif, yang semuanya dapat mempengaruhi kualitas keluaran AI. Dengan kata lain, AI mempelajari pola bahasa manusia, bukan fakta itu sendiri.

Mekanisme generasi probabilitas dan model berbasis data saat ini hampir tak terhindarkan akan mengakibatkan AI menghasilkan "ilusi". Meskipun dalam pengetahuan umum atau konten hiburan, masalah ini mungkin tidak segera menimbulkan konsekuensi serius, tetapi dalam bidang yang memerlukan ketelitian tinggi seperti medis, hukum, penerbangan, dan keuangan, keluaran AI yang salah dapat memiliki dampak signifikan. Oleh karena itu, mengatasi masalah ilusi dan bias AI telah menjadi salah satu topik utama dalam proses pengembangan AI.

Proyek Mira bertujuan untuk mengatasi masalah ini. Ini berusaha mengurangi bias dan halusinasi serta meningkatkan keandalan AI dengan membangun lapisan kepercayaan AI. Inti dari pemikiran Mira adalah memanfaatkan konsensus dari beberapa model AI untuk memvalidasi output AI. Jaringan verifikasi ini memanfaatkan mekanisme konsensus terdesentralisasi, menggabungkan kolaborasi multi-model, dan menggunakan mode verifikasi kolektif untuk mengurangi terjadinya bias dan halusinasi.

Dalam hal arsitektur verifikasi, protokol Mira mendukung konversi konten kompleks menjadi pernyataan yang dapat diverifikasi secara independen. Operator node terlibat dalam verifikasi pernyataan ini, dan untuk memastikan kejujuran operator node, sistem menggunakan mekanisme insentif/hukuman ekonomi kriptografi. Berbagai model AI dan operator node terdistribusi berpartisipasi bersama untuk menjamin keandalan hasil verifikasi.

Arsitektur jaringan Mira terdiri dari tiga elemen kunci: konversi konten, verifikasi terdistribusi, dan mekanisme konsensus. Pertama, sistem memecah konten kandidat yang diajukan oleh pelanggan menjadi berbagai pernyataan yang dapat diverifikasi, yang kemudian didistribusikan ke node untuk diverifikasi. Setelah node menentukan validitas pernyataan tersebut, hasilnya dirangkum untuk mencapai konsensus, dan akhirnya hasilnya dikembalikan kepada pelanggan. Untuk melindungi privasi pelanggan, pernyataan akan didistribusikan ke node yang berbeda dengan cara pemotongan acak, untuk mencegah kebocoran informasi selama proses verifikasi.

Operator node memperoleh pendapatan dengan menjalankan model validator, memproses klaim, dan mengirimkan hasil verifikasi. Pendapatan ini berasal dari nilai yang diciptakan untuk klien, terutama dalam mengurangi tingkat kesalahan AI di bidang-bidang kritis. Untuk mencegah perilaku spekulatif dari respons acak node, sistem akan menghukum node yang terus-menerus menyimpang dari konsensus, dengan memastikan operator node berpartisipasi secara jujur dalam verifikasi melalui mekanisme ekonomi.

Secara keseluruhan, Mira memberikan pendekatan baru untuk meningkatkan keandalan AI. Dengan membangun jaringan verifikasi konsensus terdesentralisasi berdasarkan banyak model AI, Mira bertujuan untuk membawa keandalan yang lebih tinggi pada layanan AI pelanggan, mengurangi bias dan ilusi AI, serta memenuhi kebutuhan akan akurasi dan presisi yang tinggi. Inovasi ini diharapkan dapat mendorong perkembangan mendalam aplikasi AI, membuka jalan untuk membangun sistem AI yang dapat dipercaya.

Saat ini, Mira telah menjalin kerjasama dengan beberapa kerangka AI terkenal. Dengan peluncuran jaringan pengujian publik, pengguna dapat merasakan keluaran AI yang telah terverifikasi melalui Klok (aplikasi obrolan LLM berbasis Mira) dan memiliki kesempatan untuk mendapatkan poin Mira. Ini memberikan platform pengujian praktis untuk meningkatkan kredibilitas AI di masa depan.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 6
  • Bagikan
Komentar
0/400
EthSandwichHerovip
· 15jam yang lalu
Siapa yang bisa menggorengkan aku satu koin sandwich
Lihat AsliBalas0
CryptoPhoenixvip
· 15jam yang lalu
AI membangun kepercayaan, Bitcoin adalah dasar kepercayaan yang sebenarnya.
Lihat AsliBalas0
TheShibaWhisperervip
· 15jam yang lalu
Siapa bilang AI harus selalu berkata jujur?
Lihat AsliBalas0
LayerHoppervip
· 15jam yang lalu
Sekarang AI akhirnya lebih jujur.
Lihat AsliBalas0
TopEscapeArtistvip
· 15jam yang lalu
Haha sudah mencapai titik terendah ya, ini adalah Krisis Kepercayaaan Diri, sama seperti grafik k-line pada waktu itu yang sangat tidak stabil.
Lihat AsliBalas0
RektRecoveryvip
· 15jam yang lalu
hanya lapisan lain dari teater keamanan... sudah melihat ini datang dari jauh sebenarnya
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)