Satu masalah tenang dengan AI modern adalah seberapa percaya dirinya ia dapat terdengar saat salah.
Model besar menghasilkan kalimat yang halus. Mereka mengutip fakta. Mereka menjelaskan hal-hal dengan jelas. Tetapi terkadang jawaban mengandung kesalahan kecil atau detail yang dibuat-buat. “Halusinasi” ini tidak selalu jelas, terutama bagi seseorang yang membaca dengan cepat.
Kesenjangan antara kepercayaan diri dan kebenaran adalah tempat di mana hal-hal menjadi menarik.
Saya baru-baru ini menemukan ide di balik
@Mira - Trust Layer of AI , yang mencoba mendekati masalah ini dari arah yang berbeda. Alih-alih meminta satu model untuk menilai jawabannya sendiri, sistem memperlakukan respons AI sebagai sekumpulan klaim yang lebih kecil.
Setiap klaim kemudian dapat diperiksa.
Beberapa model independen meninjau potongan-potongan itu dan memutuskan apakah mereka kemungkinan benar. Hasilnya dicatat melalui lapisan konsensus berbasis blockchain. Dalam istilah sederhana, jaringan mencoba untuk membuat catatan verifikasi bersama daripada bergantung pada satu otoritas.
Ini terasa sedikit seperti lapisan pemeriksaan fakta terdistribusi untuk AI.
Token
$MIRA berperan dalam mengoordinasikan insentif di dalam proses ini. Validator berkontribusi pada pekerjaan komputasi untuk meninjau klaim, dan sistem menggunakan bukti kriptografi dan konsensus untuk menyetujui hasilnya.
Secara teori, ini menyebarkan kepercayaan di antara banyak peserta daripada mengonsentrasikannya di satu perusahaan atau penyedia AI.
Ide itu adalah apa yang membuat
#Mira dan
#MiraNetwork menarik untuk diperhatikan.
Namun, pendekatan ini menimbulkan pertanyaan praktis. Memecah respons menjadi klaim yang dapat diverifikasi memerlukan komputasi. Mengkoordinasikan banyak model di seluruh jaringan menambah kompleksitas. Dan infrastruktur AI terdesentralisasi masih merupakan bidang awal dengan beberapa ide yang bersaing.
Jadi, ujian nyata adalah apakah verifikasi dapat terjadi dengan cepat dan cukup murah untuk diperhitungkan.
Untuk saat ini, Mira terasa kurang seperti solusi yang selesai dan lebih seperti eksperimen tentang bagaimana kepercayaan mungkin berkembang di sekitar sistem AI.
#GrowWithSAC