Jawaban AI Mudah. Kepercayaan Lebih Sulit. Bagaimana MIRA Menjelajahi Konsensus Mesin
Saya terus kembali ke masalah tenang di bawah ledakan AI saat ini.
Model menjadi lebih baik dalam menghasilkan jawaban. Tetapi pertanyaan dasar masih belum terjawab.
Bagaimana kita tahu kapan jawaban tersebut harus dipercaya?
Saat ini sebagian besar sistem bergantung pada satu model. Satu mesin memproses permintaan dan mengembalikan hasil. Seorang manusia mungkin memeriksanya, tetapi sering kali output hanya bergerak maju.
Pendekatan itu berhasil untuk tugas-tugas santai. Ini menjadi lebih sulit ketika mesin mulai berinteraksi dengan mesin lain.
Agen perdagangan otomatis, alat analisis kontrak, atau asisten penelitian tidak dapat berhenti setiap beberapa menit untuk tinjauan manusia. Mereka membutuhkan sesuatu yang lebih stabil.
Mereka membutuhkan cara untuk memeriksa alasan mereka sendiri.
Di sinilah Jaringan MIRA masuk ke dalam gambaran.
Alih-alih mempercayai satu model, MIRA menjelajahi struktur di mana beberapa model mengevaluasi tugas yang sama. Jawaban mereka dibandingkan sebelum sistem menerima hasil.
Ide ini terasa akrab jika Anda melihat dasar dari blockchain.
Bitcoin tidak bergantung pada 1 komputer yang memelihara buku besar transaksi. Ia meminta banyak peserta untuk memverifikasi catatan yang sama sebelum menjadi kebenaran yang diterima.
MIRA tampaknya menerapkan tekstur serupa pada penalaran AI.
Jika satu model menghasilkan jawaban, jawaban itu menjadi klaim daripada keputusan akhir. Model lain memeriksa input yang sama dan melihat apakah mereka mencapai kesimpulan yang serupa.
Kesepakatan di seluruh jaringan menjadi sinyal bahwa penalaran mungkin dapat diandalkan.
Ini tidak menghilangkan kesalahan.
Model yang dilatih pada data serupa dapat mengulangi titik buta yang sama. Konsensus masih bisa salah jika inputnya sendiri cacat. Tetapi struktur mengubah bagaimana kesalahan muncul.
Dengan satu model, kesalahan dapat tetap diam. Dengan beberapa peninjau, ketidaksepakatan menjadi terlihat.
Perbedaan itu penting.
Jika 3 model yang memeriksa makalah penelitian yang sama menghasilkan ringkasan yang bertentangan, sistem dapat menandai ketidakpastian alih-alih menyajikan satu penjelasan yang yakin. @Mira - Trust Layer of AI $MIRA #Mira