Gua makin lama makin sadar satu hal, bikin teknologi yang bisa bedain mana bener dan mana yang salah secara teknis itu sebenernya engga sulit, soalnya mesin itu bisa dilatih, algoritma bisa diperbaiki dan model AI bisa di upgrade. Yang jauh lebih susah justru menjaga ekonlmi itu tetep manusiawi. Jujur, kebenaran itu bukan cuman soal data tapi juga soal dampaknya ke kehidupan orang lain. Dan di titik ini gua mulai paham, kenapa konsep seperti Mira Network muncul.
Di ekosistem Mira, tugas utamanya sebenernya sederhana yaitu buat mastiin kalo AI itu engga halusinasi. AI boleh pinter, boleh cepet tapi kalo jawabannya ngarang ya tetep harus dikoreksi. Pertanyaannya, siapa yang nentuin apa aja yang perlu di verifikasi? Disinilah manusia tetep punya peran penting. Mira itu engga dibuat jadi semacam polisi pikiran yang ngawasin opini orang, karna orang itu tetep bebas berpendapat, tetep bebas punya opini. Bedanya itu cuman satu, kalo opini keliatan kayak fakta ilmiah padahal salah, sistem bakalan kasih tanda. Mira engga ngelarang kita buat ngomong, tapi dia bikin kita semua tau mana fakta dan mana interpretasi.
Ini hal yang sering orang lupa kalo setiap AI itu pasti punya bias. Kenapa? Karna AI belajar dari data yang dibuat manusia, dan manusia tentu punya sudut pandang yang beda beda. Bayangin kalo semua verifikator di satu sistem pake model AI yang sama, dilatih dari data yang sama dan dengan cara berpikir yang sama? Hasil kebenarannya itu bisa jadi berat sebelah. Makanya Mira nyobain pendekatan yang menurut gua menarik yaitu Diversity pada Node Verifikator. Mereka ngedorong pengguna model AI dari berbagai sumber, budaya, bahasa, bahkan developer yang berbeda. Karna semakin banyak perspektif yang ikut memverifikasi, semakin kecil kemungkinan bisa mendominasi. Dalam model mereka bahkan ada konsep skor keadilan tujuannya kalo semakin kecil biasnya, semakin mendekati nilai ideal sistem dicabut. Gua pribadi cukup suka ide ini karna mereka itu udah sadar kalo kebenaran yang sehat itu dateng dari banyak sudut pandang.
Ada banyak perubahan sosial yang mungkin belum banyak orang sadari. Kalo sistem verifiksi kayak gini bener bener digunain luas, orang yang engga tau kalo itu hoaks bakalan ilang karna alat buat cek nya udah ada. Contonya kalo informasi udah ada label " Falsified By Mira " tapi masih disebarin juga, kita itu bukan lagi engga tau tapi balik lagi ke kesadaran kita sendiri. Kalo dimasa depan hal kayak gini bisa punya konsekuensi sosial, bahkan mungkin hukum. Bukan lagi teknologi yang maksa tapi karna standar masyarakat udah berubah.
Ada satu dampak yang menurut gua menarik dari teknologi Mira, bukan lagi cuman alat verifikasi tapi juga bisa jadi alat belajar. Bayangin orang bisa liat proses gimana sebuah klaim di pecah : mana datanya, mana sumbernya dan mana kesimpulannya. Ini secara langsung bikin orang jadi belajar berpikir dan lama lama budaya diskusi juga bisa berubah, lu gak bakalan bilang lagi kalo lu yakin ini tuh bener, tapi lu bakal cari mana bukti verifikasinya. Dan menurut gua itu perubahan yang sehat buat internet.
Masa depan nanti itu bukan manusia ngelawan AI. Kita udah dibuat takut oleh AI lewat film sci-finya, seolah olah nanti itu kita bakalan kalah lawan mesin yang terlalu pinter. Tapi kalo dipikir lagi, masalahnya bukan di kecerdasan mesin tapi di kejujuran sistemnya. Kalau AI cepet tapi ngawur ya bahaya, terus kalo AI cepet dan jujur, justru itu bisa jadi alat luar biasa. Disinilah konsep yang dibawa Mira terasa menarik, AI nyediain kecepatan dan kemampuan analisis, sementara protokol yang dikelola manusia nyediain nilai, aturan dan akuntabilitas. Ini bukan konflik tapi kerjasama.
Kadang kita itu terlaku fokus ke teknologinya sampe lupa kalo teknologi itu sebenernya cuman alat, yang nentuin arah akhirnya tetep manhsia. Kalo manusianya jujur, teknologi juga bakal memperkuat kejujuran dan kalo manusia milih manipulasi, teknologi juga bisa memperbesar manipulasi. Yang menarik dari Mira, mereka itu lagi nyoba buat mastiin kalo kemudi tetep di tangan kita tapi jalannya tetep bisa diaudit, karna di dunia yang makin dipenuhi AI, mungkin itu justru yang paling kita butuhin.