مع تطور الذكاء الاصطناعي، أصبح بإمكان النماذج الحديثة إنتاج كميات هائلة من المعلومات بسرعة كبيرة.
لكن المشكلة التي ما زالت قائمة هي: كيف يمكن التأكد من صحة هذه المعلومات؟
العديد من الأنظمة تعتمد على نموذج واحد لتوليد الإجابة، وهو ما يجعل النتيجة عرضة للأخطاء أو التحيّز. حتى أكثر النماذج تقدمًا قد تنتج معلومات غير دقيقة أو ما يُعرف بظاهرة “الهلوسة”.
هنا تظهر فكرة مختلفة يقدمها مشروع @Mira - Trust Layer of AI .
بدل الاعتماد على نموذج واحد فقط، يحاول بروتوكول $MIRA إنشاء نظام تحقق لامركزي لمخرجات الذكاء الاصطناعي.
الفكرة الأساسية تقوم على تقسيم المحتوى إلى ادعاءات صغيرة قابلة للتحقق. بعد ذلك يتم توزيع هذه الادعاءات على شبكة من نماذج الذكاء الاصطناعي المستقلة، حيث تقوم كل جهة بمراجعة جزء من المعلومات.
النتيجة النهائية تعتمد على توافق لامركزي مدعوم بحوافز اقتصادية باستخدام تقنية البلوكشين، مما يقلل احتمالية الخطأ ويزيد من مستوى الثقة في المخرجات.
ببساطة، #Mira تحاول إنشاء بيئة يمكن فيها للذكاء الاصطناعي أن يخضع لمراجعة جماعية بدل أن يكون مصدرًا منفردًا للمعلومة.
ومع التوسع السريع في استخدام الذكاء الاصطناعي في مجالات مختلفة، قد يصبح وجود طبقة تحقق مثل التي يقدمها $MIRA خطوة مهمة لجعل الأنظمة الذكية أكثر موثوقية واعتمادًا في المستقبل.