مشكلة هادئة واحدة مع الذكاء الاصطناعي الحديث هي مدى ثقة صوته بينما يكون خاطئًا.
تنتج النماذج الكبيرة جملًا سلسة. تستشهد بالحقائق. تشرح الأمور بوضوح. ولكن في بعض الأحيان تحتوي الإجابة على أخطاء صغيرة أو تفاصيل مخترعة. هذه "الأوهام" ليست دائمًا واضحة، خاصةً لشخص يقرأ بسرعة.
هذه الفجوة بين الثقة والصواب هي المكان الذي تصبح فيه الأمور مثيرة للاهتمام.
لقد صادفت مؤخرًا الفكرة وراء
@Mira - Trust Layer of AI ، التي تحاول الاقتراب من هذه المشكلة من اتجاه مختلف. بدلاً من طلب نموذج واحد للحكم على إجابته الخاصة، يعامل النظام استجابة الذكاء الاصطناعي كمجموعة من المطالبات الأصغر.
يمكن بعد ذلك التحقق من كل مطالبة.
تراجع نماذج مستقلة متعددة تلك الأجزاء وتقرر ما إذا كانت صحيحة على الأرجح. يتم تسجيل النتائج من خلال طبقة توافق قائمة على البلوكشين. ببساطة، يحاول الشبكة إنشاء سجل مشترك للتحقق بدلاً من الاعتماد على سلطة واحدة.
يبدو الأمر قليلاً مثل طبقة تحقق موزعة للحقائق للذكاء الاصطناعي.
يلعب الرمز
$MIRA دورًا في تنسيق الحوافز داخل هذه العملية. يساهم المدققون في العمل الحسابي لمراجعة المطالبات، ويستخدم النظام أدلة تشفيرية وتوافقًا للاتفاق على النتيجة.
من الناحية النظرية، ينشر هذا الثقة عبر العديد من المشاركين بدلاً من تركيزها في شركة واحدة أو مزود ذكاء اصطناعي واحد.
تلك الفكرة هي ما يجعل
#Mira و
#MiraNetwork مثيرتين للمشاهدة.
ومع ذلك، تثير الطريقة أسئلة عملية. يتطلب تقسيم الاستجابات إلى مطالبات قابلة للتحقق حسابًا. إن تنسيق العديد من النماذج عبر شبكة يزيد من التعقيد. والبنية التحتية للذكاء الاصطناعي اللامركزية لا تزال مجالًا مبكرًا مع العديد من الأفكار المتنافسة.
لذا فإن الاختبار الحقيقي سيكون ما إذا كان يمكن أن يحدث التحقق بسرعة وبتكلفة كافية لتكون له أهمية.
حتى الآن، تشعر ميرا بأنها أقل من كونها حلًا نهائيًا وأكثر مثل تجربة حول كيفية تطور الثقة حول أنظمة الذكاء الاصطناعي.
#GrowWithSAC