في الفترة الأخيرة صرت أنتبه لشيء مهم بعالم الذكاء الاصطناعي: النماذج تعطي إجابات قوية، لكن السؤال دائماً هو… هل هذه الإجابات دقيقة فعلاً؟ 🤔
وأثناء متابعتي لبعض مشاريع الكريبتو لفت نظري مشروع @Mira - Trust Layer of AI mira_network الفكرة فيه مختلفة شوي عن أغلب المشاريع، لأنه يحاول يحل مشكلة الثقة في مخرجات الذكاء الاصطناعي.
بدل ما نعتمد على نموذج واحد فقط، يقوم بروتوكول #Mira بتوزيع عملية التحقق على شبكة من العقد (Nodes). يعني النتيجة يتم مراجعتها أكثر من مرة داخل الشبكة، وهذا الشيء يقلل من الأخطاء أو المعلومات المضللة.
الفكرة برأيي ذكية، لأنها تجمع بين قوة الذكاء الاصطناعي وشفافية البلوكتشين في نفس الوقت. ورمز $MIRA يلعب دور أساسي في تشغيل الشبكة وتحفيز المشاركين فيها.
ما بعرف إذا المشروع رح يكون من المشاريع الكبيرة مستقبلاً، لكن صراحة فكرته تستحق المتابعة، خاصة مع النمو الكبير لمجال AI في عالم الكريبتو.