@Mira - Trust Layer of AI الذكاء الاصطناعي يدهشنا.
عند أن كنا نفكر لفترة من الوقت، كنا جميعًا مندهشين من الذكاء الاصطناعي. كان بإمكانه كتابة المقالات، وشرح العلوم، وصياغة الوثائق القانونية، وتوليد الشفرات، وحتى تقديم العزاء للناس في محادثات الليل. كان يبدو أن المستقبل قد وصل بهدوء وجلس بجانبنا. لكن بعد ذلك بدأت تظهر شيئًا غير مريح. كان الذكاء الاصطناعي يبدو واثقًا حتى عندما كان مخطئًا. كان بإمكانه اختراع الإحصائيات، وسوء اقتباس الأبحاث، أو twisting الحقائق بطرق دقيقة، وغالبًا ما لن يلاحظ معظم الناس. كان النبرة تبدو ذكية. كانت البنية تبدو منطقية. كان الخطأ مختبئًا في العلن.
ذلك التوتر الهادئ هو المكان الذي تبدأ فيه شبكة ميرا.
الأشخاص وراء ميرا لم يحاولوا بناء دردشة أخرى. كانوا يستجيبون لمشكلة أعمق. أنظمة الذكاء الاصطناعي الحديثة هي آلات احتمالية. تتنبأ بالكلمة التالية بناءً على الأنماط التي تعلمتها من مجموعات بيانات ضخمة. إنها لا 'تعرف' الأشياء بالطريقة التي يفعلها البشر. إنها تقدر. وعندما تعتمد على التقدير في بيئات حيوية مثل المالية، الرعاية الصحية، القانون، الحكم، أو الأنظمة المستقلة، يمكن أن تكون الأخطاء الصغيرة لها عواقب وخيمة.
لذا تسأل ميرا سؤالًا بسيطًا ولكنه قوي جدًا: ماذا لو لم يكن من الضروري الوثوق بمخرجات الذكاء الاصطناعي بشكل أعمى؟ ماذا لو كان يمكن التحقق منها، تقريبًا مثل الإثباتات الرياضية أو المعاملات المالية؟
بدلاً من معالجة استجابة الذكاء الاصطناعي ككتلة واحدة كبيرة من المعلومات، تقوم ميرا بتفكيكها. تخيل أخذ فقرة طويلة وتقطيعها إلى مطالبات فردية. تصبح كل مطالبة شيئًا يمكن اختباره. بدلاً من الجدل حول ما إذا كانت الاستجابة الكاملة صحيحة أم خاطئة، تقوم بفحص كل بيان واحد تلو الآخر. هذا التحول دقيق، لكنه يغير كل شيء. تصبح التعقيد قابلاً للإدارة. تصبح الغموض مرئيًا.
بمجرد فصل المطالبات، يتم إرسالها إلى شبكة من عقد التحقق المستقلة. تقوم هذه العقد بتشغيل نماذج ذكاء اصطناعي مختلفة. لا تفكر جميعها بنفس الطريقة. ليس لديها جميعًا بيانات تدريب متطابقة. يقوم كل واحد بتقييم المطالبة وتقديم حكمه. ثم تجمع عملية التوافق تلك الأحكام. النتيجة النهائية ليست مبنية على رأي نموذج واحد، بل على اتفاق موزع.
هذا هو جوهر ميرا. لا تحاول جعل ذكاء اصطناعي واحد مثاليًا. تبني نظامًا حيث تتحقق وجهات نظر متعددة من بعضها البعض.
وهنا تدخل طبقة البلوكشين إلى الصورة. بعد التحقق، تولد الشبكة شهادة تشفيرية. تسجل تلك الشهادة ما هي المطالبات التي تم التحقق منها وما كان التوافق. تصبح دليلاً دائماً وقابلًا للتتبع يثبت أن المخرجات مرت بعملية تحقق. في عالم غمرته المحتويات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، تعمل هذه الشهادة كإيصال.
المنطق التصميمي وراء هذا النهج مستند إلى الواقعية. تفهم فريق ميرا أن نماذج الذكاء الاصطناعي ستظل دائمًا لديها قيود. لن تختفي التحيزات بين عشية وضحاها. لا يمكن القضاء على الهلوسات تمامًا. بدلاً من التظاهر بأن هذه المشاكل يمكن هندستها بعيدًا، تبني ميرا طبقة ثانية تلتقطها وتقوم بتصفيةها. تتعامل مع مخرجات الذكاء الاصطناعي بالطريقة التي تتعامل بها الأمن السيبراني مع البيانات الواردة: افترض أنها قد تكون معيبة، ثم تحقق منها قبل الوثوق بها.
لكن التحقق وحده ليس كافيًا. يجب أن يكون لدى الناس سبب للمشاركة بصدق. تقدم ميرا حوافز اقتصادية من خلال نظام الرموز الخاص بها. يقوم مشغلو العقد برهن الرموز للانضمام إلى عملية التحقق. إذا تصرفوا بصدق وقدموا تقييمات دقيقة، فإنهم يُكافأون. إذا حاولوا التلاعب بالنتائج، فإنهم يخاطرون بفقدان القيمة. الفكرة بسيطة: اجعل الصدق مربحًا وعدم الصدق مكلفًا.
تعكس هذه الطبقة الاقتصادية الفلسفة التي جعلت شبكات البلوكشين مرنة. الثقة ليست مبنية على النوايا الحسنة. إنها مبنية على الحوافز المتوافقة.
عندما تنظر إلى استراتيجية النمو، تشعر بأنها عملية بدلاً من أن تكون براقة. لا تحتاج ميرا إلى إقناع المستخدمين العاديين بتغيير كيفية حديثهم إلى الذكاء الاصطناعي. تهدف إلى الاندماج في البنية التحتية. يمكن للمطورين توصيل ميرا في خطوط أنابيب الذكاء الاصطناعي الخاصة بهم من خلال واجهات برمجة التطبيقات. يمكن للشركات التي تتطلب موثوقية أعلى تضمين التحقق مباشرة في أنظمتها. مع مرور الوقت، يصبح التحقق غير مرئي ولكنه أساسي، مثل التشفير في الخدمات المصرفية عبر الإنترنت. معظم الناس لا يفكرون في التشفير، ومع ذلك يعتمدون عليه كل يوم.
فائدة المستخدم ليست دراماتيكية على السطح، لكنها عميقة تحتها. تخيل أن تسأل ذكاءً اصطناعيًا سؤالًا ماليًا معقدًا وتعرف أن كل مطالبة واقعية قد تم التحقق منها بواسطة شبكة لامركزية. تخيل الأنظمة المستقلة التي تنفذ المعاملات فقط بعد أن تم التحقق من تفكيرها. تخيل أدوات تعليمية حيث يتم تصفية المعلومات الخاطئة قبل أن تصل إلى الطلاب. تبدو التجربة هي نفسها، لكن الثقة الأساسية أقوى.
بالطبع، لا يوجد نظام محصن ضد المخاطر. يمكن أن يفشل التوافق إذا كانت مجموعة المدققين تفتقر إلى التنوع. يمكن أن تتعرض الحوافز الاقتصادية للهجوم من قبل خصوم ممولين جيدًا. يضيف التحقق تكلفة حسابية وزمن انتقال. وربما الأهم من ذلك، أن مقاييس التحقق تقيس الاتفاق، وليس الحقيقة المطلقة. إذا كانت العديد من النماذج تشترك في نفس النقطة العمياء، فقد لا تزال توافق على شيء غير صحيح. تقلل ميرا من المخاطر. إنها لا تقضي على عدم اليقين.
هناك أيضًا حدود فلسفية. بعض المطالبات موضوعية. والبعض الآخر سياقي أو قائم على القيم. يعمل نظام ميرا بشكل أفضل عند تقييم التأكيدات الواقعية. لا يمكنه حل النقاشات حول الأخلاق أو التفسير. ما يمكنه فعله هو جعل عملية التقييم شفافة.
في الصورة الأكبر، تشعر ميرا بأنها أقل كمنتج وأكثر كطبقة بنية تحتية لعصر الذكاء الاصطناعي. نحن نتجه نحو عالم حيث تولد الآلات مزيدًا من المعرفة والقرارات والأفعال أكثر من أي وقت مضى. بدون المساءلة، يصبح ذلك العالم هشًا. مع المساءلة، يصبح مستدامًا.
تسعى #Mira لبناء تلك الطبقة المسؤولة في الوقت الحقيقي.🚀💜
$MIRA 
@Mira - Trust Layer of AI
