@Mira - Trust Layer of AI

عندمايتحدث الجميع عن مدى قوة الذكاء الاصطناعي الذي أصبح عليه. إصدارات جديدة، تفكير أفضل، توليد أسرع، وكلاء يقومون بمهام أكثر تعقيدًا. هذا الجزء من القصة سهل الرؤية. ما هو أقل وضوحًا هو الطبقة الثانية التي تتشكل بهدوء تحتها، وهي مسألة الثقة.

لا تثق بمعنى الإيمان بوجود الذكاء الاصطناعي. لقد تجاوزنا تلك النقطة بالفعل. القضية الحقيقية هي معرفة متى يمكن الاعتماد فعلاً على مخرجات الذكاء الاصطناعي.

أي شخص قضى وقتًا في استخدام هذه الأنظمة قد مر على الأرجح بنفس التجربة. تسأل سؤالًا وتحصل على إجابة تبدو واثقة للغاية. التفسير واضح، والنبرة تبدو موثوقة، ويبدو كل شيء منطقيًا. ثم تكتشف لاحقًا أن جزءًا من الإجابة كان خاطئًا، أو غير مكتمل، أو مبنيًا على افتراضات لم يتم شرحها.

يحدث هذا أكثر مما يحب الناس الاعتراف به.

على نطاق صغير، ليس هذا كارثة. إذا ارتكب الذكاء الاصطناعي خطأ أثناء المساعدة في كتابة بريد إلكتروني أو تلخيص مقال، فإن الأضرار تكون طفيفة. لكن الوضع يتغير عندما يبدأ الذكاء الاصطناعي في المشاركة في أنظمة أكبر مثل الأدوات المالية، ومنصات البحث، والخدمات المؤتمتة، أو سير العمل المدفوع بالوكيل.

في تلك البيئات، المعلومات غير الصحيحة لا تبدو محرجة فحسب. بل يمكن أن تؤدي إلى عواقب حقيقية.

هنا تبدأ فكرة أسواق ثقة الذكاء الاصطناعي في أن تكون منطقية.

الفكرة الأساسية وراء سوق الثقة بسيطة بشكل مدهش: بدلاً من افتراض أن المعلومات الناتجة عن الآلة صحيحة، تخلق الأنظمة حوافز للتحقق مما إذا كانت فعلاً كذلك. يقيم المشاركون المختلفون الادعاءات، وتظهر الموثوقية من خلال التوافق الاقتصادي بدلاً من القبول الأعمى.

بطريقة ما، يعكس هذا ما حدث مع البلوك تشين قبل سنوات.

قبل الشبكات اللامركزية، كانت المعاملات الرقمية تعتمد على وسطاء موثوقين مثل البنوك، ومعالجات المدفوعات، وأنظمة التسوية. قدمت البلوك تشين نهجًا مختلفًا. بدلاً من الاعتماد على المؤسسات وحدها، تحقق شبكات من المشاركين بشكل جماعي مما حدث.

حل الإجماع محل السلطة.

يواجه الذكاء الاصطناعي الآن لحظة مشابهة. يتم إنتاج الذكاء في كل مكان، لكن التحقق لم يتسارع بنفس الوتيرة. نتيجة لذلك، غالبًا ما تعتمد الثقة في مخرجات الذكاء الاصطناعي على الشركة التي بنت النموذج أو المنصة التي قدمت الإجابة.

قد لا تدوم تلك الهيكلية إلى الأبد.

إذا استمر الذكاء الاصطناعي في التوسع إلى أدوار ذاتية التنفيذ، قد تحتاج الأنظمة التي تتفاعل مع أنظمة أخرى إلى الثقة أن تأتي من شيء أكثر توزيعًا. ليس نموذجًا واحدًا يقول "هذا صحيح"، بل شبكات تقيم ما إذا كانت الإجابة تستحق التدقيق.

هذا هو المكان الذي تدخل فيه شبكة ميرا في المحادثة.

بدلاً من التركيز على توليد الذكاء، تنظر ميرا إلى الطبقة التي تأتي بعد ذلك. البروتوكول يعامل مخرجات الذكاء الاصطناعي كادعاءات يمكن تقييمها بدلاً من كونها إجابات نهائية يجب قبولها. المشاركون في الشبكة يتحققون من تلك الادعاءات، وتساعد الحوافز على تشجيع التقييمات الصادقة.

إنه محاولة لإنشاء بنية تحتية حول الثقة نفسها.

ما يجعل المفهوم مثيرًا للاهتمام هو أنه لا يتطلب من نماذج الذكاء الاصطناعي تغيير كيفية عملها. يمكن أن تستمر عملية التوليد في التطور بشكل مستقل. ميرا ببساطة تضيف خطوة بين إنتاج المعلومات والتصرف بناءً عليها.

فكر في الأمر كأقل بديل للذكاء الاصطناعي وأكثر كنقطة تفتيش.

إذا أنتج الذكاء الاصطناعي بيانًا أو تحليلًا، يمكن للشبكة تقييم ما إذا كان ذلك الادعاء صحيحًا بناءً على نماذج أخرى، أو مصادر بيانات، أو فحوصات منطقية. مع مرور الوقت، يبني النظام نوعًا من السوق حيث يتم مكافأة المشاركين على تحديد المعلومات الموثوقة.

لذلك، تأتي فكرة سوق الثقة.

بالطبع، يثير هذا الكثير من الأسئلة العملية. التحقق من الذكاء أصعب من التحقق من المعاملات. المعلومات ليست دائمًا ثنائية. السياق مهم. أحيانًا يمكن أن تحتوي إجابتان على جزء من الحقيقة.

تصميم أنظمة تتعامل مع الفروق الدقيقة دون أن تصبح بطيئة أو معقدة سيكون أحد أكبر التحديات لأي شبكة تحقق.

ومع ذلك، يشعر الحاجة الأساسية بأنها حقيقية.

في الوقت الحالي، يملأ الإنترنت بمحتوى مولد آليًا بوتيرة لا يمكن للبشر مجاراتها. المقالات، والتقارير، والملخصات، والشرح الفني، الكثير منها يتم إنتاجه أو مساعدته بواسطة الذكاء الاصطناعي. مع زيادة الحجم، يتسع الفجوة بين المعلومات والتحقق.

في نهاية المطاف، تصبح تلك الفجوة غير مريحة.

يبدأ الناس في التساؤل كيف من المفترض أن يعرفوا ما هو موثوق عندما تنتج الآلات معظم المعرفة التي يتفاعلون معها. قد تحاول المنصات التعامل مع هذا داخليًا، لكن الحلول المركزية غالبًا ما تكافح للحفاظ على المصداقية على نطاق واسع.

يوفر التحقق اللامركزي طريقًا آخر.

إذا أصبحت الثقة شيئًا تنتجه الشبكات بشكل جماعي بدلاً من أن تكون شيئًا تعلنه الشركات بشكل فردي، فقد تكسب أنظمة الذكاء الاصطناعي أساسًا أكثر استقرارًا. بدلاً من الاعتماد على سمعة العلامة التجارية وحدها، يمكن للأنظمة الاعتماد على عمليات التحقق الشفافة.

هذا أساسًا هو البيئة التي تحاول شبكة ميرا استكشافها.

سواء نجح في ذلك أم لا، سيعتمد على التبني أكثر من النظرية. تصبح البنية التحتية ذات معنى فقط عندما يدمجها المطورون وتبدأ الأنظمة في الاعتماد عليها في الممارسة العملية. حتى ذلك الحين، تظل طبقات التحقق مفاهيم تنتظر الضغط من العالم الحقيقي.

كل تحول تكنولوجي رئيسي ينتهي به المطاف إلى مواجهة نفس المشكلة: بمجرد أن تنمو القدرات بشكل كبير بما يكفي، تصبح الثقة هي العقبة. كان على الإنترنت حلها بالنسبة للمدفوعات. كان يجب على البلوك تشين حلها بالنسبة للملكية الرقمية. قد يقترب الذكاء الاصطناعي الآن من نسخته الخاصة من هذا التحدي.

إذا كان ذلك صحيحًا، فقد لا يكون مستقبل الذكاء الاصطناعي مجرد مسألة جعل النماذج أكثر أهمية هيكلية للنظام البيئي.💜👍

MIRA
MIRA
--
--

$MIRA

#Mira

@Mira - Trust Layer of AI

#SolvProtocolHacked #robo

#AltcoinSeasonTalkTwoYearLow