من خلال المتابعة يبدو الأمر أكثر كأنه تحول هادئ في كيفية تعلم الناس لثقة الأشياء. ليس في المناقشات العامة، ولكن في لحظات صغيرة - عندما تقرأ شيئًا وتقرر ما إذا كنت ستقبله، أو تشاركه، أو تبني عليه. عندما لا يكون هناك أحد يراقب، فإن ذلك القرار يكون في الأساس عادة. وتتغير العادات عندما يبدأ العالم في تقديم طرق جديدة.
الوعد الأساسي مفهوم. يمكن أن يبدو الذكاء الاصطناعي صحيحًا بينما هو خاطئ. يمكنه اختلاق الأشياء. يمكن أن يحمل تحيزًا. لذا الفكرة هي: لا تعالج رد الذكاء الاصطناعي ككتلة صلبة إما تثق بها أو لا. قسمها إلى بيانات أصغر، أرسل تلك البيانات عبر نماذج مختلفة، ودع شبكة تصل إلى إجماع. أضف حوافز حتى يكون لدى الشبكة سبب لتكون صادقة. في النهاية ستحصل على شيء أقرب إلى "هذا يبدو صحيحًا" بدلاً من "هذا يبدو مقنعًا."
يبدو أن هذا معقول. لكنني ألاحظ باستمرار أن التحقق لا يزيل الثقة - بل يعيد توجيهها. تتوقف عن الثقة بنموذج واحد وتبدأ في الثقة بالآلات من حوله. تثق في أن المدققين مستقلون فعلاً. تثق في أن هيكل الحوافز لن يتم استغلاله. تثق في أن الإجماع يعني "أكثر صحة" وليس فقط "أكثر توافقًا". إنها لا تزال ثقة. إنها فقط ترتدي زيًا مختلفًا.
حتى قبل أن يبدأ التحقق، هناك طبقة أكثر نعومة، شبه غير مرئية: اتخاذ قرار حول ما يتم التحقق منه بالضبط. ما الذي يُعتبر "ادعاءً"؟ أين ترسم حدود البيان حتى يمكن التحقق منه؟ تبدو تلك الخطوة تقنية، لكنها أيضًا تفسير. إذا قمت بإطFramework الشيء الخطأ بوضوح، يمكنك التحقق منه بشكل مثالي وما زلت تنتهي بشيء لا يساعد.
أفكر أيضًا في ما يكافئه هذا مع مرور الوقت. نظام التحقق بطبعه يحب التصريحات النظيفة - الأشياء التي يمكن التحقق منها، وتسجيلها، والاتفاق عليها. هذه ليست عيبًا، إنها النقطة الأساسية. لكنها تدفع الناس بهدوء نحو التحدث بطرق تتناسب مع النظام. تبدأ في اختيار جمل قابلة للدفاع بدلاً من جمل صادقة بشأن كونها فوضوية. تبدأ في تقليص عدم اليقين لأن عدم اليقين أصعب في التحقق منه. ليس لأن أي شخص يجبرك على ذلك، ولكن لأنك تتعلم ما يتم قبوله.
الجزء المتعلق بالحوافز هو حيث أشعر بأكبر قدر من القلق، ليس لأن الحوافز شريرة، ولكن لأن الحوافز تشكل السلوك بطرق نتظاهر أننا نستطيع التنبؤ بها بالكامل. إذا تم دفع الناس لالتقاط الأخطاء، فسيتقنون التقاط أنواع معينة من الأخطاء. إذا تم مكافأة الاتفاق، يصبح الإجماع الآمن جذابًا. إذا كانت هناك مكافأة على الاختلاف في بعض المواقف، يتحول الشك إلى أداء. الشبكة لا تتحقق فقط من الواقع. بل تدرب أيضًا جميع المعنيين على ما يبدو "الفوز".
ثم هناك التأثير العاطفي لعلامة "تم التحقق منها". إنها مريحة. تشعر وكأنها إذن للتوقف عن التفكير فيها. ليس بطريقة كسولة - أكثر مثل طريقة مريحة. كأنك أخيرًا لا تضطر للاحتفاظ بعدم اليقين بنفسك. لكنني أتساءل ماذا يحدث عندما تصبح تلك الشعور طبيعيًا. عندما تصبح "تم التحقق منها" هو المستوى الجديد للاعتقاد، وأي شيء لا يمكن التحقق منه يبدأ في الشعور بالريبة أو عدم الجدوى في التفاعل معه.
لأن العديد من أهم الأشياء التي يتعامل معها الناس ليست سهلة التقسيم إلى ادعاءات نظيفة. دوافع. سياق. تبادلات. ما كان يقصده شخص ما، وليس فقط ما قاله. الفرق بين "صحيح تقنيًا" و"صحيح فعليًا". تلك الأشياء لا تختفي فقط لأننا نبني تحققًا أفضل. إنها تصبح فقط الجزء الذي نتوقع التعامل معه بهدوء، جانبًا، بينما يصبح العالم الرسمي هو الجزء الذي يمكن التحقق منه والتوقيع عليه.
أنا لا أحاول تحويل هذا إلى تحذير. أستطيع أن أرى لماذا يوجد شيء مثل هذا. إذا كان سيتم استخدام الذكاء الاصطناعي في بيئات حقيقية وذات مخاطر عالية، فنحن بحاجة إلى طرق أفضل لتقليل الأخطاء وزيادة الموثوقية. هذا حقيقي. لكنني أعود دائمًا إلى نفس الفكرة: عندما تصبح الثقة شيئًا يمكن للنظام إنتاجه، سيتعلم الناس في النهاية كيفية إنتاجها عن عمد.
لذا فإن السؤال الذي لا أستطيع التخلص منه بسيط وغير مريح بعض الشيء: إذا بنينا مستقبلًا حيث تكون الحقائق الأكثر مصداقية هي تلك التي تنجو من الإجماع والحوافز، ماذا يحدث للحقائق التي لا تناسب هذا الشكل الواقعي لهذا السبب فإن التحقق اللامركزي يمكن التحقق منه.💜🚀
