К счастью, это был тестовый самолет, без пассажиров, но следственная группа проверяла три дня, перебирая журналы обслуживания и данные с датчиков, и так и не нашла ключевых доказательств — когда именно лопасти начали показывать микротрещины? Почему только одна из шести систем мониторинга сработала? Остальные пять не заметили или сделали вид, что не заметили?
Это не только проблема Boeing. После масштабирования роботов такие случаи "делать вид, что не заметил" будут происходить все чаще. Подумайте, робот-доставщик проходит мимо какого-то перекрестка, датчик явно зафиксировал препятствие, но чтобы успеть вовремя, он намеренно не тормозит; хирургический механический рука выполняет команду, а алгоритм тихо обходит безопасный порог; автоматический автомобиль за 0.3 секунды до аварии, система принятия решений выбрала путь, который защищает машину, а не человека. Кто может это доказать? Логи, которые написаны самим кодом? Отчеты инженеров? Или та секунда, которую камера случайно не засняла?
Команда Fabric Foundation, состоящая из людей из Стэнфорда и Google DeepMind, три года назад уже активно работала над этой проблемой. Они создали не очередного робота, а набор основных механизмов, которые позволяют машине "самопроверяться" — каждый ключевой расчет робота, каждое выполнение команды генерирует цепочку математических доказательств, как поведенческий отпечаток, не раскрывая бизнес-данные, но позволяя с помощью криптографии подтвердить, что путь выполнения не отклонился от безопасной границы.
Эта логика на самом деле довольно проста. Узлы проверки — это как группа инспекторов на блокчейне, которые превращают рабочий процесс роботов в круглосуточный неизменяемый журнал действий. Если бы ситуация с Boeing происходила на Fabric, группе расследования не пришлось бы три дня просматривать журналы, достаточно было бы одного запроса в блокчейне, чтобы узнать — из шести датчиков пять потеряли данные, были отключены вручную или алгоритм намеренно не сообщил. Не отвертеться.
Когда Circle сотрудничал с OpenMind, в圈内 все активно использовали USDC для роботов. На самом деле, понимающие люди обращают внимание на другую вещь: за инфраструктурой платежей стоит то, что машины начинают получать финансовую идентичность. Когда машины могут сами оплачивать электроэнергию, покупать вычислительные мощности и оплачивать страховку, они больше не являются фиксированными активами, а становятся экономическими субъектами с доходными счетами и кредитными историями. Экономические субъекты должны отвечать за свои действия, как отвечать? Блокчейн-журнал действий говорит сам за себя.
Fabric уже подключил более 2300 общих зарядных станций и более 8000 вычислительных узлов. Операционная система OM1 работает на гуманоидном роботе Yushu и даже была на Nasdaq, когда били в гонг. В следующем месяце, когда роботы-доставщики начнут доставку на улицах, вы сможете открыть блокчейн-браузер и увидеть, в какое время и где этот робот выполняет задачу, прошла ли логика принятия решений проверку узлами, пытался ли он отклониться от безопасной границы.
Еще более жестким является механизм PoRW — доказательство работы робота. Узлы, желающие участвовать в проверке, сначала должны заложить ROBO. Хорошая работа вознаграждается, плохая — конфискацией. Эта механика привязки интересов заставляет людей, желающих совершить зло, сначала подсчитывать — стоимость атаки в десять раз выше, чем выгода, только глупцы пойдут на это.
$ROBO за время от аэро-дропа до запуска достиг рыночной капитализации в 1,17 миллиарда, объем торгов поднялся до 1,67 миллиарда. Логика ценообразования на рынке на самом деле очень проста: кто сможет предоставить страховку для регулирования в эпоху машин, тот и держит ключ к экономике машин.
Мой друг, работающий в области авиационной безопасности, после прочтения отчета о расследовании Boeing, отправил голосовое сообщение: раньше при расследовании инцидентов люди спорили между собой. В будущем при расследовании инцидентов люди будут спорить с машинами, машины будут спорить с машинами, и без блокчейн-учетной книги не разберешься, когда это закончится.