Снова смотрю на @ZEROBASE , и я на самом деле все время думаю об одном вопросе: когда проект одновременно объединяет нулевые знания и надежные среды выполнения, что он на самом деле пытается решить?
В последние несколько лет ZK и TEE в основном были двумя параллельными линиями. Люди с ZK считают, что TEE зависит от аппаратных производителей, недостаточно децентрализован; люди с TEE считают, что генерация ZK-доказательства слишком медленная и дорогая, не подходит для сложных вычислений. Обе стороны имеют своих сторонников и не могут прийти к согласию. Zerobase же хорошо, просто сварил эти две вещи вместе, создав нечто под названием "сеть минимизации доверия" (TMEN).
Я немного обдумал этот дизайн и обнаружил, что он на самом деле довольно умный. TEE отвечает за то, чтобы на аппаратном уровне запирать данные в "сейф" — используя такие аппаратные решения, как AMD SEV-SNP или Intel TDX, гарантируя, что оригинальные данные никто не сможет украсть или изменить в процессе выполнения. ZK, в свою очередь, отвечает за извлечение "результата, вычисленного в сейфе", превращая его в математическое доказательство, которое может проверить любой, и отправляет его в цепочку. Эти две вещи объединяются, и эффект получается 1+1>2: TEE решает проблему производительности ZK в сложных вычислительных сценариях, а ZK компенсирует проблему единой точки доверия, когда можно доверять только аппаратным производителям.
Некоторые тестовые данные показывают, что TPS этой гибридной архитектуры может достигать 17 раз больше, чем традиционный ZK Rollup. Я не могу проверить эти данные, но логически это имеет смысл — в конце концов, TEE фактически освобождает вычислительный процесс от тяжести криптографии, и ZK отвечает только за последнее доказательство.
Еще одно, что произвело на меня впечатление, это дизайн их "многоуровневой сети". Zerobase делит узлы на Proving Nodes и HUB Nodes. Proving Nodes отвечают за сложные задачи — генерацию ZK-доказательства, необходимо заложить токены и обеспечить TEE-аппаратурой. HUB Nodes отвечают за распределение задач, распределяя запросы на доказательство к подходящему Proving Node. Эта система распределения на самом деле имитирует логику балансировки нагрузки в облачных вычислениях: используя согласованное хеширование, узлы делятся на подмножества, каждое из которых управляется независимым "центром", и новые узлы, присоединяясь, могут автоматически находить ближайшую точку доступа, избегая единой точки отказа.
