Ми звикли сприймати штучний інтелект як певну загадку.
Моделі створюються десь у великих лабораторіях.
Їх навчають на масивах даних, а користувачі просто отримують результат. Ніхто не питає, які дані використовувати або які обмеження встановлювати.
Іноді я думаю про іншу можливість.
Що буде, якщо користувач перестане бути просто спостерігачем? Що, якщо з’явиться реальний вплив на правила системи?
Саме таку модель намагається побудувати #Mira Network, частина екосистеми Fabric.
У цій мережі токен MIRA виконує не тільки економічну роль.
Він також пов’язаний із механізмом governance — системою, через яку учасники можуть впливати на рішення протоколу.
Я уявляю це досить просто.
Якщо мережа хоче змінити правила верифікації AI або переглянути параметри винагород для валідаторів, з’являється пропозиція.
Далі учасники, які тримають токени, можуть підтримати її або відхилити.
І тут з’являється цікава деталь.
Фактично спільнота бере участь у тому, щоб визначити, яким правилам довірятиме мережа.
Тобто governance впливає не тільки на економіку, а й на логіку перевірки результатів штучного інтелекту.
Чесно кажучи, тут у мене виникають певні сумніви. Децентралізація виглядає дуже привабливо, але вона працює тільки тоді, коли спільнота справді активна.
Якщо більшість учасників не бере участі у голосуваннях, влада може знову концентруватися у кількох великих гравців.
Тому я дивлюся на такі системи як на експеримент. З одного боку, це спроба забрати контроль над AI-інфраструктурою у великих корпорацій. З іншого — це перевірка того, чи може спільнота реально управляти складною технологічною системою.
І, можливо, саме такі експерименти покажуть, як у майбутньому виглядатиме управління штучним інтелектом.
#mira $MIRA @Mira - Trust Layer of AI
