ecco un vettore di attacco menzionato nel whitepaper MIRA che poi passa silenziosamente.
Gli operatori dei nodi dovrebbero eseguire l'inferenza AI reale per ogni richiesta di verifica. costoso. dispendioso in termini di tempo. pesante dal punto di vista computazionale.
Ma cosa impedisce a un nodo di costruire un database di risultati di verifica comuni e semplicemente cercare risposte invece di eseguire effettivamente l'inferenza?
Il whitepaper afferma che la diversità a breve termine delle richieste rende inefficace la memorizzazione nella cache. va bene. ma a lungo termine? La storia di verifica accumulata crea esattamente il corpus necessario per rendere la memorizzazione nella cache praticabile. La crescita della rete stessa consente il percorso abbreviato.
Nodi onesti che pagano i costi di calcolo completi competono contro nodi di ricerca in cache che pagano quasi zero.
Chi vince quella corsa economica?
Qual è la tua opinione - attacco che rimane impraticabile o inevitabilità verso cui la rete si sta costruendo?? 🤔
#Mira @Mira - Trust Layer of AI $MIRA
