Ieri, pagina partenerilor de pe site-ul oficial NVIDIA a fost actualizată, iar Vanar Chain a fost inclus în lista de membri a programului NVIDIA Inception (date din 10 februarie). Aceasta nu este genul de prezentare a logo-ului cumpărat cu bani – Inception oferă acces prioritar la tehnologiile CUDA, TensorRT și Omniverse.
Îi traduc în termeni simpli: dezvoltatorii de AI de pe #vanar pot rula modele direct prin interfața de instrucțiuni a plăcii grafice NVIDIA, fără a fi nevoie să scrie un strat de compatibilitate. Ciclu de dezvoltare comprimat de la 3 luni la 11 zile.
Un prieten din Shenzhen lucrează la generarea de anime-uri AI și anul trecut dorea să implementeze un DApp cu un filtru stilizat pe Vanar, dar a fost blocat timp de trei săptămâni din cauza compatibilității CUDA, în cele din urmă externalizând echipei de algoritmi pentru 27.000 de dolari. El spune că dacă ar fi avut acest set de instrumente Inception, doi ingineri interni ar fi putut termina în două săptămâni, cu un cost maxim de 8.000 de dolari.
Oficialii Vanar nu au spus dacă acest set de instrumente este cu plată sau nu. Dar bănuiesc că logica este aceasta: deschidere gratuită pentru apelurile de bază CUDA, caracteristici avansate - cum ar fi fluxul de redare în timp real Omniverse, accelerarea procesării în loturi TensorRT - fiind taxate pe utilizare cu VANRY. Referindu-ne la prețul AWS Inferentia, accelerarea inferenței per utilizare este de 0.0002 dolari, echivalentul a 0.035 VANRY.
Acum, pe Vanar sunt aproximativ 30 de DApp-uri de tip AI, cu aproximativ 500.000 de cereri de inferență pe zi. Dacă 20% dintre acestea necesită accelerare TensorRT, consumul anual de VANRY = 500.000 × 20% × 365 × 0.035 = 1.277.500 de unități. Asta nu include jocurile, metaversul, DePIN.
NVIDIA a ales Vanar în loc de alt L1, nu pentru că Vanar ar fi atât de performant, ci pentru că a reconstruit logica de memorie și programare pentru fluxul de lucru AI din genele sale. Această concluzie, dezvoltatorii nu o înțeleg acum, dar o vor înțelege pe deplin la reînnoirea anuală.
