Déshabiller la chaîne publique AI : S'accrocher à TPS est devenu obsolète, l'intelligence native est la prochaine tendance
Récemment, en revisitant les projets conceptuels AI sur le marché, l'abondance de la location de puissance de calcul et du stockage décentralisé peut être épuisante. En grattant cette couche, vous découvrirez que la plupart des projets ne font que résister avec une architecture sous-jacente vieillissante à cette nouvelle narration. La blockchain vise une redondance de sécurité absolue, tandis que l'inférence des modèles AI nécessite un très haut niveau de concurrence et une latence extrêmement faible. Ces deux éléments sont intrinsèquement contradictoires. Ce n'est qu'après avoir examiné attentivement la pile technologique de @Vanarchain et leurs actions spécifiques dans NVIDIA Inception que j'ai eu l'impression que quelqu'un s'attaquait enfin à ce noyau dur qu'est l'intelligence native.
Actuellement, de nombreuses chaînes publiques affirment embrasser l'AI, mais en réalité, elles ne font qu'un registre en chaîne extrêmement coûteux. Vanar est allé se connecter aux bibliothèques CUDA-X et TensorRT de NVIDIA, ce qui est un peu au-delà des attentes. Cela signifie qu'ils ne veulent pas seulement créer une base de données de preuves, mais qu'ils veulent transformer les nœuds en couche de calcul. En utilisant TensorRT pour optimiser les modèles, les nœuds pourraient même à l'avenir déployer directement des tâches d'inférence légères. Si l'on pouvait vraiment faire fonctionner en temps réel des NPC dynamiques dans les jeux blockchain ou des modèles de gestion des risques quantitatifs DeFi directement sur la chaîne, cela réécrirait complètement la logique d'évaluation de l'ensemble du secteur. Ce point d'entrée technologique hardcore est en effet beaucoup plus concret que de vendre simplement la surface.
En plus de l'accumulation pure de puissance de calcul, le véritable goulet d'étranglement actuel est le coût de friction du débit de données. Les grands modèles doivent ingérer une quantité massive de données chaque jour, mais stocker quoi que ce soit sur la chaîne est exorbitant. La technologie de compression rapide Neutron développée par Vanar touche vraiment au cœur du problème. En compressant des tonnes d'ensembles d'entraînement presque sous vide avant de les envoyer sur la chaîne, et avec des frais de Gas si bas qu'ils peuvent être négligés, cela pave vraiment la voie pour des interactions AI Agent à haute fréquence. Sans une optimisation de cette ampleur au niveau de l'architecture sous-jacente, l'AI sur la chaîne restera toujours une fausse promesse. Maintenant, il semble qu'ils se positionnent effectivement à l'avance pour l'ère du haut calcul, ce qui mérite d'investir un peu plus d'énergie pour un suivi à long terme. #vanar $VANRY
