Binance Square

海苔

|土狗冲击者|优质项目发掘师|二级分析丨币安邀请码:BN66234
Ouvert au trading
Détenteur pour PIEVERSE
Détenteur pour PIEVERSE
Trade fréquemment
1.8 an(s)
150 Suivis
10.0K+ Abonnés
2.3K+ J’aime
639 Partagé(s)
Publications
Portefeuille
PINNED
·
--
Quoi ? La Réserve fédérale ne baisse pas les taux d'intérêt ce mois-ci ?Pourquoi la Réserve fédérale ne baisse-t-elle pas les taux d'intérêt ce mois-ci ? Un choix prudent dans le cadre des données économiques et des jeux de marché. Ce mois-ci, la Réserve fédérale a de nouveau choisi de "rester sur ses gardes", maintenant le taux d'intérêt de référence dans une fourchette de 3,50 % à 3,75 %. Cela représente à la fois le résultat largement anticipé par le marché et un choix prudent réfléchi de la Réserve fédérale dans le contexte économique complexe actuel. Orientation des données : La réalité économique derrière le maintien des taux d'intérêt. Pourquoi la Réserve fédérale ne baisse-t-elle pas les taux d'intérêt ? L'économie américaine actuelle présente une situation délicate de "ni froid ni chaud", ce qui laisse les décideurs politiques sans motivation à agir immédiatement. Inflation : obstinément au-dessus de l'objectif. Les données de décembre dernier montrent que le taux d'inflation américain a encore augmenté de 2,7 % par rapport à l'année précédente, bien qu'il ait reculé par rapport à son pic, il reste néanmoins supérieur à l'objectif de 2 % à long terme fixé par la Réserve fédérale. C'est comme un malade qui a une fièvre qui diminue lentement mais n'est pas guéri, le médecin ne cessera naturellement pas d'observer.

Quoi ? La Réserve fédérale ne baisse pas les taux d'intérêt ce mois-ci ?

Pourquoi la Réserve fédérale ne baisse-t-elle pas les taux d'intérêt ce mois-ci ? Un choix prudent dans le cadre des données économiques et des jeux de marché.
Ce mois-ci, la Réserve fédérale a de nouveau choisi de "rester sur ses gardes", maintenant le taux d'intérêt de référence dans une fourchette de 3,50 % à 3,75 %. Cela représente à la fois le résultat largement anticipé par le marché et un choix prudent réfléchi de la Réserve fédérale dans le contexte économique complexe actuel.

Orientation des données : La réalité économique derrière le maintien des taux d'intérêt.
Pourquoi la Réserve fédérale ne baisse-t-elle pas les taux d'intérêt ? L'économie américaine actuelle présente une situation délicate de "ni froid ni chaud", ce qui laisse les décideurs politiques sans motivation à agir immédiatement.

Inflation : obstinément au-dessus de l'objectif.
Les données de décembre dernier montrent que le taux d'inflation américain a encore augmenté de 2,7 % par rapport à l'année précédente, bien qu'il ait reculé par rapport à son pic, il reste néanmoins supérieur à l'objectif de 2 % à long terme fixé par la Réserve fédérale. C'est comme un malade qui a une fièvre qui diminue lentement mais n'est pas guéri, le médecin ne cessera naturellement pas d'observer.
·
--
État du marché : fluctuation Niveau clé : 67,900 USDT Pression supérieure : 68,500 / 68,700 USDT Support inférieur : 67,500 / 66,400 USDT Ligne long/court (BBI) : le prix de clôture d'une heure est en dessous de la ligne indicatrice, tandis que sur 4 heures, il est légèrement au-dessus de la ligne indicatrice, montrant une divergence à court terme entre les positions longues et courtes. Bande de Bollinger (BOLL) : le prix de clôture d'une heure est en dessous de la ligne médiane (68,163) et au-dessus de la ligne inférieure (67,670), indiquant que le prix évolue dans la moitié inférieure de la plage et que la plage se resserre. Autres indicateurs : le MACD montre une demande de correction à court terme ; le KDJ indique une probabilité relativement élevée de fluctuations à court terme ; la force du RSI dépend du résultat de clôture du prix au niveau clé. D'après la structure des moyennes mobiles, le rebond au niveau quotidien repose principalement sur les moyennes mobiles à court terme (MA5/MA7), mais il y a encore une pression de la MA20 au-dessus. Contexte de long terme : le niveau hebdomadaire est toujours traité avec une perspective légèrement baissière. Avant que le niveau clé de 71,400 USDT sur la semaine ne soit efficacement récupéré, tous les rebonds sont considérés comme une correction technique. La clôture quotidienne reste en dessous de 68,000 USDT, indiquant que la zone de pression au niveau quotidien n'a pas encore été efficacement franchie. Clé du jour : le prix d'observation principal est de 67,900 USDT. Tant que la clôture horaire est dans la plage de 67,800 - 68,000 USDT, cela maintient le jugement de rythme de fluctuation. Réponse spécifique : Au-dessus : surveiller les pressions de 68,500 et 68,700 USDT. Si la ligne horaire ne peut pas se maintenir au-dessus, chaque poussée sera considérée comme un test de la pression. En dessous : surveiller les supports de 67,500 et 66,400 USDT. Si le support tient, un retour peut être considéré comme une zone potentielle d'accumulation. Changement qualitatif : ce n'est que lorsque la clôture horaire peut se maintenir au-dessus de 68,000 USDT et durer plus de 4 heures que la qualité du marché peut passer de "fluctuation" à "légèrement haussier". À l'inverse, si la clôture horaire tombe en dessous de 67,800 USDT, l'opinion se tournera vers une perspective baissière. $BTC $ETH {future}(ETHUSDT) {future}(BTCUSDT)
État du marché : fluctuation
Niveau clé : 67,900 USDT
Pression supérieure : 68,500 / 68,700 USDT
Support inférieur : 67,500 / 66,400 USDT

Ligne long/court (BBI) : le prix de clôture d'une heure est en dessous de la ligne indicatrice, tandis que sur 4 heures, il est légèrement au-dessus de la ligne indicatrice, montrant une divergence à court terme entre les positions longues et courtes.
Bande de Bollinger (BOLL) : le prix de clôture d'une heure est en dessous de la ligne médiane (68,163) et au-dessus de la ligne inférieure (67,670), indiquant que le prix évolue dans la moitié inférieure de la plage et que la plage se resserre.
Autres indicateurs : le MACD montre une demande de correction à court terme ; le KDJ indique une probabilité relativement élevée de fluctuations à court terme ; la force du RSI dépend du résultat de clôture du prix au niveau clé. D'après la structure des moyennes mobiles, le rebond au niveau quotidien repose principalement sur les moyennes mobiles à court terme (MA5/MA7), mais il y a encore une pression de la MA20 au-dessus.

Contexte de long terme : le niveau hebdomadaire est toujours traité avec une perspective légèrement baissière. Avant que le niveau clé de 71,400 USDT sur la semaine ne soit efficacement récupéré, tous les rebonds sont considérés comme une correction technique. La clôture quotidienne reste en dessous de 68,000 USDT, indiquant que la zone de pression au niveau quotidien n'a pas encore été efficacement franchie.
Clé du jour : le prix d'observation principal est de 67,900 USDT. Tant que la clôture horaire est dans la plage de 67,800 - 68,000 USDT, cela maintient le jugement de rythme de fluctuation.
Réponse spécifique :
Au-dessus : surveiller les pressions de 68,500 et 68,700 USDT. Si la ligne horaire ne peut pas se maintenir au-dessus, chaque poussée sera considérée comme un test de la pression.
En dessous : surveiller les supports de 67,500 et 66,400 USDT. Si le support tient, un retour peut être considéré comme une zone potentielle d'accumulation.
Changement qualitatif : ce n'est que lorsque la clôture horaire peut se maintenir au-dessus de 68,000 USDT et durer plus de 4 heures que la qualité du marché peut passer de "fluctuation" à "légèrement haussier". À l'inverse, si la clôture horaire tombe en dessous de 67,800 USDT, l'opinion se tournera vers une perspective baissière. $BTC $ETH
·
--
Voir la traduction
在开发者论坛里看到个帖子,有人在问:“想把Solana上的项目迁到@fogo ,大概要改多少代码?” 底下有人回了句:“我迁过一个DEX,改了配置文件,跑了。” 这事让我琢磨了一下。新公链冷启动最难的是什么?不是技术,不是资金,是开发者愿不愿意来。让一个人为了新链重新学一套语言、重写一套合约、重构整个前端,成本太高了。大部分L1就是这么死的——技术吹得天花乱坠,开发者看一眼文档就走了。 Fogo选SVM,本质上是在回答这个问题:怎么让开发者不重学、不重写、不重构? Solana这几年攒下来的开发者,是实打实的存量资产。那些在Rust里摸爬滚打出来的人,那些被Solana网络折腾得够呛但舍不得换赛道的人,现在多了一个出口。工具链不用换,调试器还能用,连合约代码都能直接跑。有人测试过,把一个永续合约迁过去,gas消耗低了一截,出块时间稳定在40毫秒上下。这意味着什么?意味着迁移成本几乎为零。 Fogo的文档里专门有一章叫“从Solana迁移”,步骤列得清清楚楚,连常见的兼容性问题都提前标出来了。这种细节说明他们是真想让人过来,不是在喊口号。 还有个点:Fogo集成了Pyth和Wormhole。这俩本身就是Solana生态长出来的,开发者本来就熟。等于说,不光开发环境一样,连周边的工具链、数据源、跨链协议都是同一套。 Fogo是个不用改行、不用重学、不用换工具链的选项。#fogo $FOGO
在开发者论坛里看到个帖子,有人在问:“想把Solana上的项目迁到@Fogo Official ,大概要改多少代码?”

底下有人回了句:“我迁过一个DEX,改了配置文件,跑了。”

这事让我琢磨了一下。新公链冷启动最难的是什么?不是技术,不是资金,是开发者愿不愿意来。让一个人为了新链重新学一套语言、重写一套合约、重构整个前端,成本太高了。大部分L1就是这么死的——技术吹得天花乱坠,开发者看一眼文档就走了。

Fogo选SVM,本质上是在回答这个问题:怎么让开发者不重学、不重写、不重构?

Solana这几年攒下来的开发者,是实打实的存量资产。那些在Rust里摸爬滚打出来的人,那些被Solana网络折腾得够呛但舍不得换赛道的人,现在多了一个出口。工具链不用换,调试器还能用,连合约代码都能直接跑。有人测试过,把一个永续合约迁过去,gas消耗低了一截,出块时间稳定在40毫秒上下。这意味着什么?意味着迁移成本几乎为零。

Fogo的文档里专门有一章叫“从Solana迁移”,步骤列得清清楚楚,连常见的兼容性问题都提前标出来了。这种细节说明他们是真想让人过来,不是在喊口号。

还有个点:Fogo集成了Pyth和Wormhole。这俩本身就是Solana生态长出来的,开发者本来就熟。等于说,不光开发环境一样,连周边的工具链、数据源、跨链协议都是同一套。

Fogo是个不用改行、不用重学、不用换工具链的选项。#fogo $FOGO
·
--
Voir la traduction
预言机、跨链、合约执行:Fogo在三件事上做了不同选择最近在翻一些L1的对比数据,发现一个现象:很多链的TPS是在理想环境下测出来的,一旦加上跨链、预言机、复杂合约这些真实世界的变量,数字就往下掉。@fogo 倒是把这事反过来做——它先保证复杂环境下的稳定性,再谈峰值。 这个思路在它的架构里能看出来。Fogo没有自己做预言机,而是直接集成了Pyth。Pyth本身就是做高频数据出身,在Solana上给永续合约、期权、借贷喂价,延迟控制在毫秒级。Fogo把这个关系延续下来,等于把价格数据这个最容易出问题的环节外包给了最专业的团队。别的链还要考虑预言机延迟、数据源可靠性,Fogo这边直接绕过去了——因为做数据的人和做链的人是同一拨。 另一个细节是#fogo 对Wormhole的整合方式。很多公链接跨链桥,就是搭个通道让资产过来,剩下的不管了。Fogo这边不一样,Wormhole是作为官方原生桥嵌入的,用户从以太坊、Solana、BSC转USDC进来,整个流程和本地转账的体验差不多。高频套利的人资产往往分散在各处,如果每笔资金进来都要等几分钟跨链,那Fogo再快也白搭。现在这个整合,等于把入金的摩擦降到最低。 还有一点是关于合约执行的。Fogo兼容SVM,Solana上的合约稍微改改就能跑过来。但兼容只是第一步,关键是在这个环境下能不能跑出预期的性能。有人做过测试,把一个Solana上的永续合约迁移过来,gas消耗低了一截,出块时间稳定在40毫秒上下。这意味着什么?意味着开发者不用为了换个环境重新学一套语言、重写一套逻辑,现有的代码和工具链还能接着用。 $FOGO 的测试网数据是公开的,跑了4000万笔交易才上线主网。这个数字背后是一套对延迟极度敏感的测试流程——在Pyth的体系里,数据慢几毫秒就是事故。Fogo带着这种基因做测试,对稳定性的要求自然跟普通公链不太一样。

预言机、跨链、合约执行:Fogo在三件事上做了不同选择

最近在翻一些L1的对比数据,发现一个现象:很多链的TPS是在理想环境下测出来的,一旦加上跨链、预言机、复杂合约这些真实世界的变量,数字就往下掉。@Fogo Official 倒是把这事反过来做——它先保证复杂环境下的稳定性,再谈峰值。

这个思路在它的架构里能看出来。Fogo没有自己做预言机,而是直接集成了Pyth。Pyth本身就是做高频数据出身,在Solana上给永续合约、期权、借贷喂价,延迟控制在毫秒级。Fogo把这个关系延续下来,等于把价格数据这个最容易出问题的环节外包给了最专业的团队。别的链还要考虑预言机延迟、数据源可靠性,Fogo这边直接绕过去了——因为做数据的人和做链的人是同一拨。

另一个细节是#fogo 对Wormhole的整合方式。很多公链接跨链桥,就是搭个通道让资产过来,剩下的不管了。Fogo这边不一样,Wormhole是作为官方原生桥嵌入的,用户从以太坊、Solana、BSC转USDC进来,整个流程和本地转账的体验差不多。高频套利的人资产往往分散在各处,如果每笔资金进来都要等几分钟跨链,那Fogo再快也白搭。现在这个整合,等于把入金的摩擦降到最低。

还有一点是关于合约执行的。Fogo兼容SVM,Solana上的合约稍微改改就能跑过来。但兼容只是第一步,关键是在这个环境下能不能跑出预期的性能。有人做过测试,把一个Solana上的永续合约迁移过来,gas消耗低了一截,出块时间稳定在40毫秒上下。这意味着什么?意味着开发者不用为了换个环境重新学一套语言、重写一套逻辑,现有的代码和工具链还能接着用。

$FOGO 的测试网数据是公开的,跑了4000万笔交易才上线主网。这个数字背后是一套对延迟极度敏感的测试流程——在Pyth的体系里,数据慢几毫秒就是事故。Fogo带着这种基因做测试,对稳定性的要求自然跟普通公链不太一样。
·
--
Récemment, j'ai remarqué un détail et découvert que l'équipe derrière @fogo est en fait plus intéressante que je ne l'avais imaginé. Le développeur de Fogo est Douro Labs - ce nom peut sembler étranger, mais c'est l'un des principaux contributeurs derrière le Pyth Network. Qu'est-ce que Pyth ? C'est l'oracle à faible latence le plus important dans le domaine de la DeFi, spécialement conçu pour fournir des prix pour le trading à haute fréquence, avec une mise à jour des données en millisecondes. En d'autres termes, ces gens travaillent depuis plus de trois ans sur la question : "Comment rendre les données plus rapides ?" En regardant Fogo maintenant, on comprend mieux : ce n'est pas un groupe de développeurs de chaînes publiques qui a soudainement décidé de créer une chaîne, mais un groupe de personnes travaillant sur des données à haute fréquence, réalisant que l'infrastructure de base ne suit pas et décidant de combler les lacunes eux-mêmes. Cette logique se reflète dans le choix technique. Pyth fournit à Fogo une intégration d'oracle natif, ce qui revient à introduire les données de prix les plus essentielles par le chemin le plus rapide. D'autres chaînes doivent encore considérer le problème de la latence des oracles, mais ici, Fogo contourne directement ce problème - car ceux qui font des oracles sont aussi ceux qui font la chaîne. Un autre point est l'intégration de Wormhole. Lorsque le réseau principal de Fogo a été lancé, Wormhole a été directement intégré en tant que pont natif officiel, permettant aux utilisateurs de transférer des actifs depuis plus de 40 chaînes. En surface, cela semble être une opération inter-chaînes, mais en y réfléchissant plus profondément : la transmission de messages inter-chaînes de Wormhole est également conçue pour être à faible latence. En choisissant de collaborer avec eux, Fogo s'assure que toute la chaîne, de l'entrée de fonds au trading en passant par les données, vise l'objectif de la "rapidité". Un autre petit détail : le réseau de test de Fogo a exécuté plus de 40 millions de transactions avant de lancer le réseau principal. Ce chiffre est le résultat du processus de test extrêmement sensible à la latence de Pyth - dans le système de Pyth, des données qui prennent quelques millisecondes de retard représentent un incident. Fogo, avec ce type de gène pour les tests, a naturellement des exigences de stabilité assez différentes de celles des chaînes publiques ordinaires. #fogo $FOGO
Récemment, j'ai remarqué un détail et découvert que l'équipe derrière @Fogo Official est en fait plus intéressante que je ne l'avais imaginé.

Le développeur de Fogo est Douro Labs - ce nom peut sembler étranger, mais c'est l'un des principaux contributeurs derrière le Pyth Network. Qu'est-ce que Pyth ? C'est l'oracle à faible latence le plus important dans le domaine de la DeFi, spécialement conçu pour fournir des prix pour le trading à haute fréquence, avec une mise à jour des données en millisecondes. En d'autres termes, ces gens travaillent depuis plus de trois ans sur la question : "Comment rendre les données plus rapides ?"

En regardant Fogo maintenant, on comprend mieux : ce n'est pas un groupe de développeurs de chaînes publiques qui a soudainement décidé de créer une chaîne, mais un groupe de personnes travaillant sur des données à haute fréquence, réalisant que l'infrastructure de base ne suit pas et décidant de combler les lacunes eux-mêmes.

Cette logique se reflète dans le choix technique. Pyth fournit à Fogo une intégration d'oracle natif, ce qui revient à introduire les données de prix les plus essentielles par le chemin le plus rapide. D'autres chaînes doivent encore considérer le problème de la latence des oracles, mais ici, Fogo contourne directement ce problème - car ceux qui font des oracles sont aussi ceux qui font la chaîne.

Un autre point est l'intégration de Wormhole. Lorsque le réseau principal de Fogo a été lancé, Wormhole a été directement intégré en tant que pont natif officiel, permettant aux utilisateurs de transférer des actifs depuis plus de 40 chaînes. En surface, cela semble être une opération inter-chaînes, mais en y réfléchissant plus profondément : la transmission de messages inter-chaînes de Wormhole est également conçue pour être à faible latence. En choisissant de collaborer avec eux, Fogo s'assure que toute la chaîne, de l'entrée de fonds au trading en passant par les données, vise l'objectif de la "rapidité".

Un autre petit détail : le réseau de test de Fogo a exécuté plus de 40 millions de transactions avant de lancer le réseau principal. Ce chiffre est le résultat du processus de test extrêmement sensible à la latence de Pyth - dans le système de Pyth, des données qui prennent quelques millisecondes de retard représentent un incident. Fogo, avec ce type de gène pour les tests, a naturellement des exigences de stabilité assez différentes de celles des chaînes publiques ordinaires. #fogo $FOGO
·
--
Voir la traduction
节点越少就越中心化?Fogo给了另一个答案Fogo这条链对“去中心化”的理解,可能跟整个行业的共识不太一样。 圈里谈去中心化,默认的衡量标准就是节点数量——节点越多越去中心化,越少就越接近许可链。Fogo主网目前只有不到30个验证者,按这个标准活该被喷。但翻完它的设计逻辑,我开始怀疑这套标准本身是不是出了问题。 @fogo 的选择是:与其让一万个节点“平均地慢”,不如让三十个节点“一致地快”。 这个思路在单一客户端策略上体现得最彻底。大多数公链强调多客户端,是为了代码多样性防漏洞。但Fogo的逻辑是:如果目标是高频交易级别的响应速度,那网络速度就只能由最慢的客户端决定。Solana的Firedancer能跑百万TPS,但上了主网得跟其他客户端协同,性能就往下掉。Fogo等于把这个包袱卸掉了——所有节点用同一套引擎,谁也别拖谁后腿。 有人会说:这不就是中心化吗? 但换个角度想:如果“去中心化”的定义是“权力不被少数人垄断”,那Fogo的验证者筛选机制其实在干另一件事——它不是不让更多人进来,而是让进来的人必须具备跑快的能​​力。硬件门槛写得清清楚楚:24核CPU、128GB内存、4TB NVMe SSD,还得有跑Solana或Hyperliquid高性能网络的经验。这像什么?像F1赛道不让老爷车上场——不是因为歧视,是因为上去会出事。 另一个值得玩味的点是那个“多区域共识”。 Fogo把验证者集中在东京、纽约、伦敦的数据中心,按“Follow the Sun”轮换——亚洲交易时段东京主导,欧美时段换到纽约伦敦。这套设计的妙处在于:它承认物理规律没法突破,光速就是上限,那就别硬扛,而是用调度来绕开它。 而且它留了一道保险:如果某个区域出问题、投票没达标,网络会自动切回“全球共识模式”保底。这等于给地理化布局上了个安全阀——追求速度,但不为速度牺牲可用性。 其实Fogo在重新定义一件事:什么才是有意义的去中心化? 传统思路是把验证者撒得越散越好,最好每个大洲都有,每个国家都有。但现实是,散得太开意味着延迟高、同步慢,最后跑出来的是一条“平均意义上可用、极端情况下卡顿”的链。对于普通转账,这能忍。但对于高频交易、永续合约、实时清算,这就是致命伤。 Fogo的选择是:让最适合当前时区的节点先跑起来。不是放弃全球性,而是更聪明地实现全球性——在时空维度上动态平衡速度与分布#fogo $FOGO

节点越少就越中心化?Fogo给了另一个答案

Fogo这条链对“去中心化”的理解,可能跟整个行业的共识不太一样。
圈里谈去中心化,默认的衡量标准就是节点数量——节点越多越去中心化,越少就越接近许可链。Fogo主网目前只有不到30个验证者,按这个标准活该被喷。但翻完它的设计逻辑,我开始怀疑这套标准本身是不是出了问题。

@Fogo Official 的选择是:与其让一万个节点“平均地慢”,不如让三十个节点“一致地快”。
这个思路在单一客户端策略上体现得最彻底。大多数公链强调多客户端,是为了代码多样性防漏洞。但Fogo的逻辑是:如果目标是高频交易级别的响应速度,那网络速度就只能由最慢的客户端决定。Solana的Firedancer能跑百万TPS,但上了主网得跟其他客户端协同,性能就往下掉。Fogo等于把这个包袱卸掉了——所有节点用同一套引擎,谁也别拖谁后腿。

有人会说:这不就是中心化吗?
但换个角度想:如果“去中心化”的定义是“权力不被少数人垄断”,那Fogo的验证者筛选机制其实在干另一件事——它不是不让更多人进来,而是让进来的人必须具备跑快的能​​力。硬件门槛写得清清楚楚:24核CPU、128GB内存、4TB NVMe SSD,还得有跑Solana或Hyperliquid高性能网络的经验。这像什么?像F1赛道不让老爷车上场——不是因为歧视,是因为上去会出事。

另一个值得玩味的点是那个“多区域共识”。
Fogo把验证者集中在东京、纽约、伦敦的数据中心,按“Follow the Sun”轮换——亚洲交易时段东京主导,欧美时段换到纽约伦敦。这套设计的妙处在于:它承认物理规律没法突破,光速就是上限,那就别硬扛,而是用调度来绕开它。
而且它留了一道保险:如果某个区域出问题、投票没达标,网络会自动切回“全球共识模式”保底。这等于给地理化布局上了个安全阀——追求速度,但不为速度牺牲可用性。

其实Fogo在重新定义一件事:什么才是有意义的去中心化?
传统思路是把验证者撒得越散越好,最好每个大洲都有,每个国家都有。但现实是,散得太开意味着延迟高、同步慢,最后跑出来的是一条“平均意义上可用、极端情况下卡顿”的链。对于普通转账,这能忍。但对于高频交易、永续合约、实时清算,这就是致命伤。

Fogo的选择是:让最适合当前时区的节点先跑起来。不是放弃全球性,而是更聪明地实现全球性——在时空维度上动态平衡速度与分布#fogo $FOGO
·
--
La mise en place de Vanar dans le domaine de l'IA, ce qui m'a le plus surpris, ce n'est pas qu'il ait développé Neutron ou Kayon, mais qu'il est en train d'apporter directement l'"IA générative" sur la chaîne. Dans la feuille de route de 2026, @Vanar prévoit de lancer un ensemble d'outils génératifs : conversion de la voix en texte, génération d'images et de vidéos alimentée par l'IA, le tout intégré sur la chaîne. Qu'est-ce que cela signifie ? Cela signifie que les utilisateurs, à l'avenir dans le métavers Virtua, pourront générer directement des scènes virtuelles par la voix, générer des NFT par description textuelle, sans quitter la chaîne, sans appeler d'API externes, tout se faisant sur la chaîne. Pour les créateurs, c'est une véritable expérience de création "clé en main". Une autre action facilement négligée est son intégration avec le protocole MCP (Model Context Protocol). Grâce à ce protocole, des outils IA mainstream comme ChatGPT et Claude peuvent directement accéder aux données mémorielles sur la chaîne Vanar. Ce que vous avez discuté avec un NPC dans un jeu la semaine dernière, le contrat numérique signé le mois dernier, l'assistant IA peut s'en souvenir et peut vous aider à prendre des décisions basées sur ces contextes. Cela équivaut à transformer les données de la chaîne en "réserve de mémoire à long terme" de l'IA. Récemment, il a également intégré OpenClaw, incorporant directement la capacité de mémoire sémantique de Neutron dans le flux de travail des agents IA. Les agents peuvent maintenir une mémoire continue sur des plateformes comme Discord, Slack, WhatsApp — vous discutez avec lui d’un côté, changez d'application pour continuer la conversation, il peut reprendre sans interruption, sans avoir à recommencer. Cette mémoire persistante, inter-plateformes et inter-sessions, est la véritable essence de ce que devrait être l'"intelligence". La plupart des blockchains publiques qui font de l'IA, soit lancent un token pour surfer sur la tendance, soit accumulent quelques termes techniques. Les pas de Vanar empruntent un autre chemin : rendre l'IA véritablement utilisable, mémorisable, générative, et que tout cela se passe sur la chaîne. Pendant que d'autres chaînes se concentrent encore sur l'augmentation du TPS, il pense déjà à comment faire en sorte que la chaîne "apprenne à créer". #vanar $VANRY
La mise en place de Vanar dans le domaine de l'IA, ce qui m'a le plus surpris, ce n'est pas qu'il ait développé Neutron ou Kayon, mais qu'il est en train d'apporter directement l'"IA générative" sur la chaîne.

Dans la feuille de route de 2026, @Vanarchain prévoit de lancer un ensemble d'outils génératifs : conversion de la voix en texte, génération d'images et de vidéos alimentée par l'IA, le tout intégré sur la chaîne. Qu'est-ce que cela signifie ? Cela signifie que les utilisateurs, à l'avenir dans le métavers Virtua, pourront générer directement des scènes virtuelles par la voix, générer des NFT par description textuelle, sans quitter la chaîne, sans appeler d'API externes, tout se faisant sur la chaîne. Pour les créateurs, c'est une véritable expérience de création "clé en main".

Une autre action facilement négligée est son intégration avec le protocole MCP (Model Context Protocol). Grâce à ce protocole, des outils IA mainstream comme ChatGPT et Claude peuvent directement accéder aux données mémorielles sur la chaîne Vanar. Ce que vous avez discuté avec un NPC dans un jeu la semaine dernière, le contrat numérique signé le mois dernier, l'assistant IA peut s'en souvenir et peut vous aider à prendre des décisions basées sur ces contextes. Cela équivaut à transformer les données de la chaîne en "réserve de mémoire à long terme" de l'IA.

Récemment, il a également intégré OpenClaw, incorporant directement la capacité de mémoire sémantique de Neutron dans le flux de travail des agents IA. Les agents peuvent maintenir une mémoire continue sur des plateformes comme Discord, Slack, WhatsApp — vous discutez avec lui d’un côté, changez d'application pour continuer la conversation, il peut reprendre sans interruption, sans avoir à recommencer. Cette mémoire persistante, inter-plateformes et inter-sessions, est la véritable essence de ce que devrait être l'"intelligence".

La plupart des blockchains publiques qui font de l'IA, soit lancent un token pour surfer sur la tendance, soit accumulent quelques termes techniques. Les pas de Vanar empruntent un autre chemin : rendre l'IA véritablement utilisable, mémorisable, générative, et que tout cela se passe sur la chaîne. Pendant que d'autres chaînes se concentrent encore sur l'augmentation du TPS, il pense déjà à comment faire en sorte que la chaîne "apprenne à créer". #vanar $VANRY
·
--
Un contrat de facture peut-il se payer tout seul ? L'IA sur la chaîne de Vanar l'a fait.Vanar m'a récemment fait réfléchir à une question : à quoi devrait ressembler l'« intelligence » de la blockchain ? Au cours des dernières années, lorsqu'on parlait de contrats intelligents dans l'industrie, il s'agissait en réalité simplement d'« exécution automatique » - des actions déclenchées par des conditions, rien de plus. Il n'a pas de mémoire, ne peut pas comprendre le contexte, et encore moins raisonner. Vous téléchargez un contrat, il ne peut que rester là, attendant que quelqu'un l'appelle. C'est cela que Vanar veut changer. Chumi a récemment poussé deux choses : la couche de mémoire sémantique Neutron et le moteur de raisonnement AI sur la chaîne Kayon. Neutron peut compresser des données complexes comme des PDF ou des contrats en « graines de données » pour les conserver de manière permanente, permettant aux éléments sur la chaîne de ne plus être de simples caractères morts, mais plutôt des informations vivantes que l'IA peut comprendre. Kayon est encore plus direct - il exécute la logique de raisonnement sur la chaîne, permettant aux contrats de « penser » à des problèmes par eux-mêmes. Par exemple, un contrat de facture, une fois stocké, Kayon peut automatiquement vérifier le contenu et, une fois confirmé, déclencher le paiement, sans nécessiter d'intervention humaine.

Un contrat de facture peut-il se payer tout seul ? L'IA sur la chaîne de Vanar l'a fait.

Vanar m'a récemment fait réfléchir à une question : à quoi devrait ressembler l'« intelligence » de la blockchain ?
Au cours des dernières années, lorsqu'on parlait de contrats intelligents dans l'industrie, il s'agissait en réalité simplement d'« exécution automatique » - des actions déclenchées par des conditions, rien de plus. Il n'a pas de mémoire, ne peut pas comprendre le contexte, et encore moins raisonner. Vous téléchargez un contrat, il ne peut que rester là, attendant que quelqu'un l'appelle.

C'est cela que Vanar veut changer.
Chumi a récemment poussé deux choses : la couche de mémoire sémantique Neutron et le moteur de raisonnement AI sur la chaîne Kayon. Neutron peut compresser des données complexes comme des PDF ou des contrats en « graines de données » pour les conserver de manière permanente, permettant aux éléments sur la chaîne de ne plus être de simples caractères morts, mais plutôt des informations vivantes que l'IA peut comprendre. Kayon est encore plus direct - il exécute la logique de raisonnement sur la chaîne, permettant aux contrats de « penser » à des problèmes par eux-mêmes. Par exemple, un contrat de facture, une fois stocké, Kayon peut automatiquement vérifier le contenu et, une fois confirmé, déclencher le paiement, sans nécessiter d'intervention humaine.
·
--
Vanar est en train de changer en douceur les attentes des développeurs concernant "l'infrastructure blockchain". Un développeur ayant migré depuis l'écosystème Ethereum a utilisé un terme pour décrire ses sentiments après avoir déménagé au @Vanar : "La conception défensive peut enfin être mise de côté." C'est une remarque intéressante. Développer sur une grande chaîne publique implique de devoir anticiper une multitude de problèmes : que faire si le réseau est congestionné ? Comment alerter si les frais de gaz explosent ? Comment guider les utilisateurs qui n'ont pas de crypto pour payer les frais de transaction ? L'énergie des développeurs est largement consommée par ces "situations marginales" plutôt que par la logique produit principale. Ce que fait Vanar, c'est rendre ces situations marginales non nécessaires à anticiper. Le modèle de frais fixes transforme le coût du gaz en quelque chose de prévisible, avec un minimum de 0,0005 dollars, les développeurs n'ont plus besoin d'écrire aux utilisateurs une fenêtre pop-up expliquant "pourquoi c'est si cher". La détermination des transactions est maximale, les opérations complexes peuvent être entièrement traitées sur la chaîne, sans dépendre de serveurs externes pour synchroniser l'état. Les développeurs n'ont plus besoin de se barricader partout et peuvent commencer à faire confiance aux valeurs par défaut. Cette "prévisibilité" est en réalité une forme de pensée infrastructurelle plus fondamentale. La plupart des chaînes publiques offrent des "possibilités" - vous pouvez faire n'importe quoi, mais le coût est que vous devez gérer toutes les incertitudes vous-même. Vanar offre "la certitude" - ce que vous pouvez faire peut être moins, mais lorsque vous le faites, vous savez quel sera le résultat. Pour les développeurs cryptographiques habitués à naviguer dans l'incertitude, ce changement nécessite une adaptation. Mais une fois que vous vous y êtes habitué, il est difficile de revenir en arrière. Comme l'a dit ce développeur : quand vous avez été blessé par le désordre des infrastructures ailleurs, vous vous rendez compte que cet environnement concentré et prévisible est exactement ce que vous cherchiez depuis toujours. #vanar $VANRY
Vanar est en train de changer en douceur les attentes des développeurs concernant "l'infrastructure blockchain".

Un développeur ayant migré depuis l'écosystème Ethereum a utilisé un terme pour décrire ses sentiments après avoir déménagé au @Vanarchain : "La conception défensive peut enfin être mise de côté."

C'est une remarque intéressante. Développer sur une grande chaîne publique implique de devoir anticiper une multitude de problèmes : que faire si le réseau est congestionné ? Comment alerter si les frais de gaz explosent ? Comment guider les utilisateurs qui n'ont pas de crypto pour payer les frais de transaction ? L'énergie des développeurs est largement consommée par ces "situations marginales" plutôt que par la logique produit principale.

Ce que fait Vanar, c'est rendre ces situations marginales non nécessaires à anticiper. Le modèle de frais fixes transforme le coût du gaz en quelque chose de prévisible, avec un minimum de 0,0005 dollars, les développeurs n'ont plus besoin d'écrire aux utilisateurs une fenêtre pop-up expliquant "pourquoi c'est si cher". La détermination des transactions est maximale, les opérations complexes peuvent être entièrement traitées sur la chaîne, sans dépendre de serveurs externes pour synchroniser l'état. Les développeurs n'ont plus besoin de se barricader partout et peuvent commencer à faire confiance aux valeurs par défaut.

Cette "prévisibilité" est en réalité une forme de pensée infrastructurelle plus fondamentale. La plupart des chaînes publiques offrent des "possibilités" - vous pouvez faire n'importe quoi, mais le coût est que vous devez gérer toutes les incertitudes vous-même. Vanar offre "la certitude" - ce que vous pouvez faire peut être moins, mais lorsque vous le faites, vous savez quel sera le résultat.

Pour les développeurs cryptographiques habitués à naviguer dans l'incertitude, ce changement nécessite une adaptation. Mais une fois que vous vous y êtes habitué, il est difficile de revenir en arrière. Comme l'a dit ce développeur : quand vous avez été blessé par le désordre des infrastructures ailleurs, vous vous rendez compte que cet environnement concentré et prévisible est exactement ce que vous cherchiez depuis toujours. #vanar $VANRY
·
--
Une chaîne qui a grandi à partir des applications : Pourquoi Vanar pourrait être le prochain L1 'différent'@Vanar Ce qui m'a le plus marqué, c'est que ce n'est pas comme la plupart des chaînes publiques, qui sont 'conçues', mais plutôt comme si elles avaient 'grandi'. Que veut dire cela ? Regardez le parcours de la plupart des chaînes publiques : d'abord, établir le cadre technique, rédiger le livre blanc, dessiner la feuille de route, puis chercher des développeurs et des cas d'utilisation dans le monde entier. #vanar L'ordre est inversé - lorsqu'il travaillait sur Virtua (anciennement TVK), il servait déjà des géants comme Paramount et Legendary, ayant lutté pendant des années dans les domaines des jeux, des NFT et du métavers, étant suffisamment torturé par de vrais problèmes tels que 'les actifs ne sont pas sur la chaîne', 'les utilisateurs ne sauront pas utiliser de portefeuille' et 'les frais de Gas découragent', avant de décider de créer sa propre Layer 1.

Une chaîne qui a grandi à partir des applications : Pourquoi Vanar pourrait être le prochain L1 'différent'

@Vanarchain Ce qui m'a le plus marqué, c'est que ce n'est pas comme la plupart des chaînes publiques, qui sont 'conçues', mais plutôt comme si elles avaient 'grandi'.
Que veut dire cela ? Regardez le parcours de la plupart des chaînes publiques : d'abord, établir le cadre technique, rédiger le livre blanc, dessiner la feuille de route, puis chercher des développeurs et des cas d'utilisation dans le monde entier. #vanar L'ordre est inversé - lorsqu'il travaillait sur Virtua (anciennement TVK), il servait déjà des géants comme Paramount et Legendary, ayant lutté pendant des années dans les domaines des jeux, des NFT et du métavers, étant suffisamment torturé par de vrais problèmes tels que 'les actifs ne sont pas sur la chaîne', 'les utilisateurs ne sauront pas utiliser de portefeuille' et 'les frais de Gas découragent', avant de décider de créer sa propre Layer 1.
·
--
Récemment, en parcourant les posts de la communauté des développeurs, j'ai découvert un phénomène intéressant : de nombreux développeurs de l'écosystème Solana discutent en privé du numéro @fogo . Le point de discussion n'est pas "faut-il migrer", mais "si nous revenons en arrière, le code peut-il fonctionner directement ?" Quelqu'un a spécialement fait des tests en prenant un contrat DEX de Solana, en modifiant un peu le fichier de configuration, en le déployant sur le réseau de test Fogo, et cela a fonctionné. La consommation de gaz a diminué et la vitesse de création de blocs a augmenté. Dans les commentaires sous le post, quelqu'un a répondu : on dirait qu'il n'est pas nécessaire d'apprendre à nouveau Rust. Cette question est en fait assez cruciale. Le démarrage à froid de L1, le plus difficile n'est pas la technologie, mais l'écosystème des développeurs. Faire en sorte que les développeurs réapprennent un nouveau langage, réécrivent un contrat entier, reconstruisent toute l'interface, le coût est trop élevé. La plupart des nouvelles chaînes échouent de cette manière. Fogo a choisi SVM, ce qui équivaut à capter directement le stock de développeurs accumulé par Solana au cours des dernières années — ceux qui ont lutté dans Rust, ceux qui ont été suffisamment dérangés par le réseau Solana mais ne peuvent pas se résoudre à changer de voie, ont maintenant une autre option. Un autre détail est l'intégration de Pyth par Fogo. Pyth est en soi un oracle issu de l'écosystème Solana, et maintenant qu'il fournit des prix à Fogo, cela équivaut à transférer directement l'ensemble des données de prix de Solana. Les applications de trading craignent le plus que l'oracle ne soit pas compatible ou que le délai soit élevé. Ce choix de Fogo équivaut à avoir également posé une autre fondation pour les applications DeFi. Il y a aussi un point qui mérite d'être mentionné : Fogo a spécifiquement écrit dans la documentation "comment migrer un programme Solana vers Fogo", les étapes sont décrites très clairement, même les problèmes de compatibilité courants sont signalés à l'avance. Ce genre de détail montre qu'ils veulent vraiment que les développeurs viennent, et ne se contentent pas de faire des déclarations en l'air. L'écosystème est encore jeune. Mais au moins pour ce groupe de développeurs qui en ont assez des problèmes du réseau Solana et qui ne veulent pas quitter l'écosystème SVM, Fogo est une option qui ne nécessite pas de changer de métier, de réapprendre ou de changer d'outils. #fogo $FOGO
Récemment, en parcourant les posts de la communauté des développeurs, j'ai découvert un phénomène intéressant : de nombreux développeurs de l'écosystème Solana discutent en privé du numéro @Fogo Official .

Le point de discussion n'est pas "faut-il migrer", mais "si nous revenons en arrière, le code peut-il fonctionner directement ?" Quelqu'un a spécialement fait des tests en prenant un contrat DEX de Solana, en modifiant un peu le fichier de configuration, en le déployant sur le réseau de test Fogo, et cela a fonctionné. La consommation de gaz a diminué et la vitesse de création de blocs a augmenté. Dans les commentaires sous le post, quelqu'un a répondu : on dirait qu'il n'est pas nécessaire d'apprendre à nouveau Rust.

Cette question est en fait assez cruciale. Le démarrage à froid de L1, le plus difficile n'est pas la technologie, mais l'écosystème des développeurs. Faire en sorte que les développeurs réapprennent un nouveau langage, réécrivent un contrat entier, reconstruisent toute l'interface, le coût est trop élevé. La plupart des nouvelles chaînes échouent de cette manière. Fogo a choisi SVM, ce qui équivaut à capter directement le stock de développeurs accumulé par Solana au cours des dernières années — ceux qui ont lutté dans Rust, ceux qui ont été suffisamment dérangés par le réseau Solana mais ne peuvent pas se résoudre à changer de voie, ont maintenant une autre option.

Un autre détail est l'intégration de Pyth par Fogo. Pyth est en soi un oracle issu de l'écosystème Solana, et maintenant qu'il fournit des prix à Fogo, cela équivaut à transférer directement l'ensemble des données de prix de Solana. Les applications de trading craignent le plus que l'oracle ne soit pas compatible ou que le délai soit élevé. Ce choix de Fogo équivaut à avoir également posé une autre fondation pour les applications DeFi.

Il y a aussi un point qui mérite d'être mentionné : Fogo a spécifiquement écrit dans la documentation "comment migrer un programme Solana vers Fogo", les étapes sont décrites très clairement, même les problèmes de compatibilité courants sont signalés à l'avance. Ce genre de détail montre qu'ils veulent vraiment que les développeurs viennent, et ne se contentent pas de faire des déclarations en l'air.

L'écosystème est encore jeune. Mais au moins pour ce groupe de développeurs qui en ont assez des problèmes du réseau Solana et qui ne veulent pas quitter l'écosystème SVM, Fogo est une option qui ne nécessite pas de changer de métier, de réapprendre ou de changer d'outils. #fogo $FOGO
·
--
Lire la documentation de Fogo, ce que je vois ce ne sont pas des paramètres, mais une série de compromisEn regardant le document m-20, j'ai eu une idée en lisant à moitié : est-ce que les auteurs de ce projet avaient deux petits êtres dans leur tête qui se disputaient ? L'un dit : il faut aller vite. L'autre dit : il faut être stable. La solution qui a émergé de cette dispute est ce que nous voyons maintenant dans ces conceptions. Le choix des clients est l'exemple le plus typique. Il y a une opinion populaire dans le cercle : plusieurs clients équivalent à une sécurité accrue. Ethereum a Geth et Nethermind, Solana a Rust natif et Firedancer - au cas où un client aurait un bug, les autres peuvent encore prendre le relais. Cela semble raisonnable.

Lire la documentation de Fogo, ce que je vois ce ne sont pas des paramètres, mais une série de compromis

En regardant le document m-20, j'ai eu une idée en lisant à moitié : est-ce que les auteurs de ce projet avaient deux petits êtres dans leur tête qui se disputaient ? L'un dit : il faut aller vite. L'autre dit : il faut être stable. La solution qui a émergé de cette dispute est ce que nous voyons maintenant dans ces conceptions.

Le choix des clients est l'exemple le plus typique.
Il y a une opinion populaire dans le cercle : plusieurs clients équivalent à une sécurité accrue. Ethereum a Geth et Nethermind, Solana a Rust natif et Firedancer - au cas où un client aurait un bug, les autres peuvent encore prendre le relais. Cela semble raisonnable.
·
--
Voir la traduction
Fogo还有一个细节值得聊:它对“透明度”这件事的态度,跟很多项目不太一样。 大多数新公链主网上线后,数据就慢慢锁起来了。TPS多少、出块时间多少、验证者运行得怎么样,都成了“内部信息”,外面的人只能看PR稿里那几个漂亮数字。但Fogo的区块浏览器是公开的,每个区块的时间戳、每个验证者的投票情况、每笔交易的延迟,都能直接查到。 我专门去翻过几天的数据。拿2月14号那天举例,24小时里出了220万个区块,平均出块时间确实稳定在40毫秒上下。有几个区块稍微慢了点,50多毫秒,浏览器里直接标出来了,旁边还附了原因——某个区域的验证者网络波动。这种透明度的好处是:你能看到它的真实表现,而不是团队想让你看到的那一面。 另一个点是@fogo 对开发者文档的投入。它的技术文档写得极细,Sessions功能的实现原理、PDA怎么派生、账户怎么关闭,都有完整的示例代码和流程图。甚至包括那些“劝退”的内容——比如跑验证者的硬件门槛、节点运维的注意事项,也都明明白白写着。这种态度挺拉好感的:它不是在招揽“随便谁都能来”,而是在筛选真正愿意花时间理解它的人。 Fogo Fishers这个测试网参与计划也值得一提。4000万笔测试交易不是团队自己跑的,是真实用户从世界各地连进来折腾出来的。每个人跑完都会写反馈,哪些地方卡、哪些功能不好用,都挂在GitHub上。主网上线后修复的那些问题,很多就是这些反馈堆出来的。 这种“把过程摊开给人看”的做法,在加密圈其实不多见。很多项目喜欢藏着掖着,等到主网上线放几个数字就算交差。Fogo选择了一条更麻烦的路——让所有人都能盯着它跑,跑得好不好一目了然。这种透明度可能比任何PR稿都管用。#fogo $FOGO
Fogo还有一个细节值得聊:它对“透明度”这件事的态度,跟很多项目不太一样。

大多数新公链主网上线后,数据就慢慢锁起来了。TPS多少、出块时间多少、验证者运行得怎么样,都成了“内部信息”,外面的人只能看PR稿里那几个漂亮数字。但Fogo的区块浏览器是公开的,每个区块的时间戳、每个验证者的投票情况、每笔交易的延迟,都能直接查到。

我专门去翻过几天的数据。拿2月14号那天举例,24小时里出了220万个区块,平均出块时间确实稳定在40毫秒上下。有几个区块稍微慢了点,50多毫秒,浏览器里直接标出来了,旁边还附了原因——某个区域的验证者网络波动。这种透明度的好处是:你能看到它的真实表现,而不是团队想让你看到的那一面。

另一个点是@Fogo Official 对开发者文档的投入。它的技术文档写得极细,Sessions功能的实现原理、PDA怎么派生、账户怎么关闭,都有完整的示例代码和流程图。甚至包括那些“劝退”的内容——比如跑验证者的硬件门槛、节点运维的注意事项,也都明明白白写着。这种态度挺拉好感的:它不是在招揽“随便谁都能来”,而是在筛选真正愿意花时间理解它的人。

Fogo Fishers这个测试网参与计划也值得一提。4000万笔测试交易不是团队自己跑的,是真实用户从世界各地连进来折腾出来的。每个人跑完都会写反馈,哪些地方卡、哪些功能不好用,都挂在GitHub上。主网上线后修复的那些问题,很多就是这些反馈堆出来的。

这种“把过程摊开给人看”的做法,在加密圈其实不多见。很多项目喜欢藏着掖着,等到主网上线放几个数字就算交差。Fogo选择了一条更麻烦的路——让所有人都能盯着它跑,跑得好不好一目了然。这种透明度可能比任何PR稿都管用。#fogo $FOGO
·
--
Voir la traduction
Fogo只想把“交易”这一件事做到极致和朋友探讨了一下@fogo 的技术文档和公开资料,有个感受越来越强烈:这条链的每个设计选择,背后都站着同一个影子——传统高频交易。 先说团队。联合创始人Doug Colkitt在Citadel做了近十年日本股票高频交易,对交易所的微观结构、延迟优化、订单簿设计这些东西,是刻进肌肉记忆的。另一个创始人Robert Sagurton,从Jump Crypto出来,之前在摩根大通、道富、摩根士丹利待过。这俩人凑一起,做的链会是什么调性?答案其实写在基因里了。 Fogo的技术架构就是这种基因的直接投射。它用Solana虚拟机,兼容SVM生态,但客户端只跑一套——基于Jump Crypto的Firedancer改的单一实现。为什么?因为在高频场景下,网络的最终速度是由最慢的那个客户端决定的。多客户端意味着共识要迁就性能最差的那个节点,快的跑不起来。Fogo的选择是:让所有节点用同一套引擎,跑出一致的节奏。 验证者设计也很有意思。Fogo没有走"验证者越多越好"的路,而是搞了个"多区域共识"——把主要验证者集中在东京、纽约、伦敦的数据中心,按"追随太阳"的节奏轮换领导权。测试网数据是40毫秒出块、1.3秒最终确认。这听起来像什么?像传统金融里做市商抢着租交易所旁边的服务器,就为了那几微秒的优势。Fogo等于把这套逻辑搬到了链上。 另一个容易被忽略的点是跨链集成。Fogo主网上线时直接跟Wormhole合作,作为官方原生桥。用户能把USDC、ETH、SOL从40多条链直接转进来。这事的价值在于:高频套利的人,资产往往是分散在各处的。如果每笔资金进来都要走一遍繁琐的跨链流程,那Fogo速度再快也白搭。现在这个整合,等于把入金通道的摩擦降到了最低。 生态方面,Fogo的布局也紧扣"交易"这个核心。原生集成了Pyth预言机,保障价格数据的精准性。Ambient Finance作为原生永续合约交易所落地,Doug Colkitt自己就是Ambient的创始人。还有那个叫Sessions的功能,允许用户在一定时间内免签名交易,在行情剧烈波动时能少点几下钱包。这些设计放在一起看,思路是清晰的——每一步都在为同一个目标服务:让链上交易像中心化交易所一样顺滑。

Fogo只想把“交易”这一件事做到极致

和朋友探讨了一下@Fogo Official 的技术文档和公开资料,有个感受越来越强烈:这条链的每个设计选择,背后都站着同一个影子——传统高频交易。

先说团队。联合创始人Doug Colkitt在Citadel做了近十年日本股票高频交易,对交易所的微观结构、延迟优化、订单簿设计这些东西,是刻进肌肉记忆的。另一个创始人Robert Sagurton,从Jump Crypto出来,之前在摩根大通、道富、摩根士丹利待过。这俩人凑一起,做的链会是什么调性?答案其实写在基因里了。

Fogo的技术架构就是这种基因的直接投射。它用Solana虚拟机,兼容SVM生态,但客户端只跑一套——基于Jump Crypto的Firedancer改的单一实现。为什么?因为在高频场景下,网络的最终速度是由最慢的那个客户端决定的。多客户端意味着共识要迁就性能最差的那个节点,快的跑不起来。Fogo的选择是:让所有节点用同一套引擎,跑出一致的节奏。

验证者设计也很有意思。Fogo没有走"验证者越多越好"的路,而是搞了个"多区域共识"——把主要验证者集中在东京、纽约、伦敦的数据中心,按"追随太阳"的节奏轮换领导权。测试网数据是40毫秒出块、1.3秒最终确认。这听起来像什么?像传统金融里做市商抢着租交易所旁边的服务器,就为了那几微秒的优势。Fogo等于把这套逻辑搬到了链上。

另一个容易被忽略的点是跨链集成。Fogo主网上线时直接跟Wormhole合作,作为官方原生桥。用户能把USDC、ETH、SOL从40多条链直接转进来。这事的价值在于:高频套利的人,资产往往是分散在各处的。如果每笔资金进来都要走一遍繁琐的跨链流程,那Fogo速度再快也白搭。现在这个整合,等于把入金通道的摩擦降到了最低。

生态方面,Fogo的布局也紧扣"交易"这个核心。原生集成了Pyth预言机,保障价格数据的精准性。Ambient Finance作为原生永续合约交易所落地,Doug Colkitt自己就是Ambient的创始人。还有那个叫Sessions的功能,允许用户在一定时间内免签名交易,在行情剧烈波动时能少点几下钱包。这些设计放在一起看,思路是清晰的——每一步都在为同一个目标服务:让链上交易像中心化交易所一样顺滑。
·
--
Concernant @Vanar , il y a un angle qui est souvent négligé : ce qu'il fait, en fait, c'est aider les marques traditionnelles à « traduire » le Web3. J'ai rencontré de nombreuses marques qui souhaitent essayer le Web3, et leur plus grand obstacle n'est souvent pas la technologie, mais la langue. Que signifie « mint », « staking », « liquidité minière », chaque terme nécessite une longue explication. Une fois l'explication terminée, l'autre partie n'est déjà plus intéressée. La solution de Vanar est assez intelligente : elle ne fait pas de traduction, elle permet directement aux marques de ne pas avoir à utiliser ces termes. En collaborant avec Nexera pour la tokenisation des RWA, cela semble être un cadre de conformité, mais en réalité, cela aide les marques à traduire « émettre des NFT » en « émettre des cartes de membre ». En intégrant avec Worldpay, c'est traduire « acheter des cryptomonnaies » en « paiement ». La certification de neutralité carbone, c'est traduire « PoS » en « écologique ». Les marques doivent simplement faire ce qu'elles savent faire : concevoir des activités, gérer des utilisateurs, vendre des produits. Toutes les parties qui nécessitent des explications, Vanar les garde à l'extérieur. Les pop-up stores de marques dans Virtua suivent également cette logique. Lorsque les marques entrent, elles louent simplement un espace virtuel, organisent un événement, distribuent quelques produits dérivés. Elles n'ont pas besoin de savoir que cela implique l'abstraction des comptes, le stockage Neutron, ou les protocoles inter-chaînes. Elles savent juste que les utilisateurs sont entrés, s'amusent bien, et que les produits se vendent. Ce type de service « sans explication » est en réalité plus efficace que n'importe quelle éducation. #vanar $VANRY
Concernant @Vanarchain , il y a un angle qui est souvent négligé : ce qu'il fait, en fait, c'est aider les marques traditionnelles à « traduire » le Web3.

J'ai rencontré de nombreuses marques qui souhaitent essayer le Web3, et leur plus grand obstacle n'est souvent pas la technologie, mais la langue. Que signifie « mint », « staking », « liquidité minière », chaque terme nécessite une longue explication. Une fois l'explication terminée, l'autre partie n'est déjà plus intéressée.

La solution de Vanar est assez intelligente : elle ne fait pas de traduction, elle permet directement aux marques de ne pas avoir à utiliser ces termes. En collaborant avec Nexera pour la tokenisation des RWA, cela semble être un cadre de conformité, mais en réalité, cela aide les marques à traduire « émettre des NFT » en « émettre des cartes de membre ». En intégrant avec Worldpay, c'est traduire « acheter des cryptomonnaies » en « paiement ». La certification de neutralité carbone, c'est traduire « PoS » en « écologique ».

Les marques doivent simplement faire ce qu'elles savent faire : concevoir des activités, gérer des utilisateurs, vendre des produits. Toutes les parties qui nécessitent des explications, Vanar les garde à l'extérieur.

Les pop-up stores de marques dans Virtua suivent également cette logique. Lorsque les marques entrent, elles louent simplement un espace virtuel, organisent un événement, distribuent quelques produits dérivés. Elles n'ont pas besoin de savoir que cela implique l'abstraction des comptes, le stockage Neutron, ou les protocoles inter-chaînes. Elles savent juste que les utilisateurs sont entrés, s'amusent bien, et que les produits se vendent.

Ce type de service « sans explication » est en réalité plus efficace que n'importe quelle éducation. #vanar $VANRY
·
--
Développeurs tranquilles, joueurs heureux, marques n'ayant pas à apprendre de nouvelles choses - Vanar veut atteindre ces trois objectifs.En regardant la série d'actions récentes de Vanar, je sens de plus en plus qu'il possède une qualité assez rare : savoir ce qu'il fait bien. Cette phrase semble étrange, mais elle est en fait rare dans le cercle de la cryptographie. La plupart des projets veulent tout faire, DeFi, jeux, IA, RWA, sans en laisser un de côté. Vanar a également investi dans ces domaines, mais d'une manière un peu différente : il ne se lance pas lui-même, mais met en place les outils et l'infrastructure pour que les personnes qui comprennent vraiment le domaine puissent entrer et travailler. Dans le domaine des jeux, il y a VGN, dans le métavers il y a Virtua, pour les solutions de marque il y a la collaboration avec Nexera, et pour l'IA il y a NVIDIA et Google Cloud. Chaque domaine a des spécialistes qui y évoluent, et Vanar joue le rôle de celui qui 'fournit l'espace et les services essentiels'. Cette position est beaucoup plus pragmatique que celle de projets qui veulent tout gérer eux-mêmes.

Développeurs tranquilles, joueurs heureux, marques n'ayant pas à apprendre de nouvelles choses - Vanar veut atteindre ces trois objectifs.

En regardant la série d'actions récentes de Vanar, je sens de plus en plus qu'il possède une qualité assez rare : savoir ce qu'il fait bien.
Cette phrase semble étrange, mais elle est en fait rare dans le cercle de la cryptographie. La plupart des projets veulent tout faire, DeFi, jeux, IA, RWA, sans en laisser un de côté. Vanar a également investi dans ces domaines, mais d'une manière un peu différente : il ne se lance pas lui-même, mais met en place les outils et l'infrastructure pour que les personnes qui comprennent vraiment le domaine puissent entrer et travailler.
Dans le domaine des jeux, il y a VGN, dans le métavers il y a Virtua, pour les solutions de marque il y a la collaboration avec Nexera, et pour l'IA il y a NVIDIA et Google Cloud. Chaque domaine a des spécialistes qui y évoluent, et Vanar joue le rôle de celui qui 'fournit l'espace et les services essentiels'. Cette position est beaucoup plus pragmatique que celle de projets qui veulent tout gérer eux-mêmes.
·
--
Récemment, en traduisant la documentation technique de Fogo, j'ai découvert un détail que je n'avais pas trop remarqué auparavant : sa stratégie client est en fait le coup le plus dur du projet. La plupart des blockchains publiques parlent de "multi-client", ce qui signifie qu'un même ensemble de protocoles fonctionne avec plusieurs implémentations de code différentes — par exemple, Ethereum a Geth, Nethermind, Solana a son client Rust natif et Jump a développé Firedancer. La logique est que la diversité du code peut prévenir les vulnérabilités et renforcer la sécurité. Cela semble raisonnable. Mais @fogo fait l'inverse. Depuis sa création, il n'exécute qu'un seul client — une implémentation unique basée sur une version modifiée de Firedancer. La raison est la suivante : dans des scénarios à haute fréquence, la vitesse finale du réseau est déterminée par le client le plus lent. Plusieurs clients signifient que le consensus doit s'adapter au nœud le moins performant, ce qui empêche les plus rapides de fonctionner. Solana est en fait coincé à ce stade — Firedancer peut atteindre un million de TPS sur le réseau de test, mais une fois sur le réseau principal, il doit collaborer avec d'autres clients, ce qui réduit les performances. Fogo a en gros enlevé ce fardeau. Certaines personnes critiquent cela comme étant de la centralisation, mais d'un autre point de vue : si l'objectif est d'atteindre une vitesse de niveau Nasdaq, alors tous les nœuds doivent utiliser le même moteur et le même châssis. Une voiture de course F1 ne laissera pas une vieille voiture participer, non pas par discrimination, mais parce qu'elle ne peut vraiment pas suivre. Un autre point est la logique de sélection des validateurs. Le réseau principal de Fogo n'a actuellement que 19 à 30 validateurs, avec un seuil matériel clair — un CPU à 24 cœurs, 128 Go de RAM, un SSD NVME de 4 To comme configuration de base. Plus important encore, il exige que les validateurs aient de l'expérience dans l'exécution de réseaux haute performance comme Solana ou Hyperliquid. Qu'est-ce que cela signifie ? Cela signifie que ceux qui peuvent entrer ne sont pas des particuliers qui jouent avec un ordinateur portable, mais des équipes qui comprennent vraiment l'exploitation des nœuds haute performance. Et ce "consensus multi-régional", dont nous avons déjà parlé, mais sans expliquer en détail son mécanisme de garantie. Fogo choisit dynamiquement une région comme centre d'exécution pour chaque époque, mais si une région rencontre des problèmes et que le vote n'atteint pas le seuil, le réseau reviendra automatiquement au "mode de consensus global" pour garantir une sécurité de base. Cela équivaut à assurer une couverture sur la mise en réseau géographique : rechercher la vitesse, mais sans sacrifier la disponibilité pour la vitesse. En regardant ces conceptions ensemble, la pensée de Fogo est en fait assez claire — il ne cherche pas à créer une chaîne "où tout le monde peut exécuter un nœud", mais plutôt une chaîne "qui fonctionne suffisamment vite pour que les institutions souhaitent y participer" #fogo $FOGO .
Récemment, en traduisant la documentation technique de Fogo, j'ai découvert un détail que je n'avais pas trop remarqué auparavant : sa stratégie client est en fait le coup le plus dur du projet.

La plupart des blockchains publiques parlent de "multi-client", ce qui signifie qu'un même ensemble de protocoles fonctionne avec plusieurs implémentations de code différentes — par exemple, Ethereum a Geth, Nethermind, Solana a son client Rust natif et Jump a développé Firedancer. La logique est que la diversité du code peut prévenir les vulnérabilités et renforcer la sécurité. Cela semble raisonnable.

Mais @Fogo Official fait l'inverse. Depuis sa création, il n'exécute qu'un seul client — une implémentation unique basée sur une version modifiée de Firedancer. La raison est la suivante : dans des scénarios à haute fréquence, la vitesse finale du réseau est déterminée par le client le plus lent. Plusieurs clients signifient que le consensus doit s'adapter au nœud le moins performant, ce qui empêche les plus rapides de fonctionner. Solana est en fait coincé à ce stade — Firedancer peut atteindre un million de TPS sur le réseau de test, mais une fois sur le réseau principal, il doit collaborer avec d'autres clients, ce qui réduit les performances. Fogo a en gros enlevé ce fardeau.

Certaines personnes critiquent cela comme étant de la centralisation, mais d'un autre point de vue : si l'objectif est d'atteindre une vitesse de niveau Nasdaq, alors tous les nœuds doivent utiliser le même moteur et le même châssis. Une voiture de course F1 ne laissera pas une vieille voiture participer, non pas par discrimination, mais parce qu'elle ne peut vraiment pas suivre.

Un autre point est la logique de sélection des validateurs. Le réseau principal de Fogo n'a actuellement que 19 à 30 validateurs, avec un seuil matériel clair — un CPU à 24 cœurs, 128 Go de RAM, un SSD NVME de 4 To comme configuration de base. Plus important encore, il exige que les validateurs aient de l'expérience dans l'exécution de réseaux haute performance comme Solana ou Hyperliquid. Qu'est-ce que cela signifie ? Cela signifie que ceux qui peuvent entrer ne sont pas des particuliers qui jouent avec un ordinateur portable, mais des équipes qui comprennent vraiment l'exploitation des nœuds haute performance.

Et ce "consensus multi-régional", dont nous avons déjà parlé, mais sans expliquer en détail son mécanisme de garantie. Fogo choisit dynamiquement une région comme centre d'exécution pour chaque époque, mais si une région rencontre des problèmes et que le vote n'atteint pas le seuil, le réseau reviendra automatiquement au "mode de consensus global" pour garantir une sécurité de base. Cela équivaut à assurer une couverture sur la mise en réseau géographique : rechercher la vitesse, mais sans sacrifier la disponibilité pour la vitesse.

En regardant ces conceptions ensemble, la pensée de Fogo est en fait assez claire — il ne cherche pas à créer une chaîne "où tout le monde peut exécuter un nœud", mais plutôt une chaîne "qui fonctionne suffisamment vite pour que les institutions souhaitent y participer" #fogo $FOGO .
·
--
Ce que Fogo veut offrir, ce n'est pas la rapidité, mais "la prévisibilité de chaque transaction"En parcourant quelques fils de discussion technique récemment, j'ai découvert un phénomène assez intéressant : beaucoup de gens parlent de @fogo , mentionnant à chaque occasion "40 millisecondes par bloc", "1,3 seconde de finalité", "des centaines de milliers de TPS". Ces chiffres sont bien sûr impressionnants, mais plus je regarde, plus je pense qu'ils pourraient passer à côté de l'essentiel. Ce qui rend vraiment Fogo digne d'être discuté, ce n'est pas sa vitesse de pointe, mais sa capacité à rester stable sous pression. Cette phrase n'est pas de moi, c'est un vieux frère qui travaille dans les infrastructures qui l'a écrite dans un post. Sa citation originale est : Pour les fonds institutionnels, ce qui est important n'est pas la vitesse maximale lorsque le réseau est inactif, mais ce qui se passe lorsque la demande augmente soudainement. Les délais apparaissent-ils au moment où le marché est le plus volatile ? La performance peut-elle tenir le coup ? Dans la finance traditionnelle, le délai n'est pas un "phénomène normal", c'est un risque systémique.

Ce que Fogo veut offrir, ce n'est pas la rapidité, mais "la prévisibilité de chaque transaction"

En parcourant quelques fils de discussion technique récemment, j'ai découvert un phénomène assez intéressant : beaucoup de gens parlent de @Fogo Official , mentionnant à chaque occasion "40 millisecondes par bloc", "1,3 seconde de finalité", "des centaines de milliers de TPS". Ces chiffres sont bien sûr impressionnants, mais plus je regarde, plus je pense qu'ils pourraient passer à côté de l'essentiel.

Ce qui rend vraiment Fogo digne d'être discuté, ce n'est pas sa vitesse de pointe, mais sa capacité à rester stable sous pression.
Cette phrase n'est pas de moi, c'est un vieux frère qui travaille dans les infrastructures qui l'a écrite dans un post. Sa citation originale est : Pour les fonds institutionnels, ce qui est important n'est pas la vitesse maximale lorsque le réseau est inactif, mais ce qui se passe lorsque la demande augmente soudainement. Les délais apparaissent-ils au moment où le marché est le plus volatile ? La performance peut-elle tenir le coup ? Dans la finance traditionnelle, le délai n'est pas un "phénomène normal", c'est un risque systémique.
·
--
Regardez les actions récentes de @Vanar , j'ai remarqué un point que je n'avais pas vraiment pensé auparavant : il est en train de transformer la blockchain d'un "lieu de stockage" en un "lieu de travail". Comment comprendre cela ? La blockchain traditionnelle, peu importe le TPS, est essentiellement statique - les actifs sont stockés et ne bougent pas. Si vous voulez qu'elle fasse quelque chose, vous devez compter sur un appel externe. Mais l'architecture de Neutron et Kayon de Vanar donne à la chaîne elle-même la capacité de "mémoire" et de "raisonnement". Neutron peut stocker des vecteurs de haute dimension, maintenant le contexte à travers les transactions ; Kayon peut exécuter directement le raisonnement IA sur la chaîne. Qu'est-ce que cela signifie ? Cela signifie que les contrats intelligents de demain peuvent être vivants. Par exemple, un contrat de preuve de stockage qui, auparavant, ne pouvait que rester là, peut maintenant être vérifié automatiquement pour le contenu de la facture et déclencher le paiement après confirmation. Pas besoin de surveillance humaine, pas besoin d'institution intermédiaire, le code s'en occupe tout seul. La collaboration avec NVIDIA suit également cette logique - les outils comme CUDA, Tensor sont intégrés, permettant aux développeurs d'exécuter directement des modèles IA sur la chaîne. Ce n'est plus une simple juxtaposition de "blockchain + IA", mais un design conçu dès le départ pour l'interaction avec l'IA. Un autre point sous-estimé est sa compréhension des développeurs. Beaucoup de blockchains publiques laissent les développeurs configurer leur propre environnement, leur propre #vanar $VANRY .
Regardez les actions récentes de @Vanarchain , j'ai remarqué un point que je n'avais pas vraiment pensé auparavant : il est en train de transformer la blockchain d'un "lieu de stockage" en un "lieu de travail".

Comment comprendre cela ? La blockchain traditionnelle, peu importe le TPS, est essentiellement statique - les actifs sont stockés et ne bougent pas. Si vous voulez qu'elle fasse quelque chose, vous devez compter sur un appel externe. Mais l'architecture de Neutron et Kayon de Vanar donne à la chaîne elle-même la capacité de "mémoire" et de "raisonnement". Neutron peut stocker des vecteurs de haute dimension, maintenant le contexte à travers les transactions ; Kayon peut exécuter directement le raisonnement IA sur la chaîne.

Qu'est-ce que cela signifie ? Cela signifie que les contrats intelligents de demain peuvent être vivants. Par exemple, un contrat de preuve de stockage qui, auparavant, ne pouvait que rester là, peut maintenant être vérifié automatiquement pour le contenu de la facture et déclencher le paiement après confirmation. Pas besoin de surveillance humaine, pas besoin d'institution intermédiaire, le code s'en occupe tout seul.

La collaboration avec NVIDIA suit également cette logique - les outils comme CUDA, Tensor sont intégrés, permettant aux développeurs d'exécuter directement des modèles IA sur la chaîne. Ce n'est plus une simple juxtaposition de "blockchain + IA", mais un design conçu dès le départ pour l'interaction avec l'IA.

Un autre point sous-estimé est sa compréhension des développeurs. Beaucoup de blockchains publiques laissent les développeurs configurer leur propre environnement, leur propre #vanar $VANRY .
·
--
De registre statique à couche pensante : Vanar veut avancer d'un pasEn regardant la série de progrès récemment annoncés par Vanar, je réalise que j'ai peut-être sous-estimé une chose auparavant : il ne s'agit pas seulement de créer une blockchain "utile", mais de transformer la blockchain d'un registre passif en une couche capable de penser activement. Cette transformation est assez cruciale. La blockchain du passé était essentiellement statique. Les actifs existent sur la chaîne, mais ce sont des données mortes - vous pouvez vérifier à qui elles appartiennent, quand elles ont été transférées, mais les données elles-mêmes ne bougent pas, ne pensent pas et ne vous répondent pas. Si vous voulez interagir avec elles, vous devez écrire des contrats intelligents, appeler des API et demander à des développeurs de vous construire un pont.

De registre statique à couche pensante : Vanar veut avancer d'un pas

En regardant la série de progrès récemment annoncés par Vanar, je réalise que j'ai peut-être sous-estimé une chose auparavant : il ne s'agit pas seulement de créer une blockchain "utile", mais de transformer la blockchain d'un registre passif en une couche capable de penser activement.

Cette transformation est assez cruciale.
La blockchain du passé était essentiellement statique. Les actifs existent sur la chaîne, mais ce sont des données mortes - vous pouvez vérifier à qui elles appartiennent, quand elles ont été transférées, mais les données elles-mêmes ne bougent pas, ne pensent pas et ne vous répondent pas. Si vous voulez interagir avec elles, vous devez écrire des contrats intelligents, appeler des API et demander à des développeurs de vous construire un pont.
Connectez-vous pour découvrir d’autres contenus
Découvrez les dernières actus sur les cryptos
⚡️ Prenez part aux dernières discussions sur les cryptos
💬 Interagissez avec vos créateurs préféré(e)s
👍 Profitez du contenu qui vous intéresse
Adresse e-mail/Nº de téléphone
Plan du site
Préférences en matière de cookies
CGU de la plateforme