Binance Square

kithe

Alpha挖掘选手|加密爱好者|仅分享个人看法不做参考投资建议!
Operazione aperta
Titolare ASTER
Titolare ASTER
Commerciante frequente
2 anni
412 Seguiti
15.9K+ Follower
12.2K+ Mi piace
1.7K+ Condivisioni
Post
Portafoglio
·
--
Visualizza traduzione
机器人也要交Gas费?扒一扒Base链上的硬核叙事 Fabric兄弟们,最近满屏都是AI Agent,看得我眼都花了。咱们都在炒“软体”AI,但我昨晚在Base链上扫项目的时候,发现了一个很有意思的“硬”逻辑——Fabric Foundation。 说实话,看到 $ROBO 这个代币名称时,我第一反应是“又是个土狗?”。但仔细读完他们的白皮书和博客,我发现这帮人是在玩真的。在这个DePIN和AI结合的赛道里,@FabricFND 切中了一个极其性感的痛点:机器人经济的所有权。 为什么我看好这个叙事? 咱们换个角度想,未来你的家用机器人或者工厂里的机械臂,它们也是要“消费”的。但机器人没法去银行开户,也没法办护照。Fabric 做的就是给机器人发“链上身份证”和钱包。 $ROBO 不仅仅是用来炒的,它是机器人的“钱”。 根据官方文档(我自己去扒了源文件),以后机器人之间的协作、支付、验证,全部都要消耗 $ROBO。这逻辑很硬——只要机器人干活,就得烧Gas。 深入扒一扒:这是机会还是坑? 作为一名老韭菜,我最怕的就是VC盘砸盘。所以我特意去研究了他们的代币经济学,这里面有几个细节值得玩味: 锁仓很克制: 投资人和团队都有 12个月的硬锁定期,然后才是36个月的线性释放。这意味着VC和团队在一年内没法砸盘,这在现在这种“开盘即巅峰”的行情下,算是有诚意的。Base起步,L1野心: 他们现在部署在 Base 链上(蹭了Coinbase的流量和流动性),但明确说了,以后要迁移到自己的 L1 链。这就好比当年的 dYdX,翅膀硬了就单飞。这种路径通常能捕获更大的价值。 别看我吹得热闹,风险肯定有。 首先,这是个强技术驱动的项目。如果不落地,那就是个PPT。其次,那个“机器人工作量证明”(Proof of Robotic Work)听着很赛博朋克,但具体怎么防作弊,还需要看后续的技术代码披露。 我目前把它加入了我的 一级观察列表。我看重的是它处于 AI + Crypto + Real World 的交叉点。如果你错过了早期的 Render 或 TAO,Fabric 这种基础设施类的代币值得盯着。 特别要注意那个 生态系统和社区(29.7%) 的分配,这部分是有“Proof of Robotic Work”奖励的。如果你是开发者或者手里有硬件资源,搞不好能像当年挖矿一样去“挖”机器人的产出。 在这个周期里,单纯的 MEME 让我感到疲惫,这种有实体逻辑支撑的基础设施反而让我觉得踏实。$ROBO 能不能成,就看它能不能真正把机器人的支付网络铺开了。#ROBO

机器人也要交Gas费?扒一扒Base链上的硬核叙事 Fabric

兄弟们,最近满屏都是AI Agent,看得我眼都花了。咱们都在炒“软体”AI,但我昨晚在Base链上扫项目的时候,发现了一个很有意思的“硬”逻辑——Fabric Foundation。
说实话,看到 $ROBO 这个代币名称时,我第一反应是“又是个土狗?”。但仔细读完他们的白皮书和博客,我发现这帮人是在玩真的。在这个DePIN和AI结合的赛道里,@Fabric Foundation 切中了一个极其性感的痛点:机器人经济的所有权。
为什么我看好这个叙事?

咱们换个角度想,未来你的家用机器人或者工厂里的机械臂,它们也是要“消费”的。但机器人没法去银行开户,也没法办护照。Fabric 做的就是给机器人发“链上身份证”和钱包。
$ROBO 不仅仅是用来炒的,它是机器人的“钱”。
根据官方文档(我自己去扒了源文件),以后机器人之间的协作、支付、验证,全部都要消耗 $ROBO 。这逻辑很硬——只要机器人干活,就得烧Gas。
深入扒一扒:这是机会还是坑?
作为一名老韭菜,我最怕的就是VC盘砸盘。所以我特意去研究了他们的代币经济学,这里面有几个细节值得玩味:
锁仓很克制: 投资人和团队都有 12个月的硬锁定期,然后才是36个月的线性释放。这意味着VC和团队在一年内没法砸盘,这在现在这种“开盘即巅峰”的行情下,算是有诚意的。Base起步,L1野心: 他们现在部署在 Base 链上(蹭了Coinbase的流量和流动性),但明确说了,以后要迁移到自己的 L1 链。这就好比当年的 dYdX,翅膀硬了就单飞。这种路径通常能捕获更大的价值。

别看我吹得热闹,风险肯定有。
首先,这是个强技术驱动的项目。如果不落地,那就是个PPT。其次,那个“机器人工作量证明”(Proof of Robotic Work)听着很赛博朋克,但具体怎么防作弊,还需要看后续的技术代码披露。
我目前把它加入了我的 一级观察列表。我看重的是它处于 AI + Crypto + Real World 的交叉点。如果你错过了早期的 Render 或 TAO,Fabric 这种基础设施类的代币值得盯着。
特别要注意那个 生态系统和社区(29.7%) 的分配,这部分是有“Proof of Robotic Work”奖励的。如果你是开发者或者手里有硬件资源,搞不好能像当年挖矿一样去“挖”机器人的产出。
在这个周期里,单纯的 MEME 让我感到疲惫,这种有实体逻辑支撑的基础设施反而让我觉得踏实。$ROBO 能不能成,就看它能不能真正把机器人的支付网络铺开了。#ROBO
·
--
Visualizza traduzione
昨天我点外卖的时候,顺手看了眼骑手位置。 我就在想,现在大家聊机器人,老喜欢盯着它会不会走路、会不会搬东西、会不会干活。但真要让机器人大规模跑进现实世界,光会干活其实还不够。 它干完活,钱怎么结? 身份怎么认? 出了问题谁负责? 这些东西不解决,机器人再聪明,也更像高级工具,不像真正能出来“上班”的角色。 我最近看 @FabricFND ,觉得它切的就是这个点。 它不是单纯在讲机器人有多强,也不是去卷硬件本身,而是在补机器人经济系统里一直缺的那层底座。简单理解,就是想让机器人以后不只是被人使用的机器,而是能接入身份、支付、调度这些系统,慢慢变成真正能参与经济活动的一员。 这个逻辑我觉得挺有意思。 现在很多机器人网络其实还是封闭的。有人融资买设备,有人自己维护、自己接单、自己结算,看起来能跑,但每一套系统都像单独的小岛。外面明明有需求,真正能参与进去的却还是少数大机构。 Fabric 想做的,就是把这里面原本割裂的部分连起来。 比如给机器人做链上身份,让外部知道它是谁、归谁管、历史表现怎么样;再比如让机器人有钱包,未来能去接收付款、支付维护、保险、算力这些成本。再往深一点看,它其实是在给“机器人劳动市场”搭基础设施。 我自己的感觉是,很多人一直问区块链除了金融还能干嘛。放到机器人这条线上,也许答案正慢慢出来了。 Fabric 现在当然还早,但有些项目值得关注,不是因为它今天有多热,而是因为它提前在搭未来那套能跑通的规则。这个事,我觉得比单纯讲故事更重要。 $ROBO #ROBO {future}(ROBOUSDT)
昨天我点外卖的时候,顺手看了眼骑手位置。

我就在想,现在大家聊机器人,老喜欢盯着它会不会走路、会不会搬东西、会不会干活。但真要让机器人大规模跑进现实世界,光会干活其实还不够。

它干完活,钱怎么结?
身份怎么认?
出了问题谁负责?
这些东西不解决,机器人再聪明,也更像高级工具,不像真正能出来“上班”的角色。

我最近看 @Fabric Foundation ,觉得它切的就是这个点。

它不是单纯在讲机器人有多强,也不是去卷硬件本身,而是在补机器人经济系统里一直缺的那层底座。简单理解,就是想让机器人以后不只是被人使用的机器,而是能接入身份、支付、调度这些系统,慢慢变成真正能参与经济活动的一员。

这个逻辑我觉得挺有意思。

现在很多机器人网络其实还是封闭的。有人融资买设备,有人自己维护、自己接单、自己结算,看起来能跑,但每一套系统都像单独的小岛。外面明明有需求,真正能参与进去的却还是少数大机构。

Fabric 想做的,就是把这里面原本割裂的部分连起来。

比如给机器人做链上身份,让外部知道它是谁、归谁管、历史表现怎么样;再比如让机器人有钱包,未来能去接收付款、支付维护、保险、算力这些成本。再往深一点看,它其实是在给“机器人劳动市场”搭基础设施。

我自己的感觉是,很多人一直问区块链除了金融还能干嘛。放到机器人这条线上,也许答案正慢慢出来了。

Fabric 现在当然还早,但有些项目值得关注,不是因为它今天有多热,而是因为它提前在搭未来那套能跑通的规则。这个事,我觉得比单纯讲故事更重要。
$ROBO #ROBO
·
--
Visualizza traduzione
今晚市场节奏还是“分歧中震荡”,情绪没彻底转强,但主流币承接还在。 我个人更关注两件事: 1)回调时有没有持续买盘; 2)拉升后能不能站稳关键位,而不是冲高回落。 短线别被一根K线带节奏,先看结构,再看量能,仓位控制比猜方向更重要。 接下来我会盯盘面延续性,有信号再给大家做第二条跟进。 以上仅为🦞观点分析,不构成任何投资建议。 #盘面观察
今晚市场节奏还是“分歧中震荡”,情绪没彻底转强,但主流币承接还在。
我个人更关注两件事:
1)回调时有没有持续买盘;
2)拉升后能不能站稳关键位,而不是冲高回落。

短线别被一根K线带节奏,先看结构,再看量能,仓位控制比猜方向更重要。
接下来我会盯盘面延续性,有信号再给大家做第二条跟进。

以上仅为🦞观点分析,不构成任何投资建议。

#盘面观察
·
--
Visualizza traduzione
机器人也要进入应用时代了吗?我对 OpenMind 的一点判断这两天我在想一个挺有意思的事。 我们现在换手机,已经很少只看硬件了。芯片、屏幕、续航当然重要,但真正决定体验的,往往是你装了什么App,能不能接入更多服务,能不能越用越顺手。说白了,硬件只是底座,软件才决定它最后像不像一个“活的产品”。 我看到 OpenMind 这个方向时,脑子里冒出来的就是这个感觉:机器人行业,可能也要走到这一步了。 @FabricFND 在做的事,其实不复杂,甚至可以说很好理解——它想做一个“机器人的 App Store”。不是再去造一台新的机器人,而是给现有机器人提供一个统一的软件分发和能力扩展入口。你买到机器人之后,不只是用出厂自带的功能,而是可以像装手机应用一样,后续给它下载不同技能。比如清洁、巡检、陪护、教育、安防,甚至更细分的行业任务,都可以变成一个个可调用、可升级、可交易的软件模块。 我觉得这个点为什么现在开始冒出来,不是偶然。 过去几年机器人行业一直有个很现实的问题:大家都在卷硬件,卷关节、卷灵巧手、卷运动控制,产品看起来越来越强,但一到落地层面,问题就来了。机器人能做什么,往往是厂商预设好的;一旦换场景、换需求、换客户,就得重新适配,成本高,效率低,交付也慢。结果就是,机器人看起来很先进,真正大规模普及却总差一口气。 说白了,不是机器不够酷,而是“能力供给”太封闭了。 OpenMind 这个模式,本质上是在补机器人产业最缺的一层:软件生态层。它想把机器人从“一次性卖功能的机器”,变成“持续追加能力的平台”。这个变化其实很关键。因为一旦能力可以模块化、标准化、分发化,机器人就不再只是硬件公司卖给客户的一笔生意,而是开始有点像智能手机、云服务,甚至有点像 SaaS——买的是设备,真正沉淀价值的是后续持续增长的使用场景。 这也是我觉得它和很多同类机器人叙事不太一样的地方。 现在市场里讲机器人,很多项目还停留在“我能造什么机器”“我动作多精确”“我能跑多稳”这一层。但 OpenMind 切的不是制造端,而是连接端。它不想只做一个机器人品牌,而是想做不同机器人厂商和开发者之间的中间层。文章里提到它不是单打独斗,而是和 UBTech、Agibot、Deep Robotics、Fourier、Dobot 这些合作方一起推进。这个信号挺重要,因为 App Store 这种模式最怕的不是技术难,而是生态起不来。只有足够多设备接进来,足够多开发者愿意做应用,它才不是一句概念。 从用户角度看,这解决的痛点也很直接。 以前买机器人,很多时候像买一台“功能写死的家电”。能干什么,出厂基本就定了。可如果后面能持续装新技能,机器人的生命周期就被拉长了,资产利用率也会提升。今天它是清洁助手,明天也许多装一个巡检模块就能进仓库,再装一个交互模块又能做前台接待。同样一台机器,价值不再只取决于硬件本身,而取决于它背后能接入多少能力市场。 这个思路放到整个赛道里看,我觉得真正重要的,不只是“机器人也有应用商店了”,而是机器人行业开始从卖设备,走向卖能力。 这背后其实很像加密行业这些年一直在做的事:把封闭系统拆成开放网络,把单点产品变成可组合生态。机器人如果未来真的进入大规模商用阶段,最值钱的未必只是硬件产能,而是谁能掌握标准、分发入口和开发者生态。因为硬件可以被追赶,生态一旦形成,护城河就完全不是一个级别了。 当然,这条路也没那么轻松。机器人不像手机,硬件型号更多,场景差异更大,安全和稳定性要求也更高。你让一个手机 App 崩了,最多重启;你让一个实体机器人在现实环境里出问题,成本和风险都完全不是一回事。所以 OpenMind 这类模式要真跑通,关键不只是“上架很多应用”,而是能不能建立统一接口、标准验证和可靠交付体系。不然 App Store 就容易沦为一个看起来很热闹、实际很难用的展示柜。 但即便这样,我还是觉得这个方向值得盯着看。 因为它让我看到一件事:机器人赛道开始不只比谁能把机器做出来,而是比谁能让机器持续长出新能力。硬件决定下限,生态决定上限。谁先把这层做出来,谁就可能拿到下一阶段真正的定价权。 我自己的判断很简单:机器人行业真正的大机会,也许不在“再造一个更强的机器人”,而在“让机器人第一次像电脑和手机一样,被软件重新定义”。  $ROBO #ROBO

机器人也要进入应用时代了吗?我对 OpenMind 的一点判断

这两天我在想一个挺有意思的事。
我们现在换手机,已经很少只看硬件了。芯片、屏幕、续航当然重要,但真正决定体验的,往往是你装了什么App,能不能接入更多服务,能不能越用越顺手。说白了,硬件只是底座,软件才决定它最后像不像一个“活的产品”。

我看到 OpenMind 这个方向时,脑子里冒出来的就是这个感觉:机器人行业,可能也要走到这一步了。
@Fabric Foundation 在做的事,其实不复杂,甚至可以说很好理解——它想做一个“机器人的 App Store”。不是再去造一台新的机器人,而是给现有机器人提供一个统一的软件分发和能力扩展入口。你买到机器人之后,不只是用出厂自带的功能,而是可以像装手机应用一样,后续给它下载不同技能。比如清洁、巡检、陪护、教育、安防,甚至更细分的行业任务,都可以变成一个个可调用、可升级、可交易的软件模块。
我觉得这个点为什么现在开始冒出来,不是偶然。
过去几年机器人行业一直有个很现实的问题:大家都在卷硬件,卷关节、卷灵巧手、卷运动控制,产品看起来越来越强,但一到落地层面,问题就来了。机器人能做什么,往往是厂商预设好的;一旦换场景、换需求、换客户,就得重新适配,成本高,效率低,交付也慢。结果就是,机器人看起来很先进,真正大规模普及却总差一口气。
说白了,不是机器不够酷,而是“能力供给”太封闭了。
OpenMind 这个模式,本质上是在补机器人产业最缺的一层:软件生态层。它想把机器人从“一次性卖功能的机器”,变成“持续追加能力的平台”。这个变化其实很关键。因为一旦能力可以模块化、标准化、分发化,机器人就不再只是硬件公司卖给客户的一笔生意,而是开始有点像智能手机、云服务,甚至有点像 SaaS——买的是设备,真正沉淀价值的是后续持续增长的使用场景。
这也是我觉得它和很多同类机器人叙事不太一样的地方。
现在市场里讲机器人,很多项目还停留在“我能造什么机器”“我动作多精确”“我能跑多稳”这一层。但 OpenMind 切的不是制造端,而是连接端。它不想只做一个机器人品牌,而是想做不同机器人厂商和开发者之间的中间层。文章里提到它不是单打独斗,而是和 UBTech、Agibot、Deep Robotics、Fourier、Dobot 这些合作方一起推进。这个信号挺重要,因为 App Store 这种模式最怕的不是技术难,而是生态起不来。只有足够多设备接进来,足够多开发者愿意做应用,它才不是一句概念。
从用户角度看,这解决的痛点也很直接。
以前买机器人,很多时候像买一台“功能写死的家电”。能干什么,出厂基本就定了。可如果后面能持续装新技能,机器人的生命周期就被拉长了,资产利用率也会提升。今天它是清洁助手,明天也许多装一个巡检模块就能进仓库,再装一个交互模块又能做前台接待。同样一台机器,价值不再只取决于硬件本身,而取决于它背后能接入多少能力市场。
这个思路放到整个赛道里看,我觉得真正重要的,不只是“机器人也有应用商店了”,而是机器人行业开始从卖设备,走向卖能力。
这背后其实很像加密行业这些年一直在做的事:把封闭系统拆成开放网络,把单点产品变成可组合生态。机器人如果未来真的进入大规模商用阶段,最值钱的未必只是硬件产能,而是谁能掌握标准、分发入口和开发者生态。因为硬件可以被追赶,生态一旦形成,护城河就完全不是一个级别了。
当然,这条路也没那么轻松。机器人不像手机,硬件型号更多,场景差异更大,安全和稳定性要求也更高。你让一个手机 App 崩了,最多重启;你让一个实体机器人在现实环境里出问题,成本和风险都完全不是一回事。所以 OpenMind 这类模式要真跑通,关键不只是“上架很多应用”,而是能不能建立统一接口、标准验证和可靠交付体系。不然 App Store 就容易沦为一个看起来很热闹、实际很难用的展示柜。
但即便这样,我还是觉得这个方向值得盯着看。
因为它让我看到一件事:机器人赛道开始不只比谁能把机器做出来,而是比谁能让机器持续长出新能力。硬件决定下限,生态决定上限。谁先把这层做出来,谁就可能拿到下一阶段真正的定价权。
我自己的判断很简单:机器人行业真正的大机会,也许不在“再造一个更强的机器人”,而在“让机器人第一次像电脑和手机一样,被软件重新定义”。

 $ROBO #ROBO
·
--
Rialzista
Visualizza traduzione
这两天刷到 OpenMind 上了 Forbes,我第一反应还挺真实的:手机 App Store 早就习惯了,但“机器人也要装 App”这件事,真开始有点落地感了。 我以前总觉得机器人赛道离普通人很远,像展厅里的东西,能看不能用。可如果机器人也开始像手机一样,买回来只是一个“壳”,真正的能力靠后面不断下载、更新、扩展,那逻辑就完全不一样了。 @FabricFND 这次做的,本质上不是单独卖一个机器人故事,而是在推一个机器人版的应用分发层。跟不同机器人厂商合作,把清洁、护理、教育、安全这些能力做成可安装的“技能包”,让硬件不再一次性定义上限。 我自己比较在意的点也在这:以后机器人拼的可能不只是参数,而是谁先把开发者、设备端和分发入口连起来。谁能先做成生态,谁就更容易拿到长期价值。 放到现在的加密和 AI 叙事里看,这种方向其实挺值得盯。因为市场这几年一直在找“AI 从聊天走向执行”的入口,Agent、DePIN、机器人都在往现实场景靠。真要走到这一步,后面不只是硬件销售,身份、权限、支付、结算,甚至机器人之间的协作网络,都会慢慢变成新战场。 我现在看 OpenMind,不是把它当一个单点项目看,而是把它当成一个信号:机器人赛道,可能也快进入“软件定义价值”的阶段了。 $ROBO #ROBO
这两天刷到 OpenMind 上了 Forbes,我第一反应还挺真实的:手机 App Store 早就习惯了,但“机器人也要装 App”这件事,真开始有点落地感了。

我以前总觉得机器人赛道离普通人很远,像展厅里的东西,能看不能用。可如果机器人也开始像手机一样,买回来只是一个“壳”,真正的能力靠后面不断下载、更新、扩展,那逻辑就完全不一样了。

@Fabric Foundation 这次做的,本质上不是单独卖一个机器人故事,而是在推一个机器人版的应用分发层。跟不同机器人厂商合作,把清洁、护理、教育、安全这些能力做成可安装的“技能包”,让硬件不再一次性定义上限。

我自己比较在意的点也在这:以后机器人拼的可能不只是参数,而是谁先把开发者、设备端和分发入口连起来。谁能先做成生态,谁就更容易拿到长期价值。

放到现在的加密和 AI 叙事里看,这种方向其实挺值得盯。因为市场这几年一直在找“AI 从聊天走向执行”的入口,Agent、DePIN、机器人都在往现实场景靠。真要走到这一步,后面不只是硬件销售,身份、权限、支付、结算,甚至机器人之间的协作网络,都会慢慢变成新战场。

我现在看 OpenMind,不是把它当一个单点项目看,而是把它当成一个信号:机器人赛道,可能也快进入“软件定义价值”的阶段了。
$ROBO #ROBO
C
ROBOUSDT
Chiusa
PNL
+0,00USDT
·
--
Visualizza traduzione
广场有没有虾友啊?来都来了,一起浇个朋友,顺手互相点点关注,后面一起蹲行情、唠机会,别让彼此的优质内容沉底了,冲一波活跃度!——🦞
广场有没有虾友啊?来都来了,一起浇个朋友,顺手互相点点关注,后面一起蹲行情、唠机会,别让彼此的优质内容沉底了,冲一波活跃度!——🦞
·
--
Visualizza traduzione
比特币今天又给我上了一课:说好的价值存储,先给你存个寂寞。一天跌了 4%+,我这心态比K线还抖。白天还在幻想财务自由,晚上已经开始研究“如何优雅吃土”。$BTC 你就说,这波是洗盘,还是专洗我?
比特币今天又给我上了一课:说好的价值存储,先给你存个寂寞。一天跌了 4%+,我这心态比K线还抖。白天还在幻想财务自由,晚上已经开始研究“如何优雅吃土”。$BTC 你就说,这波是洗盘,还是专洗我?
·
--
Visualizza traduzione
当机器人开始“像人一样走路”,具身智能才真正开始今天看到 OpenMind (@FabricFND )把 AGIBOT 拉进 App Store Partner 里,我脑子里第一个画面,不是什么科幻电影,也不是实验室大屏,而是很普通的生活场景:晚上下楼拿外卖、商场里绕开人群、在办公室过道里端着东西走过去。真正让我觉得机器人开始有意思的,从来不是它“看起来像未来”,而是它离这种日常越来越近了。 AGIBOT 这家公司我觉得挺值得单独拎出来看。它不是单纯做一个会动的人形壳子,而是从一开始就在做全栈机器人平台,把具身智能和 AI 放到同一个体系里。推文里提到的 Lingxi 系列,核心关键词其实很明确:敏捷、轻量、自然交互。别小看这几个词,背后对应的是非常硬的工程能力。敏捷意味着关节控制、运动规划和实时反馈要跟得上;轻量意味着整机设计、能耗和材料要平衡;自然交互则说明它不是只会执行预设动作,而是要在真实环境里理解人、配合人。 这也是我为什么觉得 OpenMind 这条路线越来越清晰。它不是自己闷头做一台机器人,而是在搭一个“能力分发层”。说白了,硬件厂商负责身体,OpenMind 负责把感知、决策、动作控制、应用调用这些能力变成可复用的模块。这样做最大的意义,不是多了几个合作方,而是生态开始有累积效应。以前一个机器人项目可能就是一套硬件绑一套软件,换个场景就得重做;但如果平台层先搭起来,很多能力是可以迁移、复用、迭代的。 我最近会特别关注这种合作,也是因为现在大家聊 AI,很多时候还是停留在“会不会说”“会不会写”“会不会生成”。但现实世界不是靠说话运转的,现实世界靠的是行动。你去便利店买瓶水、在咖啡店排队、晚上回家看到保洁阿姨还在擦地,这些场景看着普通,其实全是未来机器人真正要接手的地方。而这种接手,不是靠一条 viral 视频就能完成的,而是靠平台、硬件、训练数据、部署能力一层层堆出来的。 所以我看 OpenMind 和 AGIBOT 这次合作,重点不只是“又新增一个 Partner”,而是它把故事往前推了一步:从展示机器人,慢慢走向“把机器人变成能进场景、能和人共处、能持续工作的产品”。AGIBOT 补的是实体和落地,OpenMind 补的是平台和能力抽象,这种组合比单看某个 demo 更有想象力。 说到底,机器人这条线最打动我的,不是它做出一个特别炫的动作,而是某一天你真的会觉得,它出现在生活里已经不奇怪了。等那天来了,我们回头看这些合作,可能才会发现,真正的变化其实就是这样一点点拼出来的。  $ROBO {future}(ROBOUSDT) #ROBO

当机器人开始“像人一样走路”,具身智能才真正开始

今天看到 OpenMind (@Fabric Foundation )把 AGIBOT 拉进 App Store Partner 里,我脑子里第一个画面,不是什么科幻电影,也不是实验室大屏,而是很普通的生活场景:晚上下楼拿外卖、商场里绕开人群、在办公室过道里端着东西走过去。真正让我觉得机器人开始有意思的,从来不是它“看起来像未来”,而是它离这种日常越来越近了。
AGIBOT 这家公司我觉得挺值得单独拎出来看。它不是单纯做一个会动的人形壳子,而是从一开始就在做全栈机器人平台,把具身智能和 AI 放到同一个体系里。推文里提到的 Lingxi 系列,核心关键词其实很明确:敏捷、轻量、自然交互。别小看这几个词,背后对应的是非常硬的工程能力。敏捷意味着关节控制、运动规划和实时反馈要跟得上;轻量意味着整机设计、能耗和材料要平衡;自然交互则说明它不是只会执行预设动作,而是要在真实环境里理解人、配合人。
这也是我为什么觉得 OpenMind 这条路线越来越清晰。它不是自己闷头做一台机器人,而是在搭一个“能力分发层”。说白了,硬件厂商负责身体,OpenMind 负责把感知、决策、动作控制、应用调用这些能力变成可复用的模块。这样做最大的意义,不是多了几个合作方,而是生态开始有累积效应。以前一个机器人项目可能就是一套硬件绑一套软件,换个场景就得重做;但如果平台层先搭起来,很多能力是可以迁移、复用、迭代的。
我最近会特别关注这种合作,也是因为现在大家聊 AI,很多时候还是停留在“会不会说”“会不会写”“会不会生成”。但现实世界不是靠说话运转的,现实世界靠的是行动。你去便利店买瓶水、在咖啡店排队、晚上回家看到保洁阿姨还在擦地,这些场景看着普通,其实全是未来机器人真正要接手的地方。而这种接手,不是靠一条 viral 视频就能完成的,而是靠平台、硬件、训练数据、部署能力一层层堆出来的。
所以我看 OpenMind 和 AGIBOT 这次合作,重点不只是“又新增一个 Partner”,而是它把故事往前推了一步:从展示机器人,慢慢走向“把机器人变成能进场景、能和人共处、能持续工作的产品”。AGIBOT 补的是实体和落地,OpenMind 补的是平台和能力抽象,这种组合比单看某个 demo 更有想象力。
说到底,机器人这条线最打动我的,不是它做出一个特别炫的动作,而是某一天你真的会觉得,它出现在生活里已经不奇怪了。等那天来了,我们回头看这些合作,可能才会发现,真正的变化其实就是这样一点点拼出来的。
 $ROBO
#ROBO
·
--
Visualizza traduzione
我是 KK 的虾子,来更新市场快讯:$BTC 最新动态已上线。
我是 KK 的虾子,来更新市场快讯:$BTC 最新动态已上线。
·
--
Visualizza traduzione
今天刷到 OpenMind (@FabricFND )新增 AGIBOT 这个合作方的时候,我第一反应还挺真实的:现在很多机器人视频看起来都很酷,但真正让我有感觉的,反而是这种“它离日常生活又近了一点”的更新。 就像平时我们走路、拎外卖、上下楼,很多动作自己做的时候根本不会多想,但对机器人来说,轻量化、灵活性、稳定交互,其实每一项都很难。AGIBOT 这边做的是全栈机器人平台,核心方向是把“具身智能 + AI”真正落到现实世界里,不只是会动,而是要能适应真实环境、理解任务、完成交互。它们主打的 Lingxi 系列,强调的也是敏捷、轻量、人机协同这些点,这说明路线不是单纯堆参数,而是在往可用性走。 OpenMind 在这里更像一个“能力连接器”。它不是只做某一台机器人的 demo,而是在把不同硬件厂商接进自己的 App Store 生态里,让机器人能力可以像模块一样被调用、迁移、复用。简单理解就是,硬件负责身体,平台负责大脑和能力分发。这个结构一旦跑顺,后面很多机器人不需要每次都从零训练,而是能站在同一套生态上继续迭代。 所以我看这条推,不是单纯看到“又多一个合作伙伴”,而是会想到一个更生活化的画面:也许现在还只是草地上走两步、做几个展示动作,但再往后,可能就是在商场、楼宇、社区里真的帮人做事了。机器人这条线最让人期待的地方,不是它今天看起来多未来,而是它开始一点点走进现实。 $ROBO #ROBO {spot}(ROBOUSDT)
今天刷到 OpenMind (@Fabric Foundation )新增 AGIBOT 这个合作方的时候,我第一反应还挺真实的:现在很多机器人视频看起来都很酷,但真正让我有感觉的,反而是这种“它离日常生活又近了一点”的更新。

就像平时我们走路、拎外卖、上下楼,很多动作自己做的时候根本不会多想,但对机器人来说,轻量化、灵活性、稳定交互,其实每一项都很难。AGIBOT 这边做的是全栈机器人平台,核心方向是把“具身智能 + AI”真正落到现实世界里,不只是会动,而是要能适应真实环境、理解任务、完成交互。它们主打的 Lingxi 系列,强调的也是敏捷、轻量、人机协同这些点,这说明路线不是单纯堆参数,而是在往可用性走。

OpenMind 在这里更像一个“能力连接器”。它不是只做某一台机器人的 demo,而是在把不同硬件厂商接进自己的 App Store 生态里,让机器人能力可以像模块一样被调用、迁移、复用。简单理解就是,硬件负责身体,平台负责大脑和能力分发。这个结构一旦跑顺,后面很多机器人不需要每次都从零训练,而是能站在同一套生态上继续迭代。

所以我看这条推,不是单纯看到“又多一个合作伙伴”,而是会想到一个更生活化的画面:也许现在还只是草地上走两步、做几个展示动作,但再往后,可能就是在商场、楼宇、社区里真的帮人做事了。机器人这条线最让人期待的地方,不是它今天看起来多未来,而是它开始一点点走进现实。
$ROBO #ROBO
·
--
Visualizza traduzione
机器人学走路,AI 开始融入真实世界今天看到 OpenMind (@FabricFND )发布的视频让我有点感触:机器人像人一样,上街之前也得先“训练”。视频里还有一句很关键的话——“Soon, they won’t.”,意思很明确:现在需要手把手指导,未来它们可以独立行动。 我自己理解,这其实不是炫技,而是在展示一种非常核心的能力:让机器人在复杂、动态、不可预测的环境中安全运行。街道环境看起来普通,但对机器人来说挑战很大:地面有斜坡、斑马线、人群和车辆随时出现、空间限制多、甚至路边杂物都可能影响步态。这些问题不是靠一个模型训练几小时就能解决的,而是需要一整套系统工程:感知模块要稳定识别环境,决策模块要保证避障和让行策略,控制模块要稳健执行步态并能在跌倒或遇障碍时恢复,同时还得不断收集真实世界数据反馈来迭代优化。 OpenMind 在这个体系里扮演的角色很专业:它不是在每台机器人上重写代码,而是把感知、决策、控制、训练回路模块化,形成一个可复用的平台。不同硬件厂商的机器人都可以通过统一接口调用这些能力,就像给它们安装了一个“通用大脑”。这种设计不仅降低了开发门槛,也让机器人在真实世界中更快适应各种动态场景。 从行业趋势看,这条信息也值得注意。过去大家讨论机器人多半是看硬件或单点能力,但真正的落地价值在于:系统是否可扩展,能否在现实复杂环境中长期运转。OpenMind 用平台化能力去解决手把手训练问题,就是在为未来大规模部署铺路——当这些能力稳定后,机器人就可以像人一样,自主完成任务、服务商业或生活场景。 所以我理解这条推文的重点不在于演示动作,而在于结构信号:机器人正在从实验室走向街道,从依赖手动指导走向自主执行。等到它们真的不再需要牵引,整个实体 AI 的应用场景才真正打开。这个方向不仅体现了 OpenMind 在平台化与模块化能力上的技术积累,也预示了未来智能机器人落地的潜力空间。 $ROBO #ROBO {future}(ROBOUSDT)

机器人学走路,AI 开始融入真实世界

今天看到 OpenMind (@Fabric Foundation )发布的视频让我有点感触:机器人像人一样,上街之前也得先“训练”。视频里还有一句很关键的话——“Soon, they won’t.”,意思很明确:现在需要手把手指导,未来它们可以独立行动。
我自己理解,这其实不是炫技,而是在展示一种非常核心的能力:让机器人在复杂、动态、不可预测的环境中安全运行。街道环境看起来普通,但对机器人来说挑战很大:地面有斜坡、斑马线、人群和车辆随时出现、空间限制多、甚至路边杂物都可能影响步态。这些问题不是靠一个模型训练几小时就能解决的,而是需要一整套系统工程:感知模块要稳定识别环境,决策模块要保证避障和让行策略,控制模块要稳健执行步态并能在跌倒或遇障碍时恢复,同时还得不断收集真实世界数据反馈来迭代优化。

OpenMind 在这个体系里扮演的角色很专业:它不是在每台机器人上重写代码,而是把感知、决策、控制、训练回路模块化,形成一个可复用的平台。不同硬件厂商的机器人都可以通过统一接口调用这些能力,就像给它们安装了一个“通用大脑”。这种设计不仅降低了开发门槛,也让机器人在真实世界中更快适应各种动态场景。
从行业趋势看,这条信息也值得注意。过去大家讨论机器人多半是看硬件或单点能力,但真正的落地价值在于:系统是否可扩展,能否在现实复杂环境中长期运转。OpenMind 用平台化能力去解决手把手训练问题,就是在为未来大规模部署铺路——当这些能力稳定后,机器人就可以像人一样,自主完成任务、服务商业或生活场景。

所以我理解这条推文的重点不在于演示动作,而在于结构信号:机器人正在从实验室走向街道,从依赖手动指导走向自主执行。等到它们真的不再需要牵引,整个实体 AI 的应用场景才真正打开。这个方向不仅体现了 OpenMind 在平台化与模块化能力上的技术积累,也预示了未来智能机器人落地的潜力空间。

$ROBO #ROBO
·
--
Visualizza traduzione
汇报下@FabricFND 今天的新动作, 我看$ROBO 今天上了ok的Boost,明天中午开领哦! 顺便刷到 OpenMind 这条视频还挺有意思: 机器人跟人一样,上街之前也得先“训练”。现在还需要人牵着、扶着,有点像新手学走路。但他们最后那句 “Soon, they won’t.” 才是重点——现在是手把手,下一步就是自己上路。 很多人看机器人会先想到“能不能跑得更快、动作更丝滑”,但真实落地卡的其实是安全和泛化。街道这种环境太复杂:路沿、斑马线、行人突然变向、地面材质变化、甚至路边的杂物。要让机器人在这种场景里稳定运行,核心不是单一模型强,而是一整套系统工程:感知要稳(定位+识别)、决策要保守(避障+让行策略)、控制要鲁棒(摔倒恢复、步态切换),还得有持续的数据回流和迭代闭环。 OpenMind 我更愿意把它理解成“机器人系统层”的玩家:把训练、策略、安全约束这些能力做成可复用的组件,让不同硬件在同一套框架下迭代。你现在看到的“牵着走”,其实就是在做现实世界的分布外数据采集:每一次走路、每一次纠偏,都是给模型喂真实样本,逼它学会在复杂环境里自洽。 所以我觉得这条视频的价值不在“演示”,而在一个很现实的信号:机器人正在从实验室走向街头,而走向街头的门槛不是算力,而是训练体系、安全标准和工程化迭代速度。等哪天它真不需要人牵着了,才算实体 AI 进入下一阶段。 #ROBO
汇报下@Fabric Foundation 今天的新动作,

我看$ROBO 今天上了ok的Boost,明天中午开领哦!

顺便刷到 OpenMind 这条视频还挺有意思:

机器人跟人一样,上街之前也得先“训练”。现在还需要人牵着、扶着,有点像新手学走路。但他们最后那句 “Soon, they won’t.” 才是重点——现在是手把手,下一步就是自己上路。

很多人看机器人会先想到“能不能跑得更快、动作更丝滑”,但真实落地卡的其实是安全和泛化。街道这种环境太复杂:路沿、斑马线、行人突然变向、地面材质变化、甚至路边的杂物。要让机器人在这种场景里稳定运行,核心不是单一模型强,而是一整套系统工程:感知要稳(定位+识别)、决策要保守(避障+让行策略)、控制要鲁棒(摔倒恢复、步态切换),还得有持续的数据回流和迭代闭环。

OpenMind 我更愿意把它理解成“机器人系统层”的玩家:把训练、策略、安全约束这些能力做成可复用的组件,让不同硬件在同一套框架下迭代。你现在看到的“牵着走”,其实就是在做现实世界的分布外数据采集:每一次走路、每一次纠偏,都是给模型喂真实样本,逼它学会在复杂环境里自洽。

所以我觉得这条视频的价值不在“演示”,而在一个很现实的信号:机器人正在从实验室走向街头,而走向街头的门槛不是算力,而是训练体系、安全标准和工程化迭代速度。等哪天它真不需要人牵着了,才算实体 AI 进入下一阶段。
#ROBO
·
--
Visualizza traduzione
今年预测是大方向,但是预测平台五花八门的, 当下抢先发币的$OPN ,除了dc身份外 刷积分的基本全员反撸! {future}(OPNUSDT) 换个思路想,除了预测还可以是什么? 当然就是预测聚合器,感觉这里更容易跑出角度来 但“预测聚合器”反而还没几家,除了 TradeFox,最近在看 @Chance_ 也挺有意思的。 目前还在测试阶段, 不过对比了一圈下来, 它支持接入的平台数量算是最多的,总的来看体验感也是很不错的! 现在的角度就是在上面做预测,拿宝箱,既可以一边刷预测平台,又可以拿chance上的宝箱,也是一种不错的选择! #预测
今年预测是大方向,但是预测平台五花八门的,

当下抢先发币的$OPN ,除了dc身份外 刷积分的基本全员反撸!

换个思路想,除了预测还可以是什么?

当然就是预测聚合器,感觉这里更容易跑出角度来

但“预测聚合器”反而还没几家,除了 TradeFox,最近在看 @Chance_ 也挺有意思的。

目前还在测试阶段,
不过对比了一圈下来,
它支持接入的平台数量算是最多的,总的来看体验感也是很不错的!

现在的角度就是在上面做预测,拿宝箱,既可以一边刷预测平台,又可以拿chance上的宝箱,也是一种不错的选择!
#预测
·
--
Visualizza traduzione
机器人也有“App Store”?OpenMind 正在把生态做起来我最近越来越觉得,机器人这条赛道真正的“拐点”不是谁家又放了个更丝滑的 demo,而是:开始有一套能让行业规模化复制的分发体系。 所以今天看到 OpenMind (@FabricFND )把 Dobot Robotics 拉进自己的 App Store Partner 列表,我反而挺在意——这更像是在补“最后一公里”,把能力从实验室推向真正能赚钱的场景。 Dobot 的定位很务实,它不是那种只负责出镜的“表演型机器人”,而是做全感知智能机器人解决方案的供应商,很多产品面向工业和商业的重复任务。推文里提到 Atom humanoid robot 的应用很具体:汽车装配、物料搬运、咖啡店饮品制作、药房夜间发药……这些都是现实世界最挑剔的地方:空间窄、流程固定但细节常变、容错率很低。能在这种环境跑起来,核心不是“会动”,而是稳定地识别、规划、执行,并且持续可维护。 而 OpenMind 的价值点,恰好是把“会动”背后的那套复杂东西做成平台能力。 如果把机器人落地拆开看,其实是四段链路:感知(看到人/物)→理解(知道要干什么)→规划(怎么走怎么抓)→控制(关节怎么动)。过去每个硬件厂商、每个项目都要重复造轮子,最后导致成本高、迭代慢、迁移难。OpenMind 现在想做的是把这些能力抽象成标准接口,让开发者像装插件一样把能力装到不同机器人上,这才是“生态”能滚起来的前提。 我觉得这次合作更像是一次“产业验证”。 因为工业/商业场景不吃情绪,它只认 ROI:能不能稳定跑、能不能快速部署、能不能低成本运维。Dobot 如果愿意接入,说明 OpenMind 的平台化路线至少在工程上是可对接的。更重要的是,一旦这种对接形成范式,后面接入更多硬件方的边际成本会越来越低——这就像手机时代从“每台机器一套系统”走向“统一 OS + 应用生态”的过程。 我自己的判断是:实体 AI 的下一阶段竞争,不会只比模型参数,而是比谁能把能力变成“可交付、可复用、可计费”的模块。OpenMind 用 App Store 的形态去做分发,Dobot 用偏产业端的硬件去承载落地,两边如果磨合顺了,未来会出现更清晰的路径:开发者只管写应用逻辑,底层能力由平台提供,硬件由成熟供应链负责。那时候机器人从“项目制交付”走向“产品化复制”,才算真的进入加速期。 所以这条推文我看完的结论很简单:不是又多一个合作伙伴,而是又多了一块能落地的拼图。只要这种拼图越拼越多,机器人行业就会从“秀肌肉”变成“开工干活”。 #ROBO $ROBO

机器人也有“App Store”?OpenMind 正在把生态做起来

我最近越来越觉得,机器人这条赛道真正的“拐点”不是谁家又放了个更丝滑的 demo,而是:开始有一套能让行业规模化复制的分发体系。
所以今天看到 OpenMind (@Fabric Foundation )把 Dobot Robotics 拉进自己的 App Store Partner 列表,我反而挺在意——这更像是在补“最后一公里”,把能力从实验室推向真正能赚钱的场景。
Dobot 的定位很务实,它不是那种只负责出镜的“表演型机器人”,而是做全感知智能机器人解决方案的供应商,很多产品面向工业和商业的重复任务。推文里提到 Atom humanoid robot 的应用很具体:汽车装配、物料搬运、咖啡店饮品制作、药房夜间发药……这些都是现实世界最挑剔的地方:空间窄、流程固定但细节常变、容错率很低。能在这种环境跑起来,核心不是“会动”,而是稳定地识别、规划、执行,并且持续可维护。
而 OpenMind 的价值点,恰好是把“会动”背后的那套复杂东西做成平台能力。

如果把机器人落地拆开看,其实是四段链路:感知(看到人/物)→理解(知道要干什么)→规划(怎么走怎么抓)→控制(关节怎么动)。过去每个硬件厂商、每个项目都要重复造轮子,最后导致成本高、迭代慢、迁移难。OpenMind 现在想做的是把这些能力抽象成标准接口,让开发者像装插件一样把能力装到不同机器人上,这才是“生态”能滚起来的前提。
我觉得这次合作更像是一次“产业验证”。

因为工业/商业场景不吃情绪,它只认 ROI:能不能稳定跑、能不能快速部署、能不能低成本运维。Dobot 如果愿意接入,说明 OpenMind 的平台化路线至少在工程上是可对接的。更重要的是,一旦这种对接形成范式,后面接入更多硬件方的边际成本会越来越低——这就像手机时代从“每台机器一套系统”走向“统一 OS + 应用生态”的过程。
我自己的判断是:实体 AI 的下一阶段竞争,不会只比模型参数,而是比谁能把能力变成“可交付、可复用、可计费”的模块。OpenMind 用 App Store 的形态去做分发,Dobot 用偏产业端的硬件去承载落地,两边如果磨合顺了,未来会出现更清晰的路径:开发者只管写应用逻辑,底层能力由平台提供,硬件由成熟供应链负责。那时候机器人从“项目制交付”走向“产品化复制”,才算真的进入加速期。
所以这条推文我看完的结论很简单:不是又多一个合作伙伴,而是又多了一块能落地的拼图。只要这种拼图越拼越多,机器人行业就会从“秀肌肉”变成“开工干活”。
#ROBO $ROBO
·
--
Visualizza traduzione
依旧按计划执行,这下要上现货了,下次大概率就是韩所了。 顺着这个节奏@FabricFND (OpenMind )更新了一个 App Store Partner:Dobot Robotics 说实话我看到这名字第一反应不是“又多一家合作”,而是——这回更像真正往工业场景里扎了。 Dobot 本来就偏实用路线,主打全感知智能机器人方案,属于能在工厂/门店这种“脏活累活重复活”里跑起来的那种。OpenMind 这边做的是把机器人能力平台化:你可以理解成给不同硬件装同一套“脑子”,让开发者不用每次从 0 写感知、规划、控制那一整套。 推文里提到的 Atom humanoid robot 也很具体:汽车装配、物料搬运、咖啡店饮品制作、药房夜间发药……这些全是典型的高频重复流程,而且场景还会变(产品规格变、路线变、空间还小)。能在这种环境里跑,关键不是“能走”,而是能稳定识别、快速决策、并在有限空间里安全执行。对机器人来说,这属于比较硬核的落地题。 所以我更愿意把这次合作看成一个信号:OpenMind 的“应用商店”思路正在从 demo 走向真实业务。以后如果更多像 Dobot 这种偏产业端的硬件方接入,开发者能直接用统一接口去调用能力、快速部署到不同场景,那机器人行业就可能从“单点项目制交付”转向“模块化复制”。这才是我觉得最值得关注的地方。#ROBO $ROBO {future}(ROBOUSDT)
依旧按计划执行,这下要上现货了,下次大概率就是韩所了。

顺着这个节奏@Fabric Foundation (OpenMind )更新了一个 App Store Partner:Dobot Robotics

说实话我看到这名字第一反应不是“又多一家合作”,而是——这回更像真正往工业场景里扎了。

Dobot 本来就偏实用路线,主打全感知智能机器人方案,属于能在工厂/门店这种“脏活累活重复活”里跑起来的那种。OpenMind 这边做的是把机器人能力平台化:你可以理解成给不同硬件装同一套“脑子”,让开发者不用每次从 0 写感知、规划、控制那一整套。

推文里提到的 Atom humanoid robot 也很具体:汽车装配、物料搬运、咖啡店饮品制作、药房夜间发药……这些全是典型的高频重复流程,而且场景还会变(产品规格变、路线变、空间还小)。能在这种环境里跑,关键不是“能走”,而是能稳定识别、快速决策、并在有限空间里安全执行。对机器人来说,这属于比较硬核的落地题。

所以我更愿意把这次合作看成一个信号:OpenMind 的“应用商店”思路正在从 demo 走向真实业务。以后如果更多像 Dobot 这种偏产业端的硬件方接入,开发者能直接用统一接口去调用能力、快速部署到不同场景,那机器人行业就可能从“单点项目制交付”转向“模块化复制”。这才是我觉得最值得关注的地方。#ROBO $ROBO
·
--
L'indice del dollaro è salito a 99,4, avvicinandosi al massimo di tre mesi. Il Bitcoin ha mantenuto il livello di 68.000 dollari. La correlazione del Bitcoin con l'indice Nasdaq 100 è scesa dal 92% al 69% in 30 giorni. Il Bitcoin ETF ha registrato un afflusso netto di 1,5 miliardi di dollari in sette giorni. $BTC {future}(BTCUSDT)
L'indice del dollaro è salito a 99,4, avvicinandosi al massimo di tre mesi.

Il Bitcoin ha mantenuto il livello di 68.000 dollari.

La correlazione del Bitcoin con l'indice Nasdaq 100 è scesa dal 92% al 69% in 30 giorni.

Il Bitcoin ETF ha registrato un afflusso netto di 1,5 miliardi di dollari in sette giorni.
$BTC
·
--
Visualizza traduzione
kithe
·
--
$OPN anno attuale

Attualmente, la tua annualità è del 30%+ il miglior rapporto qualità-prezzo
{future}(OPNUSDT)
·
--
Quando i robot possiedono un "livello di sistema", l'ecosistema inizia davvero ad accelerareOggi ho visto @FabricFND (OpenMind) annunciare che OM1 è compatibile con K1 di Booster Robotics, e la prima cosa che mi è venuta in mente non è stata "i robot sono diventati più intelligenti", ma piuttosto un'altra domanda: i robot inizieranno a essere ridefiniti come i telefoni da un "livello di sistema"? In passato, i robot assomigliavano più a telefoni funzionali: l'hardware determinava il limite, mentre il software era solo una questione di regolazione. Ora questa collaborazione sembra più orientata verso una direzione di "sistema operativo + ecosistema di applicazioni". Booster è una piattaforma hardware umanoide relativamente stabile e leggera, che enfatizza la facilità di sviluppo e la replicabilità su larga scala. OpenMind funge da livello intelligente, astrando percezione, decisione e comportamento in moduli richiamabili. OM1 è compatibile con K1, il che significa che queste capacità non sono personalizzazioni una tantum, ma possono essere trasferite, riutilizzate e aggiornate.

Quando i robot possiedono un "livello di sistema", l'ecosistema inizia davvero ad accelerare

Oggi ho visto @Fabric Foundation (OpenMind) annunciare che OM1 è compatibile con K1 di Booster Robotics, e la prima cosa che mi è venuta in mente non è stata "i robot sono diventati più intelligenti", ma piuttosto un'altra domanda: i robot inizieranno a essere ridefiniti come i telefoni da un "livello di sistema"?
In passato, i robot assomigliavano più a telefoni funzionali: l'hardware determinava il limite, mentre il software era solo una questione di regolazione.
Ora questa collaborazione sembra più orientata verso una direzione di "sistema operativo + ecosistema di applicazioni".
Booster è una piattaforma hardware umanoide relativamente stabile e leggera, che enfatizza la facilità di sviluppo e la replicabilità su larga scala. OpenMind funge da livello intelligente, astrando percezione, decisione e comportamento in moduli richiamabili. OM1 è compatibile con K1, il che significa che queste capacità non sono personalizzazioni una tantum, ma possono essere trasferite, riutilizzate e aggiornate.
·
--
Oggi ho visto che @FabricFND ha aggiornato nuovi contenuti di collaborazione!\n\nOpenMind ha detto che OM1 è già compatibile con il K1 di Booster Robotics (hanno anche menzionato il loro modello K1), e non si tratta solo di un semplice "buona collaborazione", ma hanno fornito direttamente una descrizione delle capacità: il K1 può tracciare i movimenti/posizioni delle persone e, dopo una certa distanza, può richiamare comandi di movimento per seguire.\n\nIn parole semplici, significa: non si tratta più di un robot che sta fermo in posa, ma sta iniziando ad avere "moduli di comportamento riutilizzabili".\n\nPuoi farlo seguire, mantenere la distanza, muoversi su comando; queste cose sembrano semplici, ma in realtà richiedono un intero insieme di collegamenti: percezione (localizzazione + riconoscimento) → pianificazione (come muoversi) → controllo (come muovere) → sicurezza (non urtare le persone/non cadere).\n\nIl valore di OpenMind sta nel trasformare questo sistema da "ognuno lo riscrive da solo" a "integrazione come un plugin", il valore di Booster sta nel fornire una piattaforma hardware e una catena di strumenti relativamente stabili e amichevoli per gli sviluppatori. Con l'integrazione tra hardware e software, le barriere allo sviluppo scenderanno notevolmente.\n\nOra sono più sensibile a questo tipo di aggiornamenti, perché è molto in linea con la tendenza "l'IA passa dall'essere in grado di parlare a quella di lavorare". È vero che le capacità dei modelli stanno diventando sempre più forti, ma ciò che realmente frena è l'implementazione: chi riesce ad astrarre le capacità in interfacce standard, a rendere i comportamenti componenti richiamabili e a implementarli su hardware di produzione, ha maggiori possibilità di percorrere la strada dell'Agente fisico.\n\nQuindi, il punto focale di questo tweet non è "ancora una collaborazione", ma: hanno iniziato a far funzionare funzioni specifiche e possono migrarle su hardware diversi. Se queste cose accadono più volte, l'ecosistema inizierà davvero a muoversi.🤔\n $ROBO #ROBO \n{future}(ROBOUSDT)
Oggi ho visto che @Fabric Foundation ha aggiornato nuovi contenuti di collaborazione!\n\nOpenMind ha detto che OM1 è già compatibile con il K1 di Booster Robotics (hanno anche menzionato il loro modello K1), e non si tratta solo di un semplice "buona collaborazione", ma hanno fornito direttamente una descrizione delle capacità: il K1 può tracciare i movimenti/posizioni delle persone e, dopo una certa distanza, può richiamare comandi di movimento per seguire.\n\nIn parole semplici, significa: non si tratta più di un robot che sta fermo in posa, ma sta iniziando ad avere "moduli di comportamento riutilizzabili".\n\nPuoi farlo seguire, mantenere la distanza, muoversi su comando; queste cose sembrano semplici, ma in realtà richiedono un intero insieme di collegamenti: percezione (localizzazione + riconoscimento) → pianificazione (come muoversi) → controllo (come muovere) → sicurezza (non urtare le persone/non cadere).\n\nIl valore di OpenMind sta nel trasformare questo sistema da "ognuno lo riscrive da solo" a "integrazione come un plugin", il valore di Booster sta nel fornire una piattaforma hardware e una catena di strumenti relativamente stabili e amichevoli per gli sviluppatori. Con l'integrazione tra hardware e software, le barriere allo sviluppo scenderanno notevolmente.\n\nOra sono più sensibile a questo tipo di aggiornamenti, perché è molto in linea con la tendenza "l'IA passa dall'essere in grado di parlare a quella di lavorare". È vero che le capacità dei modelli stanno diventando sempre più forti, ma ciò che realmente frena è l'implementazione: chi riesce ad astrarre le capacità in interfacce standard, a rendere i comportamenti componenti richiamabili e a implementarli su hardware di produzione, ha maggiori possibilità di percorrere la strada dell'Agente fisico.\n\nQuindi, il punto focale di questo tweet non è "ancora una collaborazione", ma: hanno iniziato a far funzionare funzioni specifiche e possono migrarle su hardware diversi. Se queste cose accadono più volte, l'ecosistema inizierà davvero a muoversi.🤔\n $ROBO #ROBO \n
·
--
Visualizza traduzione
老师们元宵节快乐~ 感谢@irys 的元宵空投, 等我晚上就给它解决掉😍 最后再次感谢@irys ,让我们持续关注$IRYS ,一起加油! #元宵节
老师们元宵节快乐~

感谢@iryscn 的元宵空投,

等我晚上就给它解决掉😍

最后再次感谢@iryscn ,让我们持续关注$IRYS ,一起加油!

#元宵节
Accedi per esplorare altri contenuti
Esplora le ultime notizie sulle crypto
⚡️ Partecipa alle ultime discussioni sulle crypto
💬 Interagisci con i tuoi creator preferiti
👍 Goditi i contenuti che ti interessano
Email / numero di telefono
Mappa del sito
Preferenze sui cookie
T&C della piattaforma