今天看到 OpenMind (@Fabric Foundation )发布的视频让我有点感触:机器人像人一样,上街之前也得先“训练”。视频里还有一句很关键的话——“Soon, they won’t.”,意思很明确:现在需要手把手指导,未来它们可以独立行动。 我自己理解,这其实不是炫技,而是在展示一种非常核心的能力:让机器人在复杂、动态、不可预测的环境中安全运行。街道环境看起来普通,但对机器人来说挑战很大:地面有斜坡、斑马线、人群和车辆随时出现、空间限制多、甚至路边杂物都可能影响步态。这些问题不是靠一个模型训练几小时就能解决的,而是需要一整套系统工程:感知模块要稳定识别环境,决策模块要保证避障和让行策略,控制模块要稳健执行步态并能在跌倒或遇障碍时恢复,同时还得不断收集真实世界数据反馈来迭代优化。
推文里提到的 Atom humanoid robot 也很具体:汽车装配、物料搬运、咖啡店饮品制作、药房夜间发药……这些全是典型的高频重复流程,而且场景还会变(产品规格变、路线变、空间还小)。能在这种环境里跑,关键不是“能走”,而是能稳定识别、快速决策、并在有限空间里安全执行。对机器人来说,这属于比较硬核的落地题。
Quando i robot possiedono un "livello di sistema", l'ecosistema inizia davvero ad accelerare
Oggi ho visto @Fabric Foundation (OpenMind) annunciare che OM1 è compatibile con K1 di Booster Robotics, e la prima cosa che mi è venuta in mente non è stata "i robot sono diventati più intelligenti", ma piuttosto un'altra domanda: i robot inizieranno a essere ridefiniti come i telefoni da un "livello di sistema"? In passato, i robot assomigliavano più a telefoni funzionali: l'hardware determinava il limite, mentre il software era solo una questione di regolazione. Ora questa collaborazione sembra più orientata verso una direzione di "sistema operativo + ecosistema di applicazioni". Booster è una piattaforma hardware umanoide relativamente stabile e leggera, che enfatizza la facilità di sviluppo e la replicabilità su larga scala. OpenMind funge da livello intelligente, astrando percezione, decisione e comportamento in moduli richiamabili. OM1 è compatibile con K1, il che significa che queste capacità non sono personalizzazioni una tantum, ma possono essere trasferite, riutilizzate e aggiornate.
Oggi ho visto che @Fabric Foundation ha aggiornato nuovi contenuti di collaborazione!\n\nOpenMind ha detto che OM1 è già compatibile con il K1 di Booster Robotics (hanno anche menzionato il loro modello K1), e non si tratta solo di un semplice "buona collaborazione", ma hanno fornito direttamente una descrizione delle capacità: il K1 può tracciare i movimenti/posizioni delle persone e, dopo una certa distanza, può richiamare comandi di movimento per seguire.\n\nIn parole semplici, significa: non si tratta più di un robot che sta fermo in posa, ma sta iniziando ad avere "moduli di comportamento riutilizzabili".\n\nPuoi farlo seguire, mantenere la distanza, muoversi su comando; queste cose sembrano semplici, ma in realtà richiedono un intero insieme di collegamenti: percezione (localizzazione + riconoscimento) → pianificazione (come muoversi) → controllo (come muovere) → sicurezza (non urtare le persone/non cadere).\n\nIl valore di OpenMind sta nel trasformare questo sistema da "ognuno lo riscrive da solo" a "integrazione come un plugin", il valore di Booster sta nel fornire una piattaforma hardware e una catena di strumenti relativamente stabili e amichevoli per gli sviluppatori. Con l'integrazione tra hardware e software, le barriere allo sviluppo scenderanno notevolmente.\n\nOra sono più sensibile a questo tipo di aggiornamenti, perché è molto in linea con la tendenza "l'IA passa dall'essere in grado di parlare a quella di lavorare". È vero che le capacità dei modelli stanno diventando sempre più forti, ma ciò che realmente frena è l'implementazione: chi riesce ad astrarre le capacità in interfacce standard, a rendere i comportamenti componenti richiamabili e a implementarli su hardware di produzione, ha maggiori possibilità di percorrere la strada dell'Agente fisico.\n\nQuindi, il punto focale di questo tweet non è "ancora una collaborazione", ma: hanno iniziato a far funzionare funzioni specifiche e possono migrarle su hardware diversi. Se queste cose accadono più volte, l'ecosistema inizierà davvero a muoversi.🤔\n $ROBO #ROBO \n