“大家好,我是你们的私人解说,只要一声指令,我将为你们带来身临其境的(视频)体验。” “我的另外三个好兄弟很快就会给大家带来我们‘慧识开物’协调的协同作品展”……12月11日,在北京仿人机器人创新中心(以下简称“慧识开物”)无人展厅,化身天宫2.0机器人在展区引导观众。除了具有自解释性外,天翼2.0机器人还可以同步完成物料搬运和卸载、分拣和包装等一系列任务,全部无需人工干预。在此背景下,北京仿人公司最近推出了国内首个完全自主的无人机器人导航解决方案。该解决方案基于“慧思凯物”通用嵌入式智能平台,充分融合导航、自主实体、拟人交互、多机协作化和物联网全球链接能力。可用于展厅、商场、景区、商务讲解等多种场合。天狗2.0机器人充当导游。图片/图片来源:受访者“慧思开物”让机器人解锁自主导航。新京报贝壳财经记者了解到,内置天宫机器人的全自主导航功能,源自于“慧思开物”平台构建的闭环“感知-决策-执行”技术。该系统使用由大型人工智能模型驱动的实体“大脑”、数据驱动的实体“小脑”以及多模态融合感知系统,使机器人能够从指导到解释独立操作。仿人机器人创新中心首席技术官(CTO)唐健向新京报贝壳财经等媒体介绍,该系统的运行基于三层功能。完全自主导航自动化(测绘、定位、移动)是无人操作的基础。沉浸式解说是机器人。它基于物联网设备与公司内部物联网系统的连接,以允许自动激活任务和应用程序。全局调度基于“慧斯开物”作为去中心化、多主体的智能系统的功能,通过大规模的云模型,实现一体化规划、任务分解和发布。具体来说,多模态感知系统可以整合各种传感器信息,准确识别语义和几何特征,使机器人能够识别人流、展品和障碍物,并实现稳定运动。 AI“大脑”充当决策中心,负责分析场景、划分任务、指挥“小脑”。小脑作为执行单元,将指令转化为精确的运动,使机器人能够重新规划其路线遇到堵车时实时显示。在实际演示中,天宫2.0还可以利用“慧思开物”平台的全球互联能力,同步指挥展厅内的大屏播放视频。通过支持MQTT、TCP/IP等协议的开放接口,机器人可以直接调度现场所有物联网设备。例如,当机器人到达主展区时,平台自动触发指令。即控制展区灯光,自动切换大屏视频并同步场景演示内容,开始演示。整个协同过程的响应延迟仅为50毫秒。慧思开物的多智能体调度机制可以让多台机器协同工作。图片及照片提供:慧思开物,我们的采访目的地,有一个多智能体调度机制,可以让多台机器同时工作一起。导航机器人可以通过自主编程与其他机器人协同工作,完成从“单点讲解”到“多机协作”的体验,例如在讲解时指导天宫2.0、天翼2.0等机器人同步演示搬运、分拣、包装等任务。自主导航解决方案是可重复的。可复制的技术必须展示可扩展的业务场景。唐健表示,这种完全自主的无人机器人导航解决方案具有高度的可重复性。当部署在新的展厅时,可以通过自主机器人测绘、标准化接口连接客户IT系统以及使用RAG技术导入场景知识库来快速部署。据介绍,在业务设计方面,除了聚焦物流搬运、分拣等结构化行业场景外,北京Humanoid还计划拓展到物流搬运、分拣等业务场景。我们的导游和导购,最终进入危险、肮脏、重复的“3D”领域。目前,北京Humanoid正在与国家电网、光子康明斯等公司合作,将全自主无人仿人机器人导航解决方案推向商业化产品。对于行业的受欢迎程度,唐健坦言,人形机器人根本就是“忙而无用”,无法在行业中产生真正的价值,如果不大规模引进,就会出现泡沫。 “今年大部分企业还处于POC(概念验证)阶段,但明年我们一定会看到行业内大规模的工业应用。”这种商业视角的基础是快速发展的技术路径。唐健分析,在目前的“大脑和小脑层”路线中,上层充当“大脑”,负责空间理解和任务分解,下层VLA充当“大脑”,负责空间理解和任务分解。接收多模态信号并生成运动轨迹的端到端模型。目前,这条路线在数据和架构的优化上还有改进的空间,但中长期来看,可以通过调整特定场景的数据来规模化落地。 ruta“世界模型”可以根据当前指令和图像生成动作视频,并通过模型转化为真实的机器人动作,具有更强的泛化能力。唐健先生还表示,中国仿人机器人产业链比较完整,硬件制造能力和运动控制算法处于全球最高水平。同时,中国机器人在助力高价值场景落地方面具有明显优势。中国和美国在VLA和全局模型等软件算法方面正在迎头赶上。特别是嵌入式智能需要大量真实数据,我国具有显着优势数据积累方面。北京贝壳财经报记者 魏博雅 编辑 岳彩洲 编辑 翟永军