|
|
哎呦我去,今儿个这事儿可太有的唠了!各位刷着B站还想自己搭机器人的极客、家里有个扫地机却总觉得它不够灵光的你,还有那些在实验室里掉头发的研究生们,都赶紧凑过来听听!就这周五,2026年2月13日,小米那个雷军雷总,咔一下在官网上宣布,把他们家第一个专门给机器人用的大模型,叫什么“Xiaomi-Robotics-0”,直接给开源了!啥叫开源?就是代码、模型,所有家底儿,打包好了放网上,谁爱下载谁下载,谁爱研究谁研究,分文不取!这操作,在机器人圈儿,就跟有人突然把最新款游戏机的设计图纸和芯片源码免费发出来一样,属于是扔了颗“震撼弹”。
你可别小看这个“模型”,它可不是个普通软件。它是个有199亿参数的超级大脑。参数这东西,你就理解成脑神经元的连接数,数越大,理论上这脑子就越灵光。小米这个模型的核心任务,是给机器人装上所谓的“物理智能”——说白了,就是让机器人真正理解它所在的这个有重力、有摩擦力、东西会掉下来的真实世界,并且能跟这个世界流畅地互动。不像以前很多公司,把自己机器人那点算法藏着掖着当宝贝,小米这次是敞开了大门,喊大家一起玩。源码和模型现在已经挂在网上了,不管是大学实验室里用的小型机械臂,还是未来可能出现的家用机器人,理论上都能用上这套系统。
那它到底牛在哪儿呢?最最关键的一个设计,是它把机器人的“思考”和“动作”给拆开了。你想啊,传统机器人干活啥样?你让它“把那个蓝色积木拿过来”,它得先停下来,用摄像头看一圈,脑子里算半天“蓝色是哪个”、“积木在哪”、“我手该怎么伸过去”,算明白了,再咔咔一顿操作,中间总有那么个明显的卡顿,像个反应慢半拍的树懒。但小米这个新脑子,它搞了个“双线程”处理。它有一个主脑(基于阿里那个挺厉害的Qwen3语言模型进化来的)负责理解你说的话、识别眼前的物体、规划任务步骤;同时,另一个专门管运动的模块,就在不停地预测和执行动作。这就像两个人跳舞,一个负责看谱子想下一步怎么跳,另一个人的脚已经在跟着音乐动了,两个人配合得天衣无缝。他们用了种叫“Lambda形掩码”的技术来保证这种流畅,让机器人能一边干着当下的活儿,一边已经为下一个动作做好了准备,眼睛还能随时盯着新变化,反应速度嗖嗖的。
为了练就这么个灵光的脑子,小米可是喂了它海量的数据。包括了差不多2亿种不同的机器人动作轨迹,还有超过8000万张普通的图片和文本样本。这就相当于让这个AI既在机器人健身房看了天文数字的示范动作,又上了通识教育课,认识了现实世界里五花八门的物体。所以它才能既听懂复杂的指令,又能规划出精细的动作。
光说不练假把式,这模型到底行不行?小米放出了测试结果。在机器人圈一个挺有名的虚拟测试平台LIBERO上,它的任务成功率接近99%,把不少同行模型都给比下去了。更绝的是实机演示,看得人一愣一愣的。比如,让机器人拆解一个用20块乐高积木搭的复杂结构,它能有条不紊地一步步给你卸开,这不是简单的抓取,是需要规划和巧劲的。还有个更生活的场景:叠毛巾。机器人叠毛巾的视频我看过不少,大多笨笨的。但小米演示的这个,它会像人一样,捏住毛巾一角“啪”地一抖,把毛巾抖开找到角,甚至不小心一次抓了两条毛巾,它还能把多余的那条给放回去,接着叠手里这条。这种对不确定性的处理和即时调整的能力,已经有点“手熟”老师傅的味道了。
所以啊,总结下来看,小米这回干的事,格局一下打开了。它不只是发布了一个新技术,而是通过开源,想给整个机器人行业提供一个更强大、更统一的“基础大脑”选项。这能大大降低研究者和开发者的起步门槛,让大家不用重复造轮子,都把精力花在创新应用上。对于咱们普通用户来说,这可能意味着未来你买到的扫地机、陪伴机器人,会因为有了更通用的智能底层,而变得更聪明、更自然。今天这个开源动作,或许就是未来满大街机器人能像科幻片里那样流畅行动的一个关键起点。行了,我就唠这么多,代码包已经在那儿了,各位大佬们,赶紧去GitHub围观或者上手试试吧!
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|