Covariant
专门开发可用来教导机器人新技能的AI软体公司Covariant于本周发表了RFM-1,该产品的全名为机器人基础模型(Robotics Foundation Model,RFM),为一款针对机器人的大型语言模型,可供任何人在几分钟内快速规画新的机器人行为。
Covariant宣称自2017年便开始建置机器人资料集,搜集机器人于实体世界的行为以训练模型,根据该公司的说明,这是因为现有的机器人资料集包含于实验室环境中动作缓慢的机器人,但现在需要的却是于苛刻环境中的机器人互动能力,也需要借由机器人在不断变化的仓库环境中持续运作的状况 ,来发现于实验室中很难遇见的长尾事件。
至于RFM-1则是利用Covariant所建置的机器人资料集,再加上大量的网路资料,包括文字、图像、影片、机器人动作,以及各种感测资料进行训练,是个具备80亿个参数的多模式模型,得以透过广泛的输入与输出来支援不同的应用。
例如它可以透过图像至图像的学习来进行场景分析,如分割或辨识;也能结合文字指令与图像观察,以产生所需的抓取动作或运动顺序;也可将场景图像与目标抓取图像配对,以影片格式来预测结果,或是模拟沿途数位感测器上的数字。
图片来源/Covariant
Covariant指出,RFM-1的发展目标是处理真实世界机器人的复杂动力学及物理约束,其成功与失败之间的界限很狭窄,对精度的要求很严格,就算只有几毫米的误差也可能造成操作中止。
此外,过去数十年都只有经验丰富的机器人工程师才能替机器人撰写新功能,但现在任何人都能够透过RFM-1、以文字替机器人设计新功能,所需时间也从数周或数月缩短成只要几分钟。不管是工程师或是一般的机器人操作人员都可透过简单的英文来指导机器人执行特定的拣选动作,而不必重新撰写程式,降低了客制化AI行为的障碍,以满足不同客户的动态业务需求与极端案例场景的长尾需求。
RFM-1定位为通用机器人的基础模型,它亦允许机器人在遇到困难时向人类求助,预计在未来几个月推出,并期望可从客户的实际部署中收集各种资料来加速学习。