,周一,来自谷歌和柏林工业大学的一组人工智能研究人员推出了史上最大的视觉语言模型 ——palm-e,参数量高达 5620 亿。
palm-e 是迄今为止已知的最大 vlm。作为一种多模态具身 vlm,它不仅可以理解图像,还能理解、生成语言,执行各种复杂的机器人指令而无需重新训练。它还展示出了强大的涌现能力(模型有不可预测的表现)。
据谷歌称,当得到一个高级命令,如“把抽屉里的米片拿给我”,palm-e 可以为带有手臂的移动机器人平台生成一个行动计划,并自行执行这些行动。
palm-e 通过分析来自机器人摄像头的数据来实现这一目标,而无需对场景进行预处理。这消除了人类对数据进行预处理或注释的需要,使机器人控制更加自主。
palm-e 还很有弹性,能够对环境做出反应。例如,palm-e 模型可以引导机器人从厨房里拿一袋薯片,由于 palm-e 集成到了控制回路中,它对任务中可能发生的中断有了抵抗力。在一个视频例子中,一名研究人员从机器人手中抓起薯片并移动它们,但机器人找到了薯片并再次抓起它们。
另外,palm-e 模型也可控制机器人自主完成原需人类指导的复杂任务。除了机器人技术外,谷歌研究人员还观察到使用大型语言模型作为 palm-e 核心的几个有趣效果,其中一个是 palm-e 能表现出“正向转移”,这意味其可将从一个任务中学到的知识和技能转移到另一个任务中,相较单任务机器人模型能有更好的表现。
谷歌研究人员计划未来将探索 palm-e 在现实世界中有更多应用,例如家庭自动化或工业机器人,也希望 palm-e 能够激发更多关于多模态 ai 的应用。
it之家曾报道,身为谷歌 ai 劲敌的微软近期也发表了「chatgpt for robotics」的论文,以类似的方式结合视觉数据和大型语言模型来控制机器人。
热门文章