当前的位置:泉州汽车网 >> 新闻中心 >> LeCun 的世界模型初步实现!基于预训练视觉特征,零样本规划 >> 正文
在LLM应用不断迭代升级更新的当下,图灵奖得主YannLeCun却代表了一股不同的声音。他在许多不同场合都反复重申了自己的一个观点:当前的LLM根本无法理解世界。他曾说过:LLM「理解逻辑的能力非常有限……无法理解物理世界,没有持续性记忆,不能推理(只要推理的定义是合理的)、不能规划。」
YannLeCun批评LLM的推文之一
相反,他更注重所谓的世界模型(WorldModel),也就是根据世界数据拟合的一个动态模型。比如驴,正是有了这样的世界模型,它们才能找到更省力的负重登山方法。
近日,LeCun团队发布了他们在世界模型方面的一项新研究成果:基于预训练的视觉特征训练的世界模型可以实现零样本规划!也就是说该模型无需依赖任何专家演示、奖励建模或预先学习的逆向模型。
论文标题:DINO-WM:WorldModelsonPre-trainedVisualFeaturesenableZero-shotPlanning论文地址:https://arxiv.org/pdf/2411.04983v1项目地址:https://dino-wm.github.io/
该团队提出的DINO-WM是一种可基于离线的轨迹数据集构建与任务无关的世界模型的简单新方法。据介绍,DINO-WM是基于世界的紧凑嵌入建模世界的动态,而不是使用原始的观察本身。
对于嵌入,他们使用的是来自DINOv2模型的预训练图块特征,其能提供空间的和以目标为中心的表征先验。该团队推测,这种预训练的表征可实现稳健且一致的世界建模,从而可放宽对具体任务数据的需求。
有了这些视觉嵌入和动作后,DINO-WM会使用ViT架构来预测未来嵌入。
完成模型训练之后,在解决任务时,规划会被构建成视觉目标的达成,即给定当前观察达成未来的预期目标。由于DINO-WM的预测质量很高,于是就可以简单地使用模型预测控制和推理时间优化来达成期望的目标,而无需在测试期间使用任何额外信息。
DINO世界模型
概述和问题表述:该研究遵循基于视觉的控制任务框架,即将环境建模为部分可观察的马尔可夫决策过程(POMDP)。POMDP可定义成一个元组(O,A,p),其中O表示观察空间,A表示动作空间。p(o_{t+1}|o≤t,a≤t)是一个转移分布,建模了环境的动态,可根据过去的动作和观察预测未来的观察。
这项研究的目标是从预先收集的离线数据集中学习与任务无关的世界模型,然后在测试时间使用这些世界模型来执行视觉推理。
在测试时间,该系统可从一个任意的环境状态开始,然后根据提供的目标观察(RGB图像形式),执行一系列动作a_0,...,a_T,使得目标状态得以实现。
该方法不同于在线强化学习中使用的世界模型,其目标是优化手头一组固定任务的奖励;也不同于基于文本的世界模型,其目标需要通过文本提示词指定。
基于DINO的世界模型(DINO-WM)
该团队将环境动态建模到了隐藏空间中。更具体而言,在每个时间步骤t,该世界模型由以下组分构成:
其中,观察模型是将图像观察编码成隐藏状态z_t,而转移模型则是以长度为H的过去隐藏状态历史为输入。解码器模型则是以隐藏的z_t为输入,重建出图像观察o_t。这里的θ表示这些模型的参数。
该团队指出,其中的解码器是可选的,因为解码器的训练目标与训练世界模型的其余部分无关。这样一来,就不必在训练和测试期间重建图像了;相比于将观察模型和解码器的训练结合在一起的做法,这还能降低计算成本。
DINO-WM仅会建模环境中离线轨迹数据中可用的信息,这不同于近期的在线强化学习世界模型方法(还需要奖励和终止条件等与任务相关的信息)。
使用DINO-WM实现视觉规划
为了评估世界模型的质量,需要了解其在下游任务上的推理和规划能力。一种标准的评估指标是在测试时间使用世界模型执行轨迹优化并测量其性能。虽然规划方法本身相当标准,但它可以作为一种展现世界模型质量的手段。
为此,该团队使用DINO-WM执行了这样的操作:以当前观察o_0和目标观察o_g(都是RGB图像)为输入,规划便是搜索能使智能体到达o_g的一个动作序列。为了实现这一点,该团队使用了模型预测性控制(MPC),即通过考虑未来动作的结果来促进规划。
为了优化每次迭代的动作序列,该团队还使用了一种随机优化算法:交叉熵方法(CEM)。其规划成本定义为当前隐藏状态与目标隐藏状态之间的均方误差(MSE),如下所示:
实验
该团队基于以下四个关键问题进行了实验:
能否使用预先收集的离线数据集有效地训练DINO-WM?训练完成后,DINO-WM可以用于视觉规划吗?世界模型的质量在多大程度上取决于预训练的视觉表征?DINO-WM是否可以泛化到新的配置,例如不同的空间布局和物体排列方式?
为了解答这些问题,该团队在5个环境套件(PointMaze、Push-T、Wall、RopeManipulation、GranularManipulation)中训练和评估了DINO-WM,并将其与多种在隐藏空间和原始像素空间中建模世界的世界模型进行了比较。
使用DINO-WM优化行为
该团队研究了DINO-WM是否可直接用于在隐藏空间中实现零样本规划。
如表1所示,在Wall和PointMaze等较简单的环境中,DINO-WM与DreamerV3等最先进的世界模型相当。但是,在需要准确推断丰富的接触信息和物体动态才能完成任务的操纵环境中,DINO-WM的表现明显优于之前的方法。
下面展示了一些可视化的规划结果:
预训练的视觉表征重要吗?
该团队使用不同的预训练通用编码器作为世界模型的观察模型,并评估了它们的下游规划性能。
在涉及简单动态和控制的PointMaze任务中,该团队观察到具有不同观察编码器的世界模型都实现了近乎完美的成功率。然而,随着环境复杂性的增加(需要更精确的控制和空间理解),将观察结果编码为单个隐藏向量的世界模型的性能会显著下降。他们猜想基于图块的表征可以更好地捕获空间信息,而R3M、ResNet和DINOCLS等模型是将观察结果简化为单个全局特征向量,这样会丢失操作任务所需的关键空间细节。
泛化到全新的环境配置
该团队也评估了新提出的模型对不同环境的泛化能力。为此,他们构建了三类环境:WallRandom、PushObj和GranularRandom。实验中,世界模型会被部署在从未见过的环境中去实现从未见过的任务。图6展示了一些示例。
结果见表3。可以看到,DINO-WM在WallRandom环境中的表现明显更好,这表明世界模型已经有效地学习了墙壁和门的一般概念,即使它们位于训练期间未曾见过的位置。相比之下,其他方法很难做到这一点。
PushObj任务对于所有方法来说都挺难,因为该模型仅针对四种物体形状进行了训练,这使其很难精确推断重心和惯性等物理参数。
在GranularRandom中,智能体遇到的粒子不到训练时出现的一半,导致图像出现在了训练实例的分布之外。尽管如此,DINO-WM依然准确地编码了场景,并成功地将粒子聚集到与基线相比具有最小ChamferDistance(CD)的指定方形位置。这说明DINO-WM具有更好的场景理解能力。该团队猜想这是由于DINO-WM的观察模型会将场景编码为图块特征,使得粒子数量的方差仍然在每个图块的分布范围内。
与生成式视频模型的定性比较
鉴于生成式视频模型的突出地位,可以合理地假设它们可以很容易地用作世界模型。为了研究DINO-WM相对于此类视频生成模型的实用性,该团队将其与AVDC(一个基于扩散的生成式模型)进行了比较。
如图7所示,可以看到,在基准上训练的扩散模型能得到看起来相当真实的未来图像,但它们在物理上并不合理,因为可以看到在单个预测时间步骤中就可能出现较大的变化,并且可能难以达到准确的目标状态。
DINO-WM所代表的方法看起来颇有潜力,该团队表示:「DINO-WM朝着填补任务无关型世界建模以及推理和控制之间的空白迈出了一步,为现实世界应用中的通用世界模型提供了光明的前景。」
https://www.ft.com/content/23fab126-f1d3-4add-a457-207a25730ad9
公司简介 | 商业合作 | 广告中心 | 联系我们 | Copyright © 2022 WWW.QZQCW.COM All Rights Reserved.
泉州汽车网、大泉州汽车网 版权所有