NeurIPS 2022 | 赋予AI语言理解和场景感知的能力,实现目标导向的室内人体运动生成

18天前 49 阅读 ID:676
将门
将门

近日,人工智能领域国际顶级会议NeurIPS 2022在美国新奥尔良召开。本文是对北京通用人工智能研究院通用视觉实验室联合北大人工智能研究院等单位发表在NeurIPS 2022论文 HUMANISE: Language-conditioned Human Motion Generation in 3D Scenes 的介绍。这项研究工作赋予了AI语言理解和场景感知的能力,实现了目标导向的室内人体运动生成。本文内容首发于北京大学人工智能研究院。

论文链接:

https://arxiv.org/abs/2210.09729

项目主页:

https://silvester.wang/HUMANISE/

一、人体运动生成研究背景

在现实生活中,人可以根据语言指令轻松地执行相应动作,并与场景中物体进行合理交互,如图 1 所示。在虚拟环境中,如果以同样的方式给虚拟人目标,让其与室内场景进行交互,虚拟人则需要同时具备语言理解、场景感知、以及运动生成的能力。在以往的研究工作中,人体运动生成(Human Motion Generation)是指通过生成模型(Generative Model)产生真实且多样的人体动作序列,在 VR/AR、游戏人物动画等方面具有巨大的应用价值。与以往研究不同,本文着重于对目标导向的室内人体运动生成进行研究,这对于人-场景交互(Human-Scene Interaction, HSI)[1,2,3],场景可供性(Affordance)[4] 等相关研究领域具有重要意义。

                                                            图1 根据语言指令与场景交互

目标导向的室内人体运动生成是指虚拟人依据语言描述的目标在室内场景中生成相应的运动序列。想象一下,假设虚拟人接受了 “sit on the armchair near the desk” 的指令,如果虚拟人要完成这一任务,他需要首先理解指令的语义并感知周围环境,才能生成与语言描述一致的人体运动序列。然而,受限于现有 HSI 数据集 [1,2] 的规模和质量,以及缺少相应的语义标注,学习在三维场景中生成以目标为导向且具有多样性的人体运动序列是极具挑战性的任务。

为解决上述问题,本文首先提出了一个大规模、且具有丰富语义标注的合成 HSI 数据集——HUMANISE。该数据集共包括643个不同的三维场景中的19.6k段运动序列,总帧数达1.2M帧。基于该数据集,本文尝试解决三维场景中语言约束下的人体运动序列生成这样一个新的任务,旨在生成合理、多样、具有指定动作类型和交互对象的人体运动序列。然而,该任务相比于此前的人体运动生成任务更加困难,主要包括三方面原因:

  • 三维场景和语言描述同时对人体运动生成构成了约束,需要模型对多模态信息有一个全面的理解;
  • 生成的人体运动序列需要精确地在目标位置附近执行正确的动作;
  • 生成的人体运动序列需要同时具备真实性和合理性。

同时,本文基于 cVAE [5] 框架,结合两个辅助任务,设计了一个新颖的生成模型。定性和定量实验结果表明,该模型能够在三维场景中生成语义一致的多样性人体运动序列。

二、目标导向的室内人体运动生成

本文构建合成 HUMANISE 数据集的核心思想是自动地将动捕得到的人体运动序列(即,AMASS [6])与三维室内场景(即,ScanNet [7])“对齐”。具体而言,对于一段具有特定动作的运动序列(例如,sit),首先在场景中选择可能的交互物体(例如,armchair),同时对交互物体表面可能的交互位置进行采样。之后,通过使用碰撞(collision)接触(contact) 约束对有效的平移和旋转参数进行采样,从而使得平移旋转后的人体和场景之间的交互在物理上合理、且视觉效果上自然。同时,我们参考 Sr3D [8] 使用基于模板的语言描述自动对合成运动序列进行标注。

最终,合成的 HUMANISE 数据集包括四种不同类别的动作,即 “walk”,“sit”,“stand up” 和 “lie down”。图二和图三分别展示了 HUMANISE 数据集中的部分数据预览以及部分渲染动画。

                                                             图2 HUMANISE 数据集预览
                                                      图3 HUMANISE 部分数据的渲染动画

基于 HUMANISE 数据集,本文提出了一个新的生成任务——三维场景中语言约束下的人体运动序列生成。具体而言,给定一个三维场景和一段语言描述,其目标是生成真实且多样的人体运动序列,同时该运动序列需要满足与语言描述一致、在三维场景中合理。

                                              图4 三维场景中语言约束的人体运动生成

为此,本文构建了一个基于 cVAE 框架的生成模型,该模型使用两个 Encoder 分别对输入的场景和语言进行编码,并使用自注意力机制融合这两个不同模态的信息以生成条件嵌入(conditional embedding)。该模型使用循环神经网络对输入的运动序列进行编码,并使用 Transformer Decoder 进行解码以输出人体运动序列。本文进一步设计了两个辅助损失函数,分别用于定位目标物体和识别动作类别。定性和定量的实验结果表明,本文所提出的模型能够在给定三维场景中生成具有多样性、且与语言指令语义一致的人体运动序列,并且在各种评价指标上优于基线方法。

                                                                   图5 定性可视化实验结果
                                                                       图6 定量实验结果

图7的消融实验结果表明,在没有辅助损失函数的情况下,模型很难生成指定的动作以及定位到指定的交互物体,而完整模型能够更好地帮助模型识别语言所描述的动作类别以及目标交互物体。

                                                                        图7 消融实验

三、总结

本项工作中提出了一个大规模且具有丰富语义标注的 HSI 数据集,即 HUMANISE。它包含各种各样的、在物理上合理的人-场景交互运动序列,同时每段运动序列都标注有相应的语言描述标注。

HUMANISE 开启了一项新任务,即三维场景中语言约束下的人体运动序列生成。本文进一步设计了一个场景和语言约束的运动生成模型,该模型能够生成多样且语义一致的室内人体运动。

作者:王赞

文章来源:公众号【北京通用人工智能研究院】

免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
反馈
to-top--btn