您当前的位置:首页 > 资讯 > 科技家电

AI版《黑客帝国》:无限生成逼真视频,3A画质,还能实时交互

时间:2024-11-21 14:05:57 来源:

人类离电影《黑客帝国》的场景,似乎又近了一步。

因为就在刚刚,一个与电影同名的、首个AI基础世界模拟器——The 问世。

它已经可以实现生成无限长、高保真720p真实场景视频,而且还是可以实时交互的那种!

话不多说,直接来看一个长达14分钟的效果:

而这个时长还只是demo展示的长度,The 可以做到在长达1个小时的时间里,穿梭沙漠、草原、水体和城市等景观。

在此期间,还可以通过按键W(前)、S(后)、A(左)和D(右)来实时控制——

每秒16帧,帧帧可控。

The 项目是由全华人团队打造,作者分别来自阿里巴巴、*大学、滑铁卢大学和*AI研究机构 。

而之所以团队将研究取名为The ,是因为其效果和内容与电影《黑客帝国》中的一句话类似:

这是你熟悉的世界;这是20世纪末的世界。它现在只存在于我们称之为的神经交互模拟系统中。

This is the world that you know; the world as it was at the end of the 20th . It now only as part of a that we call the .

网友们看罢,评论区已经一片“crazy”、“”的声音:

但除了无限生成、效果逼真和实时可控之外,The 还解锁了一项能力。

零样本,就可以直接泛化

The 的训练数据主要由两部分组成。

首先是通过像《极限竞速:地平线》和《赛博朋克 2077》这样的3A游戏的监督数据来进行训练;其次再辅以大量的现实世界场景(如东京街头)的无监督视频。

而与以往研究不同的是,The 可以在没有上述数据学*的情况下(零样本),可以理解和预测不同环境中物体的行为和交互。

例如下面这个“宝马X3在办公环境中行驶”的场景,这是在游戏数据和现实世界数据中都未出现过的环境:

再如“车在水里游泳”:

The 还支持以第一视角的方式来看世界:

就连真实世界中的物体,甚至人物,都是可控的:

从实验结果上来看,与近期主流的游戏仿真生成模型比较,不论是时长还是效果等,The 都已经达到了领先的效果:

怎么做到的?

从技术角度来看,The 的核心由三大模块组成。

首先是交互模块( )。

这个模块用于理解用户的输入(如键盘输入)并将其整合到视频生成中,实现帧级别的精确控制。

为了增强模型的交互性,研究人员对一个预训练的 (DiT) 模型进行调优,使得交互模块不仅能够应对已知数据,还能泛化到无标签的数据。

其次是移窗去噪过程模型(Shift Model, SwinDPM)。

这个新颖的扩散模型通过使用滑动的时间窗口来处理长时间依赖关系,从而实现无限长视频的生成。

该模型能够以连续、平滑的方式生成视频,解决了传统模型在长序列生成时遇到的记忆瓶颈。

最后是流一致性模型( Model, SCM)。

为了实现实时生成,The 集成了一种名为流一致性模型的技术,使得推理速度加快 1020 倍,最终实现 816 FPS 的实时生成速度。

研究人员还开发了一个名为的平台,用于自动捕获游戏中的状态数据和视频帧,并生成标注的动作帧数据集。

这个数据集结合了真实世界的视频数据,既帮助模型学*具体动作控制,又增强了模型的视觉质量和域泛化能力。

团队介绍

正如我们刚才提到的,The 的作者均为华人。

其中,项目负责人主要是两位,分别是 Zhang和Ruili Feng。

Zhang目前是滑铁卢大学的助理教授,带领 Lab;其主要研究方向包括基础模型的研究。

另一位则是来自阿里巴巴的Ruili Feng。

标签:
关于我们 | 广告服务 | 商务合作 | 招聘信息 | 联系我们 | 在线投稿 | 免责声明 | 云旅网

如有意见、侵权或投诉建议,请联系邮箱:(24小时内及时处理)

93网(93wn.com)版权所有 滇ICP备10201797号-6

Top