
今天,声称另一个“世界第一”头衔。以色列商人Enigma Labs宣布创建了全球第一个AI生成的多人游戏多人游戏,尤其是“ Multiverse”。显然,这是一款多人职业游戏。 “球员可以被抓住,漂移,加速 - 再次见面。每一个动作都会再次倾向于世界。”开发商乔纳森·雅各比(Jonathan Jacobi)表示,多人游戏曾经在AI生成的世界中失去了难题,而多元宇宙已经成功地填补了这个空间,并且玩家已经实时联系并塑造了Ai-Simulado世界。更令人惊讶的是,多人的研发成本不到1,500美元,其中包括数据收集,注释,培训,培训后培训和模型研究。而且,它也可以直接在个人计算机上运行! “ OnesMultiplayer的世界模型不仅仅是游戏 - 它们是模拟的下一步,团结了动态 - 新的,共同出现的世界,由玩家,经纪人和机器人塑造。”AT,该团队宣布将开放所有相关研究的资源,包括代码,数据,重量,体系结构和研究。介绍了多元宇宙背后的一些故事和技术。系统的启动。他们写道:“我们遵循了对AI生成的世界:多人世界模式的思考并解决了公开挑战的第一原则。”多元架构解释单玩家游戏体系结构评论为了了解多人游戏世界模型的体系结构,我们首先回顾了世界单人游戏模型中使用的现有架构:该模型接收了一系列视频框架和用户操作(例如按钮),并使用此信息来预测下一项操作。它主要由三个部分组成:行动的行动 - 将行为转化为gemishes;否定网络 - 基于先前的帧和操作-GEM生成帧的扩散模型; UPS采样器(可选) - 接收F的其他扩散模型通过世界模型加工低分辨率的rames,并增加了细节和输出分辨率。多人架构为生成多人世界模型,该团队维护上层建筑模块,但拆除了结构 - 重新处理输入和输出。从一开始就连接并重新设计训练过程,以实现真正的合作游戏:动作的嵌入 - 采取两个玩家的行动并输出代表他们的图片;定制网络-A传播网络,基于以前的框架和两个玩家的动作宝石,以生物的形式同时形成两个玩家的帧; UPS采样器 - 这套服装与玩家的单个组件非常相似。但是,此处的UPS采样器将分别从两个播放器中接收帧,并同时计算UPPLAPPLED版本。为了通过多人游戏创造一种体验,该模型需要收集玩家和输出的预测帧的先前帧和行为。点I。S:这两个输出看起来不好 - 它们内部需要相同。这是一个真正的挑战,因为多人游戏依赖世界的共同状态。例如,如果一辆汽车在另一辆车或碰撞的前面漂移,则两名球员都应从他们的观点中看到完全相同的事件。团队提出了一个解决方案:将两个玩家的视图缝制成一个图像,将他们的输入包括在行动的联合向量中,并将所有内容视为一个场景。因此,问题是:我们如何最好地将两个播放器视图与模型可以处理的单个输入结合在一起?显而易见的方法是添加它们是直立的,就像经典的分屏游戏一样。一个更有趣的选择是拥有一个通道轴,将两个图像帧视为具有双色通道的图像。答案是解决方案2,即沿通道轴堆叠。由于这里的扩散模型是一个U形网络,主要由卷积层和反向卷积层组成,因此第一层过程仅在附近的像素附近。如果两个F窗框垂直堆叠,框架未加工到中间层。它降低了模型在整个帧中生产相似结构的能力。另一方面,如果帧被通道轴堆叠,每个网络层同时处理两个播放器的视图。车辆运动学和广泛的环境扩展可以准确预测下一个帧,该模型需要接收玩家的动作(例如转向)和足够的框架编号来计算与道路相关的两辆汽车的速度。在研究中,那些设定了8帧的帧速率(每秒30帧)的人发现该模型知道车辆的运动学,例如加速,制动和转向。但是,两辆汽车的kamag儿童运动速度比道路慢。例如,车辆以约100 km/h的速度行驶,而相关速度约为5 km/h。为了获得这个相对的孩子的运动,上下文需要扩展几乎三遍。 but这样做将使模型实时播放,增加内存使用并大大降低训练速度。为了维护上下文sizeor,但也提供了更多的时间信息,该集合为模型提供了前几个帧和手势的广泛采样。具体来说,它们为模型提供了最后4帧。然后在接下来的4帧中给出每4帧。上下文中的第一帧是20帧或0.666秒,足以获得车辆的汽车移动。此外,与道路表面相比,该模型也可以更好地提高速度和加速度,从而使动态驱动更好。多人游戏训练以找出驾驶和多人游戏相互作用,该模型需要培训这些联系人。步行,驾驶和世界模型中的其他常见工作需要较小的预测范围,例如将来的0.25秒预测。多人在更长的时间内互动。在0.25秒内,亲戚 - 球员之间的孩子运动几乎没有被忽视。在多人世界模型中进行培训更长。因此,那些具有-Set的人训练了模型,以预测接下来的15秒内自回旋预测(30帧/s)。为了使模型能够执行较长的预测范围,这里使用了一种课程研究方法,预言的范围从训练期间从0.25秒增加到15秒。这样,可以在训练的初始阶段进行良好的训练,也就是说,当模型学习低级功能(例如车辆和几何形状)时。当该模型学会生产连贯的框架和车辆运动学模型时,诸如玩家行为之类的高级概念可能是Atain。在增加了预测范围之后,模型毅力的目标和框架间的一致性得到了显着改善。训练未来模型的长期训练超过100帧给VRAM带来了挑战。如果是LARGE批处理大小,无法更改自动化预测的GPU内存框架的加载。为了解决内存不足的问题,该集合根据页面执行自回归预测。在训练开始时,将第一帧加载并做出预测。然后加载下一页,然后将帧从上下文窗口中扔出。 Gran旅游数据集:从Sony“ GT Racing 4”游戏中收集的团队培训模型中生成和收集的数据。他们停了下来,“这只是一个技术演示,我们是一个很大的粉丝,所以您不是K》的游戏设置和更改,他们使用了更简单的测试案例:在Tsukuba Circuit中进行的1V1赛车,具有第三个人类的观点。 Tsukuba的轨道相对较短,道路很简单,适合训练。 1V5或分屏的模式与团队进行了与两个视频进行与原始两人屏幕保持一致的视频,并将它们组合为一个视频,其中两个玩家都同时竞争。因此,TE采取了什么方法我用来获取数据集键控操作,更不用说其中一位玩家是游戏机器人而不是一个人吗?幸运的是,游戏在屏幕上显示了足够的HUD元素(例如油门,制动器和旋转);这些信息可用于准确重建到达每个状态所需的控制输入:团队使用计算机愿景通过框架拾取这些框中的信息并阅读其背后的控件输入,从而重建完整的主操作,以便可以在没有任何直接记录的情况下构建完整的数据集。乍一看,自动生成数据,似乎我们需要坐下来播放Maraat的游戏,每场比赛都记录了两个重播 - 这有点痛苦。虽然多宇宙数据集的一些开源来源来自手动游戏,但作者发现了一种更可扩展的方法:B-Spec模式。在这种模式下,玩家可以使用游戏板或方向盘教机器人驾驶员在他们的代表。由于B-Spec控制功能是有限且简单的,因此作者编写了一个将随机输入发送给B-Spec的脚本,并自动触发游戏。然后,同一脚本从两个视图中录制了播放屏幕,捕获了由比赛的第三人称视频驱动的这些视频。 May -Sets还试图使用OpenPilot的SuperCombo模型来控制汽车,这一点很重要的是使其成为游戏中的自主驾驶代理。尽管该过程工作者最终似乎是多余的 - 因此,在最终版本中,B -SPEC仍用于生成数据:多人游戏世界模型不仅是游戏领域的成功,而且是人工智能了解共享环境的下一步。通过使代理商能够在两个世界中学习,响应和适应,这些模型将开辟新的可能性。