·Genie是从互联网视频中训练出来的基础世界模型,可根据合成图像、照片、草图生成动作可控的2D世界。不过其生成的“游戏”画质很糊,离实时可玩还很远。
·DeepMind认为,Genie引入了一个能从图像或文本生成整个交互式世界的时代,它将成为训练未来通才AI智能体的催化剂。
Genie生成的2D世界。
谷歌DeepMind团队展示了Genie模型,能把草图变成2D游戏。
生成式人工智能可以通过语言、图像甚至视频生成创造性内容。而DeepMind引入了生成式人工智能新范式——Genie(generative interactive environments,生成式交互环境),根据单个图像提示来生成“交互式可玩环境”。该模型从游戏视频中学习游戏机制后,可以通过一个简单提示创建2D平台类游戏。
Genie生成的2D世界。
2月26日,DeepMind表示,Genie是一个从互联网视频中训练出来的基础世界模型,它可以根据合成图像、照片甚至草图生成各种各样动作可控的2D世界,使人们能够与他们想象的虚拟世界互动。
“只需要一张图片,Genie就可以创建一个全新的互动环境。” DeepMind表示,这为生成和进入虚拟世界打开了大门。例如可以采用最先进的文生图大模型来生成初始帧,然后用Genie赋予它们“生命”。
Genie根据图片生成动作可控的2D世界。
Genie根据图片生成动作可控的2D世界。
Genie的模型参数只有110亿,根据人类玩2D平台类游戏的20多万小时视频进行无监督训练。Genie的出现要归功于谷歌研究人员开发的可推断视频帧之间动作的潜在动作模型、将原始视频帧转换为离散标记的视频分词器,以及推测下一帧的动态模型。
DeepMind表示,Genie的独特之处在于,它能够在没有动作标签的情况下,完全从互联网视频中学习精细的控制。这是一个挑战,因为互联网视频通常没有关于执行哪个动作的标签,甚至没有关于应该控制图像哪个部分的标签。
Genie根据人的画作生成动作可控的2D世界。
Genie根据人的画作生成动作可控的2D世界。
DeepMind开发人员蒂姆·罗克塔谢尔(Tim Rocktäschel)表示,Genie学习各种潜在动作,以一致性控制角色。Genie习得潜动作空间不仅具有多样性和一致性,并且具有可解释性。此外,Genie模型是通用的,并不局限于2D。
DeepMind 在官方声明中也表示,Genie “专注于2D平台类游戏和机器人的视频”,“但我们的方法是通用的,适用于任何类型的领域,并可以扩展到更大的互联网数据集。”DeepMind认为,Genie引入了一个能从图像或文本生成整个交互式世界的时代,它将成为训练未来通才AI智能体的催化剂。
不过Genie是一个研究项目,而不是最终产品。它的训练视频是160 x 90像素的超低分辨率视频,每秒只有10帧,它生成的“游戏”同样是低分辨率的,每秒只有1帧。“该模型目前以每秒1帧的速度运行,所以现在它离实时可玩还很远。”蒂姆·罗克塔谢尔表示。
领取专属 10元无门槛券
私享最新 技术干货