导读:近几个月来,人工智能文本-图像生成器一直是头条新闻,但研究人员已经在向下一个前沿领域迈进。人工智能文本到视频生成器。 来自Facebook母公司Meta的一个机器学习工程师团队公布了一个名为Make-A-Video的新系统。顾名思义,这个人工智能模型允许用户键入一…

近几个月来,人工智能文本-图像生成器一直是头条新闻,但研究人员已经在向下一个前沿领域迈进。人工智能文本到视频生成器。

来自Facebook母公司Meta的一个机器学习工程师团队公布了一个名为Make-A-Video的新系统。顾名思义,这个人工智能模型允许用户键入一个场景的粗略描述,它将生成一个与他们的文字相匹配的短视频。这些视频显然是人造的,主体模糊,动画扭曲,但仍然代表了人工智能内容生成领域的一个重大发展。

该模型的输出显然是人工的,但仍然令人印象深刻

“梅塔在宣布这项工作的博文中说:”生成性人工智能研究正在推动创造性表达,为人们提供了快速和轻松创造新内容的工具。”只需几个字或几行文字,Make-A-Video就能将想象力带入生活,创造出充满生动色彩和风景的独一无二的视频。”

在Facebook的一篇文章中,Meta首席执行官马克-扎克伯格将这项工作描述为 “惊人的进步”,并补充说。”生成视频比生成照片难得多,因为除了正确生成每个像素,系统还必须预测它们将如何随时间变化。

这些片段不超过5秒,不包含音频,但跨越了巨大的提示范围。判断该模型性能的最好方法是观看其输出。下面的每段视频都是由Make-A-Video生成的,并标明了用于生成视频的提示。然而,值得注意的是,每个视频都是由Meta公司提供给The Verge的,该公司目前不允许任何人访问该模型。这意味着这些片段可能被挑选出来,以展示该系统的最佳状态。

(8031273)

Loading

作者 yinhua