OpenAI发布Sora新人工智能模型:能根据文本描述生成视频
OpenAI最近发布了一款名为Sora的新人工智能模型,这个模型可以根据用户输入的文本描述生成视频内容。Sora模型能够深度模拟真实物理世界,标志着人工智能在理解真实世界场景并与之互动的能力方面实现了重大飞跃。它可以制作长达一分钟的视频,保持较高的视觉质量,为艺术家、电影制片人或学生等带来无限可能。
Sora结合了语言理解和视觉生成技术,能创造出包含多个角色、特定动作类型以及与主题和背景相符的详细场景。它不仅理解用户的指令,还能洞察这些元素在现实世界中的表现,创造出充满生命力、情感丰富的角色。Sora还能在同一视频中创造出多个画面,同时保持角色和视觉风格的一致性 。
OpenAI表示,Sora能够根据文本指令生成长达60秒的视频,同时保持视觉质量并遵守用户提示。该模型对语言有深刻理解,能够准确领会提示,生成令人信服的角色。Sora还可以在单个生成视频中创建多个镜头,准确保留角色和视觉风格 。
然而,这项技术也引发了一些担忧。由于视频几乎可以达到以假乱真的程度,许多视频行业的从业者对未来的职业发展产生了担忧。此外,该技术可能引起的法律问题也引起了众多法律界人士的讨论。因此,OpenAI目前将Sora作为初期研究成果,暂时不面向公众使用。为了防止滥用,Sora已经包含了一个过滤器,用来阻止暴力、色情、仇恨,以及特定人物的视频输出。公司还将把C2PA技术标准(一种内容追溯方式,也可以理解为内容水印)嵌入到Sora的输出视频中,以鉴别视频是否为AI深度伪造视频。