Sora是OpenAI发布的一种文生视频AI大模型,于2024年2月15日(美国当地时间)正式对外发布,可以根据文本指令创建现实和富有想象力的场景。Sora可以根据用户的文本提示创建最长60秒的逼真视频,该模型了解这些物体在物理世界中的存在方式,可以深度模拟真实物理世界,能生成具有多个角色、包含特定运动的复杂场景。Sora继承了DALL-E 3的画质和遵循指令能力,能理解用户在提示中提出的要求。
Sora对于需要制作视频的艺术家、电影制片人或学生带来无限可能,其是OpenAI“教AI理解和模拟运动中的物理世界”计划的其中一步,也标志着人工智能在理解真实世界场景并与之互动的能力方面实现飞跃。
截止2024年2月23日,OpenAI暂未开放Sora的测试入口,而是仅限于专家和创意人士使用。这是为了确保模型在初期阶段能够得到充分的反馈和不断的完善。据有测试权限的消息人士透露,Sora的测试账号仅限于早期ChatGPT Plus付费用户,目前大约有1000名用户通过特殊申请获得了测试资格。
Tips:Sora 暂时没有开放测试及内测申请,请大家不要相信任何账号售卖和课程培训,以免被割韭菜。
对于有兴趣的专家和创意人士,可以通过OpenAI的官方网站或平台提交申请,以获得使用Sora的权限。
根据最新消息整理了两个申请方法(来源于网络,不一定有效),大家仅供参考。
方法一:申请加入OpenAI红队网络
2024 年 2 月 20日更新消息:Red Team Network 开始公开招募,申请通过后有机会获得 Sora 的内测机会。
OpenAI Red Teaming Network:
方法二:加入OpenAI官方论坛
Sora可以快速制作最长一分钟、准确反映用户提示、可一镜到底的视频(其他AI视频工具还在突破几秒内的连贯性),视频可以呈现“具有多个角色、特定类型的动作、以及主题和背景的准确细节的复杂场景”
Sora还具备根据静态图像生成视频的能力,能够让图像内容动起来,并关注细节部分,使得生成的视频更加生动逼真,这一功能在动画制作、广告设计等领域具有应用前景。
Sora能够获取现有视频并对其进行扩展或填充缺失的帧,这一功能在视频编辑、电影特效等领域具有应用前景,可以帮助用户快速完成视频内容的补充和完善。
可以使用Sora连接两个输入视频,在具有完全不同主题和场景组成的视频之间实现无缝过渡。
Sora可以生成各种尺寸的图像,分辨率最高达2048×2048。
Sora可以生成动态运动的视频,随着相机的移动和旋转,人和场景元素在三维空间中一致移动。
远距离连贯性
Sora通常能够有效地对短期和长期依赖关系进行建模,包括人、动物和物体的持久化,即使它们被遮挡或离开框架。同时,它还能在单个样本中生成同一角色的多个镜头,以保持其在整个视频中的外观。
Sora有时可以用简单的方式模拟影响世界状态的动作。例如一个画家可以在画布上留下新的笔触,并随着时间的推移而持续,或者一个男人可以吃汉堡并留下咬痕。
Sora可以模拟人工过程,例如电子游戏,并能够通过基本策略控制玩家,同时高保真地渲染世界及其动态 。
Sora可以生成多机位、多角度的视频。
Sora的应用场景非常广泛,包括但不限于:

暂无数据