字节跳动视频生成模型 Seedance 2.0 接入豆包,支持原声音画同步、多镜头长叙事
3 小时前 / 阅读约1分钟
来源:IT之家
豆包视频生成模型Seedance2.0接入豆包App、电脑端和网页版,支持原声音画同步、多镜头长叙事,输入提示词和参考图可生成多镜头视频,暂不支持上传真人图片。
感谢IT之家网友 西窗、若怡 的线索投递!

IT之家 2 月 12 日消息,豆包今日宣布,豆包视频生成模型 Seedance 2.0 今天正式接入豆包 App、电脑端和网页版。

打开豆包 App 对话框,选择新增的“Seedance 2.0”入口,输入相关提示词,即可生成 5 秒或 10 秒视频。也可以选择“分身视频”,经过真人验证,创建自己的视频分身,体验更多创意玩法。

据IT之家了解,Seedance 2.0 模型支持原声音画同步、多镜头长叙事、多模态可控生成。输入一段提示词和参考图,就能生成带有完整原生音轨的多镜头视频内容。该模型可以自动解析叙事逻辑,生成的镜头序列在角色、光影、风格与氛围上保持高度统一。

目前,豆包 Seedance2.0 暂不支持上传真人图片作为主体参考。