字节跳动与南洋理工大学开源StoryMem框架
2 天前

据AI Base报道,字节跳动与南洋理工大学联合发布了开源AI视频生成框架StoryMem。该框架通过“Memory-to-Video(M2V)”机制,将现有的单镜头扩散模型升级为支持多镜头、时长超过1分钟的连贯叙事长视频生成系统。StoryMem利用动态记忆库存储关键帧信息,结合轻量LoRA微调技术,在角色外貌、场景风格和叙事逻辑上实现了跨镜头的高度一致,一致性指标较现有方法提升29%。此外,该框架还发布了包含300个多镜头故事提示的ST-Bench数据集,以支持标准化评估。目前,社区已开始在ComfyUI中集成该技术。