-
MinT – 生成顺序事件的文本转视频模型,灵活控制时间戳
MinT项目简介 MinT(Mind the Time)是Snap Research、多伦多大学和向量研究所联合推出的多事件视频生成框架,基于精确的时间控制,根据文本提示生成包含多个事件的视频序列。MinT的核心技术是时间基位置编码(ReRoPE),让模型能将特定的文本提示与视频中的相应时间段关联起来,确保事件按顺序发生,控制每个事件的持续时间。作为首个提供视频中事件时间控制的模型,MinT在生成…- 0
- 0
-
HumanDiT – 浙大联合字节推出的姿态引导人体视频生成框架
HumanDiT项目简介 HumanDiT 是浙江大学和字节跳动联合提出的姿态引导的高保真人体视频生成框架。基于扩散变换器(Diffusion Transformer,DiT),能在大规模数据集上训练,生成具有精细身体渲染的长序列人体运动视频。HumanDiT 的核心优势在于姿态引导机制,通过关键点扩散变换器(Keypoint-DiT)生成后续姿态序列,保证视频中人体动作的连贯性和自然性。引入了前…- 0
- 0
-
EliGen – 浙大联合阿里推出的新型实体级可控图像生成框架
EliGen项目简介 EliGen是浙江大学和阿里巴巴集团联合开发的新型的实体级可控图像生成框架,通过引入区域注意力机制,无需额外参数即可将实体提示和任意形状的空间掩码无缝集成到扩散变换器中。EliGen包含50万高质量注释样本的数据集,用于训练模型以实现鲁棒且准确的实体级操控。EliGen 提出了修复融合管道,能扩展到多实体图像修复任务。 EliGen优势介绍 实体级精确控制:通过区域注意力机制…- 2
- 0