7月24日,爱诗科技正式发布视频生成产品 PixVerse V2,全球同步开放,致力用AI视频大模型为每一个用户释放创意可能。
PixVerse V2 采用 Diffusion+Transformer(DiT)基础架构,并在各方面进行技术创新,提供了更长、更一致、更有趣的视频生成能力。在模型能力提升的同时,PixVerse V2还带来了AI视频生成的全新玩法:在保证一致性的前提下,一次生成多个视频片段,可实现单片段8秒,和多片段40秒的视频生成。
一、以DiT架构为基础,实现多项技术创新
PixVerse V2 采用了 DiT 模型架构,用行业顶尖的模型训练效率实践了视频大模型的Scaling Law,同时在多个方面运用了独创的技术实现了卓越的生成效果。
在时空建模方面,PixVerse V2 引入了自研的时空注意力机制,不仅超越了传统的时空分离和 fullseq 架构,而且显著提升了对空间和时间的感知能力,使得在处理复杂场景时表现更为出色。
在文本理解方面,PixVerse V2 利用了有更强大理解能力的多模态模型来提取prompt的表征,有效实现了文本信息与视频信息的精准对齐,进一步增强了模型的理解和表达能力。
此外,PixVerse V2在传统flow模型的基础上进行了优化,通过加权损失,促进了模型更快更优的收敛,从而提升整体训练效率。
二、用户第一,提升AI视频创作生产力
基于大量用户反馈和社区讨论,爱诗团队深刻洞察到一致性是AI视频创作的核心挑战,因此,PixVerse V2 在设计和优化上进行了针对性突破:支持一键生成1-5段连续的视频内容,且片段之间会保持主体形象、画面风格和场景元素的一致。这一创新功能,让用户能够围绕特定主题进行高效而便捷的视频创作。
PixVerse V2 还支持对生成结果进行二次编辑,通过智能识别内容和自动联想功能,用户可以灵活替换调整视频主体、动作、风格和运镜,进一步丰富创作的可能性。爱诗团队希望在模型性能和美学效果之间寻求平衡,预计未来3个月内还将进行多次迭代升级,提供更好的AI视频生成体验。
PixVerse V2 致力让更多用户感受到AI视频创作的乐趣,无论是记录日常脑海中的灵光乍现,还是讲述引人入胜的视频故事,都能变得触手可及。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )