ICCV 2025|CreateAI成果亮眼,2篇论文被录用

加州圣地亚哥和北京,2025年7月1日——CreateAI(OTC:TSPH)今日宣布,公司两篇研究论文《LayerAnimate: Layer-level Control for Animation》(论文链接:)和《CycleVAR: Repurposing Autoregressive Model for Unsupervised One-StepImage Translation》(论文链接:)获第二十届国际计算机视觉大会(ICCV 2025)收录。

此次入选的2篇论文主要聚焦动漫领域的图像与视频生成任务,包括扩散模型、自回归模型、可控生成、无监督图像翻译等关键技术,提出的创新方法可解决动漫图层细粒度控制、非配对图像生成、无监督图像翻译等痛点,为行业研究提供新的思路。

LayerAnimate:突破动画生成的图层级控制瓶颈

传统的AI动画生成往往以 “帧” 为单位整体处理,忽视了动画制作中 “图层” 这一基础概念,导致无法对画面元素进行精准操控。CreateAI 提出的LayerAnimate框架首次将 “图层” 概念引入视频生成模型,通过两大创新实现突破:一是自动化图层数据筹备管线,利用 SAM2 等视觉模型完成元素分割与运动聚类合并,解决图层数据稀缺问题;二是图层感知生成框架,支持用户对角色、背景、特效等不同图层施加草图、轨迹、运动分数等差异化控制信号,实现细粒度复合控制动画生成。

图注:LayerAnimate框架流程图

CycleVAR:无监督场景下的高效风格化革命

针对传统AI风格化依赖成对数据、生成效率低的痛点,CycleVAR创新性地将自回归模型应用于无监督动漫风格转换。其核心突破在于:通过可微分软量化机制(SRQ)攻克无监督训练中梯度传递失效的行业难题,同时借鉴大语言模型的“提示”思想,将输入照片作为视觉提示引导自回归模型一步生成目标风格图像。实验显示,该框架可高效将真实照片转化为高质量动漫风格图像,并在用户研究中获得了积极评价。CycleVAR为动画美术制作提供了一种全新的高效辅助工具,有望将繁琐的风格化过程变得简单快捷,帮助创作者释放更多创意。

图注:CycleVAR框架流程图

"论文入选是对CreateAI技术创新力的重要肯定!”CreateAI首席执行官吕程表示,“我们始终坚信AI的价值在于解决实际创作难题。LayerAnimate与CycleVAR的技术突破,本质是为动漫产业提供‘精准控制’与‘高效转换’的双重工具。”

以上成果与CreateAI构建“动画创作技术-工具-内容生态系统“的战略高度契合。公司已通过“Ruyi”图生视频大模型及全球首个动漫专属AI视频生成平台Animon.ai展现市场领导力——Animon.ai()可实现 “文字-图像-视频”全流程创作提效,现邀广大创作者登录平台,体验专业级AI动漫生成,见证技术驱动的创作革新。

ICCV是与CVPR、ECCV齐名的计算机视觉顶会之一,素有"录用率严苛"之称。此次论文在ICCV 2025获得收录,进一步强化CreateAI作为生成式AI技术与计算机视觉研究领域创新引领者的地位。据大会官方公布,ICCV 2025共收到11239份有效投稿,最终录用2698篇,录用率24%,会议将于10月19日至23日在夏威夷檀香山举办。

免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2025-07-01
ICCV 2025|CreateAI成果亮眼,2篇论文被录用
加州圣地亚哥和北京,2025年7月1日——CreateAI(OTC:TSPH)今日宣布,公司两篇研究论文《LayerAnimate: Layer-level Control for Anim...

长按扫码 阅读全文