
2月5日,可灵AI正式全球上线3.0系列模型。这套新模型覆盖了从图片生成、视频生成到后期编辑的全流程,其核心目标是让AI生成的内容从“能看”走向“专业可用”。
此次升级最大的突破在于“可控性”。过去使用AI生成视频,创作者常面临人物形象不稳定、动作逻辑断裂、口型与声音对不上的窘境,如同“抽盲盒”。可灵3.0通过“All-in-One”的统一架构,将理解、生成与编辑整合为一个连续流程。它引入了“智能分镜”系统,创作者可以通过文字指令,直接控制镜头的远近、推拉和叙事节奏,不再需要像过去那样逐帧拼接。
同时,其“图生视频+主体参考”技术,允许用户上传参考素材,锁定特定人物的形象、动作甚至音色,确保在复杂镜头切换中角色特征高度统一,解决了长期困扰行业的“一致性”难题。此外,新模型支持最长15秒的连续生成,并实现了中、英、日、韩、西五种语言及方言的精准口型匹配,大幅提升了视频的真实感与沉浸感。
Notion更新3.2版本,“无限心智”模式再进一步
快手在AI领域的布局较早,从2024年6月发布首个面向用户的DiT视频生成模型,到现在迈入3.0时代,可灵AI的用户量已超过6000万,生成视频超过6亿个,服务企业用户超3万,年化收入运行率达到2.4亿美元。
目前,全球科技巨头和初创公司都在争夺AI视频生成这块“蛋糕”。比如OpenAI的Sora、Google的Veo,都在追求生成更长、更真实的视频。国内除了可灵,也有其他公司在做类似尝试,大家都在解决“生成质量”和“可控性”这两个核心问题。
行业方面,AI视频正在从“生成短片段”向“长视频、全流程制作”过渡。以前AI只能做一个几秒钟的特效,现在能辅助导演完成分镜、剪辑甚至角色表演。这种变化,一方面降低了创作门槛,让普通人也能拍“大片”;另一方面,也对算力、算法提出了更高要求,行业竞争正从“拼创意”转向“拼技术落地能力”。
