AI原生影視工作室Utopai Studios 宣布推出專為電影與電視制作而設計的AI模型和工作流。與目前主流的通用視頻模型不同,Utopai的AI模型并非為了生成短視頻或視覺效果,而是專為影視創作而生,具備“理解劇本、解析故事,并協助導演規劃鏡頭和生成場景”的能力。將這些環節整合為一體后,系統可以強化故事結構、表演呈現與鏡頭連貫性——這些都是專業影視制作的關鍵能力。

(Utopai自制電影《科爾特斯》畫面)
當前影視行業普遍面臨高成本、低效率的挑戰——頭部影片從立項到上映往往需要3 至5 年,而現有AI 工具大多僅能承擔素材生成或后期增強等碎片化環節,主流的AI視頻生成模型(如Diffusion)在專業影視制作中存在天然短板。
Diffusion模型本質上是“概率性生成模型”,它們逐幀或短片段獨立生成視頻,缺乏對長敘事邏輯的全局規劃能力。這導致生成的視頻難以保證人物外貌、動作和場景元素在不同鏡頭中的一致性。
Utopai的破解之道是不再追求單一模型的極致優化,而是通過架構重組,讓不同模型各司其職。其中自回歸模型(AR)負責“規劃”,擴散模型(Diffusion)負責“渲染”,最后通過統一狀態空間耦合。
其中,上層的序列規劃器(世界模型)充當系統的“導演大腦”,其核心任務是敘事規劃與一致性約束。它以腳本和分鏡為輸入,生成包含角色ID向量、關鍵幀布局、相機位置與運動軌跡、場景約束以及情緒走向曲線等細節的shot級時空計劃。
更重要的是,規劃器能維護一個可回放的長程狀態記憶,確保在超長時程的敘事中,角色身份、場景狀態和光影變化能夠穩定演進,進而從根本上解決跨鏡頭元素“漂移”的難題。
在確定敘事藍圖后,專業化的生成模塊(包含優化的Diffusion技術)下層的條件渲染器(時空擴散)則專注于執行高質量的畫面生成。它在潛空間進行操作,生成條件包括深度、法線、光流、遮罩、參考幀、相機軌跡等豐富的結構化信號。
二者通過統一的狀態接口緊密耦合,形成一個高效的閉環系統。
目前,該工作流暫不對外商用,僅用于公司自有影視項目,服務于公司即將推出的影視劇集與影視領域的合作伙伴,以確保模型應用在道德,授權、可控的專業制作場景中。


產品與服務
聯系站長
關于我們