北京生數科技商業化總監陳鶴天指出,通過AI模型的不斷疊代發展,如今製作視頻的時間已經大大縮短,「同樣一段視頻,傳統的拍攝、製作模式需3個月左右,但通過AI,只需僅僅半天。」他介紹道,如今AI工具生成視頻有三種方式:一是「文生視頻」,用戶輸入文字描述,模型直接生成視頻及同步音效,AI已經能夠理解複雜的鏡頭語言、情緒表達與場景調度;二是「圖生視頻」,輸入靜態圖片,按用戶指令讓畫面內容動起來,例如上傳一張人物照片後輸入「優雅轉身、微笑揮手致意」,模型即可生成動作流暢、表情自然的連續視頻;三是「參考生視頻」,用戶僅需指定男女主角、場景、道具及台詞,模型即可自動生成帶多鏡頭切換、多輪對話的連貫劇情片段。
AI生成需注重人物表演一致性
國內首部AIGC科幻短劇《神·筆》總導演朱智立指出,無論AI發展到何種形式,最終還需人來把控審美。他分享了自己的創作經驗:「我們在製作《神·筆》過程中面臨的最大挑戰並非視覺特效,而是如何讓AI生成的人物擁有『活人感』,如何保持『人物一致性』『場景一致性』,以及最容易被忽視的『表演一致性』。」他點明,「尤其是『表演一致性』——如一個角色出場時形象冷峻強勢,但到了最後一集因控制失效,表演風格變得畏畏縮縮,觀眾會覺得特別割裂。AI不像真人演員,它不知道人物性格需要保持統一,你只能用提示詞不斷地去控制它。」
朱智立表示,當時AI模型還沒有現在這麼發達,他們只能採取「笨辦法」,將提示詞精確到每一個動作、每一個微表情,甚至是主角眼神裏應該帶幾分欣喜、幾分恐懼,不停進行疊代「抽卡」,從幾百張甚至上千張圖中,選出最符合情緒要求的那一張。「一般的短劇表演比較平面化,情緒直給,但我們希望展現出人物的立體感和豐富性,最終通過前期人物形象的精細設計、中期提示詞的反覆調優,以及後期的大量篩選,才讓主角呈現出了複雜的情緒。」他也因此認識到,「不管AI模型和工具發展到什麼程度,要想做出真正的好作品,最終還是要回歸到創作者,回歸到人。人的審美、人的把控、人的藝術判斷,才是決定作品上限的關鍵。」
MiniMax副總裁張煜楠在另一場論壇上亦提出同樣觀點:「在AI能輕易生成一切,而且生成的畫面可以如此完美和『過度』的時代,思考『不生成什麼』『不包含什麼』反而變得更加重要。尤其是創作者的『品味』——『品味』意味着你知道如何選擇最適合講好故事的技術和影像。歸根結底,我們的目標不是用最好的技術去震撼觀眾,而是讓觀眾有所感受,讓他們通過一個好故事感到被理解、被看見。」

評論(0)
0 / 255