By accepting you will be accessing a service provided by a third-party external to https://www.incgmedia.com/
無需微調或訓練!全新生成式 AI 架構 AnimateDiff,可直接透過 Stable Diffusion 模型生成動畫影像
隨著生成式 AI 技術 (如 Stable Diffusion) 與客製化的 AIGC 工具(如 DreamBooth 和 LoRA)的進步,越來越多人懂得如何將文本/相關內容轉化為高品質的人工生成圖像。現在能生成靜態圖像已經無法滿足這些 AI 詠唱師 (AIGC 使用者),於是有越來越多開發團隊在研究如何將靜態圖像變成動畫,來自上海人工智能實驗室、香港中文大學、史丹佛大學的六位研究者提出了全新的生成式 AI 架構 AnimateDiff,可以在透過文本生成的 AI 圖像或模型上添加動畫效果,從而節省進一步調整的時間。
可將 AI 生成圖像變成動畫
在報告中提到 AnimateDiff 的核心概念為在已經透過文本生成的 AI 圖像或模型上新增一個新的動畫模組,並針對影音剪輯方面進行訓練,導出一個符合圖像的動畫效果。一旦訓練完成,即可導入已訓練的動畫模組,任何從文本生成的 AI 圖像或模型都可以透過動畫模組,生成多樣且客製化的動畫圖像。以下為研究者提出的案例參考。
接著研究者也針對相同文本所生成的 AI 圖像,添加動畫模組,證明了該架構不僅能生成滑順的動畫效果,也能維持多樣性。
資料來源:AnimateDiff 。文章由映 CG 所有,如需轉載請聯絡我們。