国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

《現(xiàn)代電影技術(shù)》|黃東晉等:AIGC技術(shù)在影視動(dòng)態(tài)分鏡智能生成中的創(chuàng)新應(yīng)用與實(shí)踐

0
分享至

本文刊發(fā)于《現(xiàn)代電影技術(shù)》2025年第5期

專(zhuān)家點(diǎn)評(píng)

近年來(lái),人工智能生成內(nèi)容(AIGC)技術(shù)在影視創(chuàng)制領(lǐng)域的應(yīng)用正從概念驗(yàn)證逐步走向系統(tǒng)集成與流程優(yōu)化。尤其是在影視前期的分鏡制作環(huán)節(jié),基于擴(kuò)散模型的圖像生成、多模態(tài)驅(qū)動(dòng)的角色動(dòng)畫(huà)、語(yǔ)音驅(qū)動(dòng)的面部表情合成等關(guān)鍵技術(shù)不斷實(shí)現(xiàn)新突破,為傳統(tǒng)依賴(lài)手繪與人工剪輯的流程注入了高效、可控的創(chuàng)新方案?!禔IGC技術(shù)在影視動(dòng)態(tài)分鏡智能生成中的創(chuàng)新應(yīng)用與實(shí)踐》一文聚焦影視動(dòng)態(tài)分鏡智能生成任務(wù),提出“角色/場(chǎng)景生成-分鏡合成-動(dòng)態(tài)分鏡生成”三階段創(chuàng)制流程,是對(duì)AIGC技術(shù)從靜態(tài)圖像生成向時(shí)序視頻建模拓展的積極探索與實(shí)踐。其在建模細(xì)節(jié)方面對(duì)LoRA微調(diào)、草圖幾何約束、圖像和諧化算法與語(yǔ)音驅(qū)動(dòng)動(dòng)畫(huà)方法進(jìn)行了工程化集成,尤其在人臉屬性控制、人物服飾還原及面部動(dòng)畫(huà)真實(shí)感等方面表現(xiàn)出清晰明確的技術(shù)路徑,展示了AIGC從視覺(jué)生成向角色表演理解過(guò)渡的潛力。本文語(yǔ)言通俗而不失技術(shù)深度,邏輯清晰,相關(guān)案例很好地契合了影視分鏡創(chuàng)作的實(shí)際流程,兼具技術(shù)傳播性與視覺(jué)呈現(xiàn)力,具有較高的借鑒意義和閱讀價(jià)值。

——王嵐君

天津大學(xué)新媒體與傳播學(xué)院研究員

博士生導(dǎo)師

作 者 簡(jiǎn) 介

黃東晉

上海大學(xué)上海電影學(xué)院、上海電影特效工程技術(shù)研究中心副教授、博士生導(dǎo)師,主要研究方向:虛擬現(xiàn)實(shí)、人工智能、數(shù)字影視技術(shù)等。

上海大學(xué)上海電影學(xué)院碩士研究生在讀,主要研究方向:深度學(xué)習(xí)、生成式模型等。

湯譯翔

黃 琦

上海大學(xué)上海電影學(xué)院碩士研究生在讀,主要研究方向:圖形圖像處理。

上海大學(xué)上海電影學(xué)院碩士研究生在讀,主要研究方向:圖形圖像處理。

皮祎恒

于 冰

上海大學(xué)上海電影學(xué)院、上海電影特效工程技術(shù)研究中心講師,主要研究方向:電影修復(fù)、深度學(xué)習(xí)。

人工智能生成內(nèi)容(AIGC)與影視行業(yè)的深度融合已成為行業(yè)重要發(fā)展趨勢(shì),尤其在影視創(chuàng)作的前期階段,可為創(chuàng)意表達(dá)與內(nèi)容多樣化提供強(qiáng)大的技術(shù)支持。本文聚焦AIGC技術(shù)在影視動(dòng)態(tài)分鏡智能生成中的創(chuàng)新應(yīng)用,提出基于LoRA微調(diào)、人臉交換、草圖幾何約束、和諧化算法、多模態(tài)驅(qū)動(dòng)角色動(dòng)畫(huà)等技術(shù)的“角色/場(chǎng)景生成-分鏡合成-動(dòng)態(tài)分鏡生成”智能創(chuàng)制管線,并利用自主構(gòu)建的唐代人物形象數(shù)據(jù)集,實(shí)現(xiàn)了唐代仕女從靜態(tài)形象到動(dòng)態(tài)表演的智能生成,驗(yàn)證了該管線的可行性。實(shí)驗(yàn)結(jié)果表明,本文提出的智能創(chuàng)制管線,可實(shí)現(xiàn)高質(zhì)量動(dòng)態(tài)分鏡的智能生成,顯著提升影視創(chuàng)制效率,能有效輔助導(dǎo)演的創(chuàng)作決策,實(shí)現(xiàn)影視分鏡制作的降本增效。

關(guān)鍵詞

AIGC;動(dòng)態(tài)分鏡生成;角色-場(chǎng)景融合;角色動(dòng)畫(huà);多模態(tài)技術(shù)

1引言

分鏡設(shè)計(jì)是影視創(chuàng)作的核心環(huán)節(jié),其通過(guò)視覺(jué)化的方式將劇本轉(zhuǎn)化為連續(xù)的鏡頭語(yǔ)言,直接影響影片的敘事節(jié)奏、視覺(jué)風(fēng)格和創(chuàng)制效率[1]。傳統(tǒng)分鏡制作高度依賴(lài)人工手繪,不僅耗時(shí)費(fèi)力,且修改成本高昂。尤其在復(fù)雜場(chǎng)景或特效鏡頭中,分鏡師需反復(fù)調(diào)整構(gòu)圖、運(yùn)鏡和角色表演,嚴(yán)重制約了創(chuàng)作迭代的速度。近年來(lái),隨著擴(kuò)散模型(Diffusion Model)[2]、神經(jīng)渲染[3]、高斯?jié)姙R[4]等先進(jìn)技術(shù)的快速發(fā)展,人工智能生成內(nèi)容(AIGC)技術(shù)為影視創(chuàng)制帶來(lái)了革命性影響。特別在分鏡設(shè)計(jì)領(lǐng)域,通過(guò)文生圖(T2I)、文生視頻(T2V)、圖生視頻(I2V)等生成式模型,AIGC能快速生成多樣化的角色造型、場(chǎng)景布局與鏡頭序列,顯著提升前期視覺(jué)開(kāi)發(fā)的效率與質(zhì)量。

本文圍繞AIGC技術(shù)在影視動(dòng)態(tài)分鏡智能生成中的創(chuàng)新應(yīng)用,構(gòu)建“角色/場(chǎng)景生成-分鏡合成-動(dòng)態(tài)分鏡生成”的自動(dòng)化創(chuàng)制管線,實(shí)現(xiàn)高質(zhì)量動(dòng)態(tài)分鏡智能生成。本研究可為前期影視創(chuàng)作者的創(chuàng)意表達(dá)提供一套切實(shí)可行的動(dòng)態(tài)分鏡視頻智能化、自動(dòng)化制作方案,為導(dǎo)演提供更多可視化的創(chuàng)作參考。

2研究背景

AIGC技術(shù)在影視創(chuàng)制領(lǐng)域展現(xiàn)出顛覆性潛力,在國(guó)內(nèi)外影視行業(yè)引起高度關(guān)注,影視制作流程正在經(jīng)歷革命性改變。第一,AIGC技術(shù)通過(guò)文本輸入即可完成從概念設(shè)計(jì)到成片的一站式創(chuàng)作生產(chǎn)。該技術(shù)兼具強(qiáng)大的風(fēng)格適應(yīng)性,無(wú)論是歷史復(fù)原、科幻未來(lái)還是藝術(shù)化表達(dá),都能通過(guò)調(diào)整算法參數(shù)快速實(shí)現(xiàn)。第二,AIGC技術(shù)具備全流程動(dòng)態(tài)可調(diào)的優(yōu)勢(shì),AIGC的“生成-編輯-迭代”工作流,可實(shí)現(xiàn)真正意義上的非線性創(chuàng)作自由。第三,AIGC在降本增效方面表現(xiàn)突出,能將影視制作中耗時(shí)較長(zhǎng)的前期分鏡設(shè)計(jì)環(huán)節(jié)效率大幅度縮短,顯著降低影視的開(kāi)發(fā)成本。

目前,AIGC技術(shù)在影視動(dòng)態(tài)分鏡創(chuàng)作中尚未形成成熟確定的制作流程。本文重點(diǎn)研究基于AIGC技術(shù)的影視動(dòng)態(tài)分鏡生成與應(yīng)用,主要涉及角色/場(chǎng)景生成、分鏡合成、動(dòng)態(tài)分鏡生成等關(guān)鍵技術(shù)。

(1)角色/場(chǎng)景生成

角色設(shè)計(jì)作為構(gòu)建敘事體系和視覺(jué)風(fēng)格的核心環(huán)節(jié),其質(zhì)量直接影響作品的藝術(shù)表現(xiàn)力。近年來(lái),在跨模態(tài)生成任務(wù)中,文本與圖像聯(lián)合驅(qū)動(dòng)的圖像生成已成為重要研究方向。目前主流的生成模型框架包括 Stable Diffusion 1.5[5]、Stable Diffusion XL[6]、Midjourney[7]以及Flux 模型[8]。雖然這些模型/工具能生成高質(zhì)量的人物角色圖像,但往往存在身份一致性、歷史時(shí)代特征偏差等問(wèn)題。

場(chǎng)景設(shè)計(jì)則通過(guò)空間布局、光影氛圍和細(xì)節(jié)還原,為敘事提供視覺(jué)支點(diǎn),其真實(shí)性與藝術(shù)性共同決定了影片的沉浸深度與美學(xué)高度。在影視場(chǎng)景設(shè)計(jì)領(lǐng)域,文生圖和圖生圖(I2I)技術(shù)正逐漸成為概念設(shè)計(jì)、環(huán)境構(gòu)建和風(fēng)格化表達(dá)的重要工具。雖然文生圖技術(shù)能快速輸出概念草圖,但復(fù)雜場(chǎng)景的結(jié)構(gòu)合理性、細(xì)節(jié)精準(zhǔn)度仍不穩(wěn)定。圖生圖技術(shù)常用于場(chǎng)景迭代和風(fēng)格統(tǒng)一,但通過(guò)參考圖生成的場(chǎng)景視覺(jué)內(nèi)容,在物理合理性(如陰影方向、透視關(guān)系)上仍需后期干預(yù)。

(2)分鏡合成

分鏡合成任務(wù)是將前景角色與背景場(chǎng)景進(jìn)行無(wú)縫融合,主要涉及圖像和諧化技術(shù)。通過(guò)調(diào)整顏色、光照等前景元素的視覺(jué)特征,以實(shí)現(xiàn)與背景圖像的高質(zhì)量合成,從而增強(qiáng)合成圖像的真實(shí)感和視覺(jué)一致性。近年來(lái),深度學(xué)習(xí)(DL)技術(shù)被廣泛應(yīng)用于圖像和諧化領(lǐng)域,目前主流的模型框架主要包括DoveNet[9] 、RainNet[10]、Harmonizer[11]及AICT[12]等。其中AICT方法是目前圖像和諧化領(lǐng)域的SOTA方法,其通過(guò)預(yù)測(cè)逐像素顏色變換,并自適應(yīng)調(diào)整采樣間隔以建模高分辨率下顏色變換的局部非線性特征,顯著提升處理效率與質(zhì)量,實(shí)現(xiàn)保持視覺(jué)一致的高分辨率圖像合成。

(3)動(dòng)態(tài)分鏡生成

動(dòng)態(tài)分鏡生成主要涉及人體動(dòng)畫(huà)生成技術(shù)與面部動(dòng)畫(huà)生成技術(shù)。人體動(dòng)畫(huà)生成旨在基于靜態(tài)圖像以及特定的輸入(如姿態(tài)序列、音頻、文本等),生成連貫、逼真的動(dòng)態(tài)人物視頻。當(dāng)前技術(shù)主要分為基于生成式對(duì)抗網(wǎng)絡(luò)(GAN)和基于擴(kuò)散模型兩類(lèi)方法?;贕AN的方法通過(guò)生成器和判別器的對(duì)抗訓(xùn)練生成人體動(dòng)畫(huà)序列,然而這類(lèi)方法在時(shí)序一致性、多樣性等方面仍存在較多局限。而基于擴(kuò)散模型的方法(如DreamPose[13]、Champ[14]、UniAnimate[15]等)憑借其漸進(jìn)式生成機(jī)制和強(qiáng)大的建模能力,在人體動(dòng)畫(huà)生成領(lǐng)域展現(xiàn)出顯著優(yōu)勢(shì),正逐漸成為主流技術(shù)。

語(yǔ)音驅(qū)動(dòng)面部動(dòng)畫(huà)技術(shù)通過(guò)深度分析語(yǔ)音的聲學(xué)特征、韻律和情感信息,利用機(jī)器學(xué)習(xí)(ML)算法自動(dòng)生成與語(yǔ)音同步的逼真面部表情、精準(zhǔn)口型和自然頭部動(dòng)作,為數(shù)字角色賦予生命力。近年來(lái),深度學(xué)習(xí)技術(shù)的引入為語(yǔ)音驅(qū)動(dòng)面部動(dòng)畫(huà)技術(shù)帶來(lái)了重大突破。與傳統(tǒng)的GAN方法相比,基于擴(kuò)散模型的方法(如DiffTalk[16]、FaceDiffuser[17]等)在訓(xùn)練過(guò)程中更加穩(wěn)定,生成的圖像細(xì)節(jié)更加豐富,因此在語(yǔ)音驅(qū)動(dòng)面部動(dòng)畫(huà)任務(wù)中展現(xiàn)出巨大潛力。然而,該技術(shù)仍面臨時(shí)序連貫性不足、唇音異步以及生成效率低等關(guān)鍵瓶頸,制約了其在實(shí)時(shí)應(yīng)用中的表現(xiàn)。

3基于AIGC技術(shù)的動(dòng)態(tài)分鏡制作流程與實(shí)踐

本文構(gòu)建“角色/場(chǎng)景生成-分鏡合成-動(dòng)態(tài)分鏡生成”的智能化、自動(dòng)化創(chuàng)制管線,實(shí)現(xiàn)高質(zhì)量動(dòng)態(tài)分鏡生成。如圖1所示,該流程主要包括三個(gè)步驟:首先,通過(guò)基于LoRA[18]微調(diào)的Flux模型,快速生成高質(zhì)量的人物角色,并通過(guò)人臉交換技術(shù)實(shí)現(xiàn)角色面部屬性編輯。然后,采用草圖引導(dǎo)的背景生成技術(shù),通過(guò)幾何約束Flux模型精準(zhǔn)生成布局合理的電影場(chǎng)景,并通過(guò)圖像和諧化技術(shù),將生成的前景角色與背景場(chǎng)景無(wú)縫融合。最后,采用動(dòng)作驅(qū)動(dòng)與語(yǔ)音驅(qū)動(dòng)技術(shù)實(shí)現(xiàn)角色人體圖像動(dòng)畫(huà)生成和面部表情動(dòng)畫(huà)生成,進(jìn)而通過(guò)視頻生成大模型生成符合電影運(yùn)鏡規(guī)范的鏡頭序列。

圖1 基于AIGC技術(shù)的動(dòng)態(tài)分鏡制作流程

3.1 角色智能生成與編輯

在角色設(shè)計(jì)制作流程中,重點(diǎn)突破兩項(xiàng)關(guān)鍵技術(shù):(1)提出基于LoRA微調(diào)的服飾生成技術(shù),實(shí)現(xiàn)符合歷史時(shí)代特征的角色形象生成;(2)提出人臉屬性編輯方法GPSwap[19],支持高分辨率下身份特征與表情的解耦控制。

3.1.1 角色智能生成

本節(jié)以唐代人物角色生成為例,基于自主構(gòu)建的微調(diào)數(shù)據(jù)集,通過(guò)LoRA微調(diào)的Flux文生圖大模型,實(shí)現(xiàn)面向?qū)憣?shí)風(fēng)格的角色生成。

在數(shù)據(jù)集構(gòu)建方面,本文構(gòu)建了唐代人物形象數(shù)據(jù)集,用于文生圖大模型微調(diào)。數(shù)據(jù)來(lái)源于兩個(gè)渠道:(1)中國(guó)古代服飾三維數(shù)據(jù)庫(kù)中的多視角渲染圖像[20];(2)經(jīng)過(guò)篩選的符合歷史風(fēng)貌的互聯(lián)網(wǎng)素材。在數(shù)據(jù)質(zhì)量控制方面,通過(guò)專(zhuān)業(yè)圖像處理手段去除了字幕、遮擋物等信息,并進(jìn)行了背景修復(fù)處理。最終形成包含227張高分辨率圖像的數(shù)據(jù)集(圖2),其中162張為完整服飾展示的全身圖像,65張為妝容細(xì)節(jié)特寫(xiě)圖像。為增強(qiáng)模型語(yǔ)義解析能力,本文借助WD14?Tagger自動(dòng)標(biāo)注工具[21],構(gòu)建了包含服飾形制、首飾特征、妝容樣式、人物類(lèi)別及風(fēng)格屬性的多維度標(biāo)準(zhǔn)化標(biāo)注方法,有效實(shí)現(xiàn)了圖像語(yǔ)義特征的精細(xì)化描述。

圖2 人物角色數(shù)據(jù)集

在模型研制方面,通過(guò)LoRA微調(diào)技術(shù),對(duì)預(yù)訓(xùn)練的文生圖模型Flux進(jìn)行個(gè)性化調(diào)整,使其能夠更好適應(yīng)特定領(lǐng)域的文生圖任務(wù),生成高質(zhì)量寫(xiě)實(shí)風(fēng)格的唐代仕女圖像。具體地,以flux1?dev.sft預(yù)訓(xùn)練模型[22]為基礎(chǔ)架構(gòu),并集成ae.sft變分自編碼器[23]進(jìn)行特征提取。訓(xùn)練數(shù)據(jù)由高分辨率的唐代服飾人像組成,采用高效且穩(wěn)定的PagedAdamW優(yōu)化器[24],通過(guò)調(diào)節(jié)LoRA權(quán)重系數(shù)(0.2~1.0),有效控制不同風(fēng)格的角色生成。

本文角色生成的結(jié)果如圖3所示。模型對(duì)復(fù)雜紋樣的處理尤為出色,聯(lián)珠紋、團(tuán)花紋等唐代典型紋飾均得到較為準(zhǔn)確的還原。生成圖像在細(xì)節(jié)表現(xiàn)方面,如紗羅面料的半透明性、錦緞的反光等都得到了真實(shí)呈現(xiàn)。同時(shí),額黃、斜紅等唐代特有妝容元素也清晰可辨。

圖3 角色生成圖像

3.1.2 人臉屬性編輯

人臉交換技術(shù)作為影視制作領(lǐng)域的重要?jiǎng)?chuàng)新,通過(guò)分析源人臉和目標(biāo)人臉的特征,精準(zhǔn)遷移五官輪廓、皮膚紋理等面部特征,同時(shí)保留目標(biāo)人臉的表情、姿態(tài)和外部光照,實(shí)現(xiàn)智能化面部特征遷移,可較好解決角色身份一致性問(wèn)題。

本文采用筆者團(tuán)隊(duì)提出的人臉交換方法GPSwap[19],該方法創(chuàng)新性地利用StyleGAN的潛在空間特性,通過(guò)雙模塊協(xié)同架構(gòu)實(shí)現(xiàn)高質(zhì)量的人臉交換。該方法主要由面部特征重組(FFR)網(wǎng)絡(luò)和圖像重建(IR)模塊組成,在保持高分辨率輸出的同時(shí),有效解決現(xiàn)有技術(shù)在特征解耦、訓(xùn)練穩(wěn)定性和背景融合等方面存在的問(wèn)題。FFR網(wǎng)絡(luò)通過(guò)雙路編碼器架構(gòu)實(shí)現(xiàn)身份特征與屬性特征的完全解耦,IR模塊則通過(guò)擴(kuò)展?jié)撛诳臻g和自適應(yīng)融合算法確保生成質(zhì)量,共同解決了傳統(tǒng)方法中特征混淆和訓(xùn)練不穩(wěn)定的技術(shù)難題。

如圖4所示,圖4(a)為源人臉,提供眼睛、鼻子等身份特征;圖4(b)為目標(biāo)人臉,提供表情、姿態(tài)等屬性特征;圖4(c)為生成的交換人臉圖,該圖像包含了源人臉的身份特征和目標(biāo)人臉的屬性特征。本方法生成的圖像在保持身份特征一致性和圖像自然度方面均表現(xiàn)出色,能夠?qū)崿F(xiàn)高精度的面部特征轉(zhuǎn)換和背景融合。需要說(shuō)明的是,由于人臉數(shù)據(jù)涉及隱私和版權(quán)問(wèn)題,本文所有實(shí)驗(yàn)均采用AI生成的虛擬人臉進(jìn)行演示。在實(shí)際應(yīng)用中,這項(xiàng)技術(shù)可廣泛應(yīng)用于影視制作領(lǐng)域。例如當(dāng)演員無(wú)法完成特定鏡頭拍攝時(shí),可通過(guò)AI換臉技術(shù)將其面部特征無(wú)縫移植到替身演員臉上,也可在歷史題材影片中還原已故演員的形象,或?yàn)榭鐕?guó)合拍片快速生成不同語(yǔ)言版本的演員面部表情等。

圖4 人臉交換實(shí)驗(yàn)結(jié)果

3.2 場(chǎng)景智能生成

本節(jié)圍繞場(chǎng)景智能生成的核心技術(shù)展開(kāi),重點(diǎn)探討兩項(xiàng)關(guān)鍵技術(shù):(1)提出一種多模態(tài)驅(qū)動(dòng)的背景生成框架,通過(guò)手繪草圖等圖像引導(dǎo)實(shí)現(xiàn)背景的高質(zhì)量生成;(2)針對(duì)合成圖像的真實(shí)性問(wèn)題,設(shè)計(jì)了粗合成-和諧化的兩階段處理流程,實(shí)現(xiàn)前景與背景融合的高質(zhì)量分鏡合成。

3.2.1 文本/草圖生成背景圖像

本文采用的方法是基于Flux?dev模型,結(jié)合ControlNet[25]和LoRA,通過(guò)手繪草稿圖、線稿圖或參考圖等三種不同輸入方式實(shí)現(xiàn)生成高質(zhì)量背景圖。具體流程如圖5所示,首先,輸入引導(dǎo)圖片,并搭配文本提示詞(如“傳統(tǒng)中式庭院場(chǎng)景,日落時(shí)分,木質(zhì)建筑,飛檐,紅燈籠懸掛在墻上,大型陶瓷花瓶,石階,溫暖的陽(yáng)光投下長(zhǎng)長(zhǎng)的影子”);之后,利用Flux?dev 模型的自注意力機(jī)制融合文本語(yǔ)義與圖像結(jié)構(gòu)信息,并結(jié)合 ControlNet 提供結(jié)構(gòu)約束(如 Canny 線稿圖或 Depth 布局)和 LoRA 增強(qiáng)背景建筑風(fēng)格;最終,生成布局合理的高質(zhì)量背景圖像。

圖5 文本/草圖生成背景圖像技術(shù)流程

圖6 文本/草圖驅(qū)動(dòng)背景圖像生成結(jié)果

具體方式上,第一種是通過(guò)輸入手繪草稿圖生成,先繪制詳細(xì)草稿圖并輸入 Flux,若效果偏卡通風(fēng)格則轉(zhuǎn)為 Canny 線稿圖,結(jié)合 ControlNet 指導(dǎo)生成更清晰的圖像〔圖6(a)〕;第二種通過(guò)輸入Canny 線稿圖生成,從手繪草稿圖或參考圖提取線稿圖,搭配文本提示輸入 Flux,生成結(jié)構(gòu)更準(zhǔn)確的圖像〔圖6(b)〕;第三種通過(guò)輸入?yún)⒖紙D生成,先找或用 Photoshop 拼接參考圖(如調(diào)整墻面顏色、添加石獅),若分辨率不足可通過(guò) Flux?fill 擴(kuò)圖,再結(jié)合 ControlNet 和文本提示生成,效果更穩(wěn)定且易于定制,適用于快速生成符合預(yù)期的背景圖像〔圖6(c)〕。

3.2.2 分鏡合成

本文采用粗合成-和諧化兩階段處理,實(shí)現(xiàn)前景-背景融合的高質(zhì)量分鏡合成。

在粗合成階段中,通過(guò)Photoshop軟件完成角色與場(chǎng)景的初步合成(圖7)。初步合成的圖像存在光照不一致、陰影錯(cuò)位、色調(diào)失衡及邊緣生硬等問(wèn)題,導(dǎo)致畫(huà)面真實(shí)感弱且空間層次割裂。為使合成圖像達(dá)到更加逼真、自然的效果,本文采用基于深度學(xué)習(xí)(DL)的和諧化算法,對(duì)光照、色調(diào)、色彩與邊緣細(xì)節(jié)進(jìn)行統(tǒng)一處理,以確保合成圖像在視覺(jué)上能高度還原真實(shí)場(chǎng)景,滿(mǎn)足高質(zhì)量圖像制作的要求。

圖7 前景-背景粗合成結(jié)果

在和諧化處理階段中,針對(duì)現(xiàn)有高分辨率圖像協(xié)調(diào)方法存在的局部色彩不協(xié)調(diào)問(wèn)題,本文采用了一種基于自適應(yīng)間隔顏色變換的AICT圖像和諧化方法[12]。本方法將色彩變換建模為逐像素操作,采用局部自適應(yīng)的方式提升色彩協(xié)調(diào)的精細(xì)度。通過(guò)設(shè)計(jì)可生成位置敏感的3D查找表(LUT)網(wǎng)絡(luò),將像素坐標(biāo)與RGB值共同作為輸入,實(shí)現(xiàn)空間感知的逐像素顏色映射。采用雙LUT級(jí)聯(lián)結(jié)構(gòu)實(shí)現(xiàn)色彩空間非均勻采樣,前級(jí)LUT負(fù)責(zé)粗粒度調(diào)整,后級(jí)LUT進(jìn)行細(xì)粒度補(bǔ)償,自適應(yīng)增強(qiáng)局部非線性表達(dá)能力。引入圖像級(jí)權(quán)重學(xué)習(xí)模塊,利用全局信息對(duì)各局部變換結(jié)果進(jìn)行動(dòng)態(tài)融合,保證局部調(diào)整與整體視覺(jué)的和諧統(tǒng)一,從而實(shí)現(xiàn)保持視覺(jué)一致性的高效圖像和諧化。經(jīng)本方法處理的結(jié)果如圖8所示。

圖8 圖像和諧化后的結(jié)果

3.3 動(dòng)作語(yǔ)音驅(qū)動(dòng)的角色動(dòng)畫(huà)生成

本節(jié)聚焦多模態(tài)驅(qū)動(dòng)技術(shù),通過(guò)動(dòng)作與語(yǔ)音兩類(lèi)核心輸入實(shí)現(xiàn)真實(shí)感角色動(dòng)畫(huà)生成:(1)探討基于UniAnimate[15]框架的動(dòng)作驅(qū)動(dòng)生成方案,通過(guò)參考圖像、文本提示、音頻節(jié)奏及動(dòng)作序列的多模態(tài)輸入,生成時(shí)序連貫的人體圖像動(dòng)畫(huà);(2)采用Diffused Heads模型[26]構(gòu)建語(yǔ)音頻譜到面部動(dòng)作的智能映射系統(tǒng),實(shí)現(xiàn)身份一致、唇音精準(zhǔn)的高保真面部動(dòng)畫(huà)生成。

3.3.1 動(dòng)作驅(qū)動(dòng)人體圖像動(dòng)畫(huà)生成

本文基于UniAnimate方法實(shí)現(xiàn)高質(zhì)量人體動(dòng)畫(huà)生成。該方法提出統(tǒng)一的視頻擴(kuò)散模型架構(gòu)和基于Mamba的時(shí)序建模技術(shù)[27],通過(guò)共享特征空間映射機(jī)制將參考圖像與目標(biāo)姿態(tài)序列統(tǒng)一編碼,并利用狀態(tài)空間模型的線性計(jì)算復(fù)雜度優(yōu)勢(shì)處理長(zhǎng)序列,顯著提升了生成視頻的時(shí)序一致性和長(zhǎng)度,在跨域生成任務(wù)中展現(xiàn)了優(yōu)異的泛化能力。

如圖9所示,輸入的是一張古裝少女的參考分鏡圖像,該圖像是通過(guò)前景角色和背景場(chǎng)景圖像合成。之后搭配文本提示詞、音頻資源、動(dòng)作序列,生成連貫的、時(shí)序一致的角色動(dòng)畫(huà)視頻。

圖9 動(dòng)作驅(qū)動(dòng)人體圖像動(dòng)畫(huà)生成

3.3.2 語(yǔ)音驅(qū)動(dòng)面部動(dòng)畫(huà)生成

本文采用一種基于擴(kuò)散模型的語(yǔ)音驅(qū)動(dòng)面部動(dòng)畫(huà)生成方法Diffused Heads[26],能高效逐幀生成逼真的角色面部動(dòng)畫(huà)視頻。本方法通過(guò)一張靜態(tài)的身份幀和一段語(yǔ)音錄音,生成與語(yǔ)音同步的面部動(dòng)畫(huà)。為提升生成結(jié)果的流暢性和表現(xiàn)力,引入運(yùn)動(dòng)幀和音頻嵌入,分別提供過(guò)去幀的運(yùn)動(dòng)信息和未來(lái)表情的預(yù)測(cè)信息。此外,還通過(guò)嘴型同步損失強(qiáng)制關(guān)注嘴部區(qū)域細(xì)節(jié),確保嘴型與語(yǔ)音的高度同步。

如圖10所示,輸入一段語(yǔ)音音頻和一張靜態(tài)角色圖片,生成視頻中的古裝仕女在保持身份特征一致性、表情自然度和唇音同步精度等方面均表現(xiàn)出色,實(shí)現(xiàn)了高保真的語(yǔ)音驅(qū)動(dòng)面部動(dòng)畫(huà)生成。

圖10 語(yǔ)音驅(qū)動(dòng)面部動(dòng)畫(huà)生成

3.4 基于大模型的動(dòng)態(tài)分鏡生成

3.4.1 視頻生成技術(shù)流程

本文采用的視頻生成大模型是由騰訊開(kāi)發(fā)的混元圖生視頻模型HunyuanVideo?I2V[28,29]。這是騰訊團(tuán)隊(duì)于2025年3月6日新發(fā)布的圖生視頻模型,該模型采用標(biāo)記替換技術(shù),將參考圖像的信息融入視頻生成過(guò)程。與HunyuanVideo相同,HunyuanVideo?I2V使用了一個(gè)預(yù)訓(xùn)練的多模態(tài)大語(yǔ)言模型(Multi?modal Large Language Models, MLLM)作為文本編碼器,采用僅解碼器結(jié)構(gòu)來(lái)提升模型對(duì)輸入圖像語(yǔ)義內(nèi)容的理解能力,并整合圖像及其相關(guān)描述中的信息。輸入的圖像先經(jīng)過(guò)MLLM處理生成語(yǔ)義圖像token,然后將這些token與video latent token進(jìn)行拼接,從而能夠在整合后的數(shù)據(jù)上進(jìn)行全面的全注意力計(jì)算。

在整體的工作流程(圖11)上,輸入的文本描述會(huì)先經(jīng)過(guò)一個(gè)CLIP?Large模型進(jìn)行編碼,再經(jīng)過(guò)一個(gè)多層感知機(jī)進(jìn)行處理,處理后的文本信息編碼會(huì)與一個(gè)正弦編碼結(jié)合,正弦編碼用于引入時(shí)間步信息,表示視頻幀的順序;輸入的圖像會(huì)通過(guò)一個(gè)MLLM進(jìn)行編碼,編碼后的圖像信息通過(guò)一個(gè)Token Refiner進(jìn)行進(jìn)一步處理,以增強(qiáng)圖像特征的表達(dá)能力;噪聲輸入通過(guò)Patchify和Linear層處理,生成初始的潛在表示;接下來(lái),這三部分信息會(huì)經(jīng)過(guò)一個(gè)雙流 DiT 塊和一個(gè)單流 DiT 塊,其中雙流 DiT 塊分別處理圖像和文本特征,使每種模態(tài)能夠?qū)W習(xí)其適當(dāng)?shù)恼{(diào)制機(jī)制,而互不干擾,在單流階段,圖像和文本特征被連接起來(lái),并輸入到后續(xù)的 DiT 塊中,以實(shí)現(xiàn)有效的多模態(tài)信息融合;最終經(jīng)過(guò) DiT 塊處理后的特征通過(guò)一個(gè)Modulation層進(jìn)行調(diào)整,以生成最終的輸出潛在表示,再經(jīng)過(guò)一個(gè)Linear層和Unpatchify層將潛在表示轉(zhuǎn)換回圖像空間,最終輸出完整的視頻幀。

圖11 HunyuanVideo?I2V的工作流程

3.4.2 應(yīng)用案例

本文以古裝影視劇的分鏡制作為例,采用基于ComfyUI的工作流生成動(dòng)態(tài)分鏡視頻[30]。本文將微調(diào)后的Flux模型所生成的唐代仕女圖、文本描述“Keeping the background the same, the girl smiles”作為輸入,在ComfyUI中使用HunyuanVideo?I2V模型輸出了一段視頻,關(guān)鍵序列幀如圖12所示。生成的視頻再現(xiàn)了唐代服飾的褶皺變化與唐代仕女微笑時(shí)的優(yōu)雅姿態(tài),視頻中仕女的動(dòng)作自然流暢,齊胸襦裙保持飄逸美感,為古裝影視創(chuàng)作提供了高效的數(shù)字角色解決方案。

圖12 生成視頻關(guān)鍵幀序列

通過(guò)與傳統(tǒng)影視制作流程的深度融合,制作唐代仕女從靜態(tài)形象到動(dòng)態(tài)表演的完整數(shù)字資產(chǎn)所需的時(shí)間和成本顯著降低(例如,生成5 s內(nèi)24 FPS的視頻平均所需時(shí)間小于5 s),為古裝劇的分鏡制作開(kāi)辟了全新可能性。

4總結(jié)與展望

本文通過(guò)構(gòu)建基于AIGC技術(shù)的影視動(dòng)態(tài)分鏡智能生成方法,驗(yàn)證了“角色/場(chǎng)景生成-分鏡合成-動(dòng)態(tài)分鏡生成”的智能化、自動(dòng)化創(chuàng)制管線的可行性。實(shí)驗(yàn)結(jié)果證明,基于LoRA微調(diào)的Flux模型在保證生成質(zhì)量的前提下實(shí)現(xiàn)了角色造型與服飾的多樣性控制,采用Flux多模態(tài)條件生成技術(shù)有效解決了場(chǎng)景構(gòu)建中空間布局與藝術(shù)風(fēng)格的平衡問(wèn)題,通過(guò)和諧化融合技術(shù)有效提高了分鏡圖像質(zhì)量,應(yīng)用動(dòng)作驅(qū)動(dòng)的人體圖像動(dòng)畫(huà)與語(yǔ)音同步的面部動(dòng)畫(huà)技術(shù)顯著提升了角色動(dòng)畫(huà)的真實(shí)性,以及通過(guò)大模型生成高質(zhì)量的動(dòng)態(tài)分鏡鏡頭。

本文工作為影視創(chuàng)作者的創(chuàng)意表達(dá)提供了一種創(chuàng)新技術(shù)范式,通過(guò)驗(yàn)證AIGC技術(shù)在影視分鏡制作流程中的應(yīng)用可行性,為行業(yè)智能化轉(zhuǎn)型提供了重要參考。未來(lái),隨著AIGC技術(shù)與影視創(chuàng)制全流程的深度融合,影視制作流程將進(jìn)一步簡(jiǎn)化,影視創(chuàng)作者得以更專(zhuān)注于藝術(shù)表達(dá)與創(chuàng)意構(gòu)思,為內(nèi)容創(chuàng)作帶來(lái)更多可能性,推動(dòng)AIGC技術(shù)在影視領(lǐng)域的規(guī)模化應(yīng)用。

參考文獻(xiàn)

(向下滑動(dòng)閱讀)

[1] BLOCK B. The visual story: creating the visual structure of film, TV, and digital media[M]. New York: Routledge, 2020.

[2] KINGMA D P, WELLING M. Auto?encoding variational bayes[EB/OL]. [2025?04?17]. https://arxiv.org/abs/1312.6114.

[3] MILDENHALL B, SRINIVASAN P P, TANCK M, et al. NeRF: Representing scenes as neural radiance fields for view synthesis[EB/OL]. [2025?04?17]. https://arxiv.org/abs/2003.08934.

[4] KERBL B, KOPONEN D M, LAINE S, et al. 3D Gaussian splatting for real?time radiance field rendering[EB/OL]. [2025?04?17]. https://arxiv.org/abs/2308.04079.

[5] ROMBACH R, BLATTMANN A, LORENZ D, et al. High?resolution image synthesis with latent diffusion models[C]//Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2022: 10684?10695.

[6] PODELL D, ENGLISH Z, LACEY K, et al. SDXL: improving latent diffusion models for high?resolution image synthesis[EB/OL]. [2025?04?17]. https://arxiv.org/abs/2307.01952.

[7] TSYDILO I M, SENA C E. Artificial intelligence as a methodological innovation in the training of future designers: Midjourney tools[J]. Information Technologies and Learning Tools, 2023, 97(5): 203.

[8] Flux AI. Flux AI官方網(wǎng)站[EB/OL]. [2025?04?17]. https://flux-ai.io/cn/.

[9] CONG W, ZHANG J, NIU L, et al. DoveNet: deep image harmonization via domain verification[C]//Proceedings of the 2020 IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society, 2020: 8394?8403.

[10] LING J, XUE H, SONG L, et al. Region?aware adaptive instance normalization for image harmonization[C]//Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society, 2021: 9361?9370.

[11] KE Z, SUN C, ZHU L, et al. Harmonizer: learning to perform white?box image and video harmonization[C]//Proceedings of the 2022 European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2022: 690?706.

[12] MENG Q, LI Q, ZHANG L, et al. High?Resolution Image Harmonization with Adaptive?Interval Color Transformation[J]. Advances in Neural Information Processing Systems, 2024, 37: 13769?13793.

[13] KARRAS J, HOLYNSKI A, WANG T C, et al. DreamPose: Fashion image?to?video synthesis via stable diffusion[C]//Proceedings of the 2023 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2023: 22623?22633.

[14] ZHU S, CHEN J L, DAI Z, et al. Champ: Controllable and consistent human image animation with 3D parametric guidance[C]//Proceedings of the 2024 European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2024: 145?162.

[15] WANG X, ZHANG S, GAO C, et al. UniAnimate: taming unified video diffusion models for consistent human image animation[EB/OL]. (2024?06?03)[2025?04?17]. https://arxiv.org/abs/2406.01188.

[16] SHEN S, ZHAO W, MENG Z, et al. DiffTalk: Crafting diffusion models for generalized audio?driven portraits animation[C]//Proceedings of the 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2023: 1982?1991.

[17] STAN S, HAQUE K I, YUMAK Z. FaceDiffuser: Speech?driven 3D facial animation synthesis using diffusion[C]//Proceedings of the 16th ACM SIGGRAPH Conference on Motion, Interaction and Games. New York: ACM, 2023: 1?11.

[18] HU E J, SHEN Y, WALLIS P, et al. LoRA: low?rank adaptation of large language models[C]//Proceedings of the 10th International Conference on Learning Representations. Virtual: ICLR, 2022: 1?13.

[19] HUANG D, LIU C, LIU J. GPSwap: High‐resolution face swapping based on StyleGAN prior[J]. Computer Animation and Virtual Worlds, 2024, 35(4): e2238.

[20] 中國(guó)服飾文化數(shù)據(jù)庫(kù). 中國(guó)歷代服飾數(shù)據(jù)集[EB/OL]. [2025?04?17]. http://fushi.bowuyunzhan.com/data.html.

[21] pythongosssss. ComfyUI?WD14?Tagger: WD14 Tagger extension for ComfyUI[EB/OL].[2025?04?17]. https://github.com/pythongosssss/ComfyUI-WD14-Tagger.

[22] BLACK?FOREST?LABS. FLUX?1?dev擴(kuò)散模型技術(shù)文檔[EB/OL]. (2023?05?15) [2025?04?17]. https://huggingface.co/black-forest-labs/FLUX.1-dev.

[23] cocktailpeanut. xulf?dev/ae.sft: 穩(wěn)定擴(kuò)散微調(diào)的自編碼器模型[EB/OL]. [2025?04?17]. https://huggingface.co/cocktailpeanut/xulf-dev/blob/main/ae.sft.

[24] HuggingFace. bitsandbytes: AdamW optimizer implementation[EB/OL]. [2025?04?17]. https://huggingface.co/docs/bitsandbytes/main/reference/optim/adamw.

[25] ZHANG L, RAO A, AGRAWALA M. Adding conditional control to text?to?image diffusion models[C]//Proceedings of the 2023 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2023: 3836?3847.

[26] STYPU?KOWSKI M, VOUGIOUKAS K, HE S, et al. Diffused Heads: diffusion models beat GANs on talking?face generation[C]//Proceedings of the 2024 IEEE/CVF Winter Conference on Applications of Computer Vision. Piscataway: IEEE, 2024: 5091?5100.

[27] HU V T, BAUMANN S A, GUI M, et al. Zigma: a DIT?style zigzag mamba diffusion model[C]//Proceedings of the 2024 European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2024: 148?166.

[28] KONG W, TIAN Q, ZHANG Z, et al. Hunyuanvideo: a systematic framework for large video generative models[EB/OL]. [2025?04?17]. https://arxiv.org/abs/2412.03603.

[29] 騰訊. HunyuanVideo?I2V: 騰訊混元視頻生成模型開(kāi)源項(xiàng)目[EB/OL]. [2025?03?06]. https://github.com/Tencent/HunyuanVideo-I2V.

[30] ComfyUI Documentation Team. Hunyuan Video: related models manual installation[EB/OL]. [2025?03?06]. https://docs.comfy.org/advanced/hunyuan-video-related-models-manual-installation.

【項(xiàng)目信息】國(guó)家檔案局科技項(xiàng)目“基于知識(shí)圖譜的影像檔案結(jié)構(gòu)化數(shù)據(jù)管理系統(tǒng)研究”(2023?X?036);上海市人才發(fā)展資金資助項(xiàng)目(2021016);上海市教委AI賦能科研計(jì)劃項(xiàng)目“面向影視的文本驅(qū)動(dòng)3D超寫(xiě)實(shí)虛擬演員智能生成關(guān)鍵技術(shù)研究”(99?0307?24?102)。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
愛(ài)因斯坦晚年為何研究神學(xué)?他發(fā)現(xiàn)了什么,讓他恐懼了 30 年?

愛(ài)因斯坦晚年為何研究神學(xué)?他發(fā)現(xiàn)了什么,讓他恐懼了 30 年?

Thurman在昆明
2026-03-08 22:30:48
“我老公家要絕后了,我娘家也要絕后了”,一廣西網(wǎng)友發(fā)帖引共鳴

“我老公家要絕后了,我娘家也要絕后了”,一廣西網(wǎng)友發(fā)帖引共鳴

火山詩(shī)話(huà)
2026-02-26 09:41:57
中國(guó)古代歷史上“最?!钡牡胤礁顡?jù)勢(shì)力,傳承29世,割據(jù)724年!

中國(guó)古代歷史上“最?!钡牡胤礁顡?jù)勢(shì)力,傳承29世,割據(jù)724年!

小豫講故事
2026-03-07 06:00:06
勇士球迷叫你滾蛋?追夢(mèng)怒懟:在我來(lái)勇士前 你們就是萬(wàn)年輸家!

勇士球迷叫你滾蛋?追夢(mèng)怒懟:在我來(lái)勇士前 你們就是萬(wàn)年輸家!

818體育
2026-03-10 10:55:23
公婆搬我萬(wàn)元年貨給小姑,除夕我只煮白粥,婆婆摔筷全家9口沉默

公婆搬我萬(wàn)元年貨給小姑,除夕我只煮白粥,婆婆摔筷全家9口沉默

荷蘭豆愛(ài)健康
2026-03-10 10:48:25
滅國(guó)級(jí)絞殺!伊朗新領(lǐng)袖剛上臺(tái),美軍基地全面開(kāi)放,這要徹底亡國(guó)

滅國(guó)級(jí)絞殺!伊朗新領(lǐng)袖剛上臺(tái),美軍基地全面開(kāi)放,這要徹底亡國(guó)

快看張同學(xué)
2026-03-10 10:38:25
住15樓總聽(tīng)見(jiàn)樓上有搖椅響,物業(yè)一查:16樓根本沒(méi)賣(mài)出去!

住15樓總聽(tīng)見(jiàn)樓上有搖椅響,物業(yè)一查:16樓根本沒(méi)賣(mài)出去!

王二哥老搞笑
2026-03-09 19:26:46
老好人主持被閏土記恨了

老好人主持被閏土記恨了

毒舌扒姨太
2026-03-09 22:58:07
上海主持人朱楨現(xiàn)狀:二婚和日語(yǔ)老師妻子生倆娃,47歲創(chuàng)業(yè)當(dāng)老板

上海主持人朱楨現(xiàn)狀:二婚和日語(yǔ)老師妻子生倆娃,47歲創(chuàng)業(yè)當(dāng)老板

白面書(shū)誏
2026-02-11 13:26:11
奉勸所有40到50歲后的中年人,只要不被開(kāi)除,干到退休就是成功

奉勸所有40到50歲后的中年人,只要不被開(kāi)除,干到退休就是成功

歲月有情1314
2026-03-03 14:49:44
隨著24歲小馬爾蒂尼發(fā)威+拉齊奧2-1,意甲最新積分榜出爐

隨著24歲小馬爾蒂尼發(fā)威+拉齊奧2-1,意甲最新積分榜出爐

側(cè)身凌空斬
2026-03-10 05:54:30
手機(jī)有沒(méi)有被監(jiān)聽(tīng)?看一眼頂部狀態(tài)欄就清楚

手機(jī)有沒(méi)有被監(jiān)聽(tīng)?看一眼頂部狀態(tài)欄就清楚

小柱解說(shuō)游戲
2026-03-08 05:10:17
Ella西安演唱會(huì)“真空腹”火上熱搜,網(wǎng)友吵翻:自律or畸形審美?

Ella西安演唱會(huì)“真空腹”火上熱搜,網(wǎng)友吵翻:自律or畸形審美?

東方不敗然多多
2026-03-09 03:24:21
恭喜!中國(guó)斯諾克新銳獲世錦賽外卡,2將重返WST,1人曾輸白雨露

恭喜!中國(guó)斯諾克新銳獲世錦賽外卡,2將重返WST,1人曾輸白雨露

劉姚堯的文字城堡
2026-03-10 07:10:08
王俊杰發(fā)布長(zhǎng)文:回首整個(gè)賽季感覺(jué)心酸;還沒(méi)思考好未來(lái)的路

王俊杰發(fā)布長(zhǎng)文:回首整個(gè)賽季感覺(jué)心酸;還沒(méi)思考好未來(lái)的路

懂球帝
2026-03-10 00:50:13
你永遠(yuǎn)想不到醫(yī)院的八卦能有多炸裂?一件提神醒腦,兩件直接撂倒

你永遠(yuǎn)想不到醫(yī)院的八卦能有多炸裂?一件提神醒腦,兩件直接撂倒

另子維愛(ài)讀史
2026-01-22 18:21:09
我家每月水費(fèi)2900,我氣得直接關(guān)掉總閥門(mén),第6天消防找上門(mén)

我家每月水費(fèi)2900,我氣得直接關(guān)掉總閥門(mén),第6天消防找上門(mén)

小秋情感說(shuō)
2026-03-10 09:08:20
首戰(zhàn)打贏日軍后,粟裕卻盯上一個(gè)細(xì)節(jié):鬼子的槍法為什么這么準(zhǔn)?

首戰(zhàn)打贏日軍后,粟裕卻盯上一個(gè)細(xì)節(jié):鬼子的槍法為什么這么準(zhǔn)?

歷史的煙火
2026-03-10 05:36:46
去過(guò)香港我才知道:大家不愛(ài)背斜挎包、雙肩包,滿(mǎn)大街都背這3個(gè)

去過(guò)香港我才知道:大家不愛(ài)背斜挎包、雙肩包,滿(mǎn)大街都背這3個(gè)

冒泡泡的魚(yú)兒
2026-03-09 12:07:09
德國(guó)人日常三餐曝光!6個(gè)習(xí)慣讓人不去醫(yī)院,國(guó)人看完沉默了?

德國(guó)人日常三餐曝光!6個(gè)習(xí)慣讓人不去醫(yī)院,國(guó)人看完沉默了?

路醫(yī)生健康科普
2026-03-04 12:30:03
2026-03-10 12:08:49
電影技術(shù)微刊 incentive-icons
電影技術(shù)微刊
電影技術(shù)微刊
647文章數(shù) 209關(guān)注度
往期回顧 全部

科技要聞

“龍蝦”狂歡 賣(mài)“飼料”先掙錢(qián)了?

頭條要聞

業(yè)主舉報(bào)違建次日接"鄰居"電話(huà):連我媽在哪打拳都知道

頭條要聞

業(yè)主舉報(bào)違建次日接"鄰居"電話(huà):連我媽在哪打拳都知道

體育要聞

韓國(guó)女足羨慕的奢侈品,為何選擇中國(guó)女足

娛樂(lè)要聞

肖戰(zhàn)首奪SMG視帝,孫儷四封視后創(chuàng)歷史

財(cái)經(jīng)要聞

全民"養(yǎng)龍蝦"背后 第一批受害者浮現(xiàn)

汽車(chē)要聞

蔚來(lái)?yè)Q電和理想5C,誰(shuí)能硬剛,比亞迪兆瓦閃充?

態(tài)度原創(chuàng)

教育
游戲
健康
藝術(shù)
公開(kāi)課

教育要聞

2026保研機(jī)構(gòu)排名與保研機(jī)構(gòu)對(duì)比:真實(shí)服務(wù)揭秘及保研機(jī)構(gòu)推薦

游戲聯(lián)動(dòng)還能這么玩?讓玩家在51區(qū)用火影跑解救外星人?

轉(zhuǎn)頭就暈的耳石癥,能開(kāi)車(chē)上班嗎?

藝術(shù)要聞

30000畝杏花開(kāi)了,新疆的春天這么美!

公開(kāi)課

李玫瑾:為什么性格比能力更重要?

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版