首頁 分類 排行榜 閱讀記錄 我的書架

第139章 AI怎麼“插手”影視製作:從寫劇本到上熱搜全講透

2025-11-22 作者:巴蜀魔幻俠

咱先舉個例子:你有沒有想過,《速度與激情7》裡保羅·沃克的鏡頭是怎麼來的?他拍攝中途意外去世,剩下的戲份總不能讓電影爛尾吧?最後是團隊用AI把他之前拍過的鏡頭、採訪片段“拼”起來,再合成到新畫面裡,才讓角色順利收尾——這就是AI在影視圈的一次“高光操作”。

現在的AI早不是隻做特效的“工具人”了,從你在電影院看到的電影、手機裡刷的網劇,甚至短影片平臺的小短劇,從一開始寫故事、拍畫面,到後期剪片子、發宣傳,AI幾乎全程都在“搭把手”。今天就用最通俗的話,把AI在影視製作裡的門道掰開揉碎了講,保證不管你是不是懂行,都能聽明白。

一、前期:還沒開機,AI先幫劇組“踩坑”

很多人以為影視製作是從“開機拍”開始的,其實不是。在正式拍攝前,劇組要花幾個月甚至幾年做準備:寫劇本、畫分鏡、算預算、選演員……這一步叫“前期製作”,最容易出問題——比如劇本寫出來沒人愛看、分鏡畫得不合理導致後期返工、預算超了拍一半沒錢了。而AI在這一步的作用,就是幫劇組“少走彎路”。

1. 寫劇本:AI是“靈感提款機”,但不是“代筆”

先說說寫劇本。以前編劇寫故事,全靠自己憋靈感:坐在電腦前發呆半天,可能就想出一句對白;想個轉折劇情,得翻幾十部同類電影找參考。現在有了AI,情況就不一樣了。

比如編劇想寫一個“校園青春劇”,但不知道從哪入手,就可以跟AI說:“幫我寫一個高中校園故事的大綱,主角是轉學生,有一個隱藏的音樂天賦,衝突是和班長因為一場合唱比賽產生矛盾,最後一起奪冠”。AI可能在10分鐘內就給出3個不同版本的大綱:第一個版本里轉學生是因為家庭原因轉學,第二個版本里班長其實也喜歡音樂但不敢說,第三個版本里合唱比賽遇到了突發狀況。編劇不用從零開始,從這3個大綱裡挑一個自己覺得順眼的,再改改細節,比如把“合唱比賽”改成“校園歌手大賽”,把主角的性格調得更活潑,很快就能出一版初稿。

還有對白,以前編劇要琢磨“這個角色說話的語氣像不像高中生”“老闆跟下屬說話會不會這麼客氣”,現在AI能模仿不同角色的語氣。比如讓AI寫“老師批評上課睡覺的學生”,AI會寫出:“小明,你昨晚是幫月球背面裝WiFi去了?上課頭點得跟打樁機似的,要不我給你搬個枕頭過來?”這種帶點幽默的對白,比編劇自己硬憋要快得多。

不過要說明白:AI不是能直接寫出一部完整的好劇本。它的作用是“幫襯”——比如編劇卡殼的時候給靈感,或者快速生成初稿,最後還是得靠編劇修改、潤色,把人物寫得更立體,把劇情改得更有邏輯。就像廚師做菜,AI幫著切菜、備料,但炒甚麼味、放多少鹽,還得廚師自己來。

2. 分析劇本:AI能預測“這電影會不會火”

寫好劇本還不算完,投資方得判斷“這個劇本能不能賺錢”——總不能拍一部沒人看的電影吧?以前投資方靠經驗判斷:比如“這個導演之前拍過爆款,這次應該也不差”“這個題材最近很火,值得投”,但這種判斷很容易出錯,比如有的導演拍過爆款,下一部卻票房撲街;有的題材看著火,拍出來卻沒人看。

現在AI能幫著“算一算”這個劇本的潛力。它會把這個劇本和過去幾十年裡幾萬部電影的劇本做對比:比如對比“劇情結構”——是不是和《流浪地球》一樣有“危機出現→團隊解決→最後反轉”的結構;對比“人物設定”——主角是不是和《哪吒之魔童降世》裡的哪吒一樣“反套路”;甚至對比“臺詞風格”——是不是和《夏洛特煩惱》一樣有很多搞笑梗。

然後AI會給出一個“預測報告”:比如“這個劇本的票房可能在5億到8億之間,目標觀眾主要是18-25歲的年輕人,在春節檔上映會更合適”“這個劇本里有3個情節可能會讓觀眾覺得無聊,建議修改第25分鐘的家庭戲,增加一點衝突”。

當然,AI也不是“預言家”,它的預測是基於過去的資料,要是遇到像《流浪地球》這種打破常規的“黑馬”電影,AI可能也會算不準。但對於大多數“中規中矩”的電影,AI的分析能幫投資方少踩很多坑——比如避免投一部“一看就會虧”的劇本。

3. 畫分鏡:AI把文字“變”成畫面,不用等設計師

劇本確定後,下一步要畫“分鏡”——就是把劇本里的每一段文字,變成一張張漫畫一樣的圖,告訴攝影師“這個鏡頭要從上面拍”“演員要站在左邊”“背景裡要有一輛紅色的車”。以前畫分鏡全靠設計師手繪,一個設計師一天可能只能畫20張,要是一部電影有1000個鏡頭,就得畫50天,不僅慢,還可能因為設計師理解錯劇本,畫出來的分鏡和編劇想的不一樣,得反覆修改。

現在AI能直接把劇本“轉”成分鏡。比如劇本里寫:“早上7點,女主角在廚房煮咖啡,陽光從窗戶照進來,她拿起手機看了一眼,突然愣住了”。AI會自動生成一張分鏡圖:畫面裡有廚房的場景,女主角站在咖啡機前,窗戶上有陽光的光斑,她手裡拿著手機,表情是驚訝的。而且AI還能生成不同風格的分鏡:想要卡通風格的、寫實風格的、甚至像宮崎駿動畫一樣的風格,都能選。

設計師不用再從零開始畫,只要在AI生成的分鏡基礎上改一改:比如把“咖啡機的顏色改成白色”“陽光的角度調得再斜一點”,一天就能改完100張,效率翻了5倍。而且AI生成的分鏡是基於劇本文字的,不容易出現“理解偏差”,減少了反覆修改的麻煩。

4. 選演員、算預算:AI幫著“挑人”“省錢”

選演員也是個麻煩事:以前劇組靠試鏡,讓幾十上百個演員來演一段,再靠導演的眼光選;現在AI能先“模擬”演員的表現。比如劇組想找一個“20歲左右、能演活潑少女”的演員,AI會把備選演員過去演的戲、參加的綜藝片段找出來,分析他們的“活潑程度”“臺詞功底”“和其他演員的搭配度”,然後給出一個排名:“演員A的活潑程度得分90分,和男主角的搭配度85分,建議優先考慮”。

這樣劇組不用讓所有演員都來試鏡,先透過AI篩選出幾個候選人,再試鏡,能省不少時間。而且AI不會受“個人喜好”影響——比如有的導演可能因為喜歡某個演員的長相就選他,但AI只看資料,更客觀。

預算方面也一樣。以前算預算靠“經驗”:比如拍一場“暴雨戲”,要租灑水車、買雨衣、僱群演,大概要花10萬塊。但實際拍的時候可能因為灑水車不夠、群演臨時漲價,最後花了15萬。現在AI會把過去拍過“暴雨戲”的所有案例找出來,分析“灑水車的租金在不同季節的變化”“群演的工資在不同城市的差異”,然後給出一個“精準預算”:“在上海拍這場暴雨戲,10月份的話,大概需要12萬,其中灑水車租金3萬,群演工資5萬,其他費用4萬”。這樣劇組就能提前做好預算,避免“拍一半沒錢了”。

二、拍攝:AI是“現場助手”,幫攝影師“少出錯”

到了正式拍攝階段,AI的作用就更直接了——它像一個“隱形助手”,跟在攝影師、導演身邊,幫著盯著畫面,避免出錯,還能自動完成一些麻煩的操作。

1. 智慧跟拍:AI幫攝影師“盯緊”演員

拍電影的時候,經常需要“跟拍”——比如演員在跑步,攝影師要拿著相機跟著跑,保證演員一直在畫面中間。但人跑的時候容易晃,可能會把演員拍出畫面,或者畫面抖得厲害,後期沒法用。

現在有了“AI智慧跟拍裝置”,情況就不一樣了。比如把AI攝像頭裝在軌道上,或者無人機上,AI能透過攝像頭實時“盯”著演員:不管演員是跑、是跳、還是突然轉身,AI都能快速調整攝像頭的位置和角度,讓演員一直保持在畫面中間,而且畫面很穩,不用後期再防抖。

比如拍一部動作片,演員要在巷子裡跑,後面有壞人追。以前需要攝影師扛著相機跟著跑,不僅累,還可能因為巷子窄,不小心撞到牆,或者把壞人拍出畫面。現在用AI跟拍,攝影師只要在旁邊看著,AI會自動跟著演員跑,還能根據劇情調整鏡頭:比如演員跑的時候用“近景”,突出他的表情;壞人追的時候用“遠景”,展示巷子的環境。這樣拍出來的畫面又穩又好看,還省了攝影師的體力。

2. 實時“檢查”畫面:AI幫著“挑錯”,避免返工

拍電影最怕的就是“拍的時候沒發現問題,後期才看到,只能重拍”——比如鏡頭虛焦了(畫面模糊)、演員的衣服穿反了、背景裡有不該有的東西(比如麥克風、工作人員)。重拍不僅費錢,還可能耽誤進度,比如本來計劃一天拍5場戲,因為重拍只能拍3場。

現在AI能在拍攝的時候“實時檢查”畫面。比如攝影師拍的時候,AI會在旁邊的螢幕上實時分析:“這個鏡頭的焦點在演員的頭髮上,應該在眼睛上,有點虛焦,建議調整”“演員的左邊袖子捲起來了,右邊沒卷,可能穿錯了,建議提醒演員”“背景裡有個工作人員的手露出來了,建議讓他躲一下”。

這樣攝影師在拍的時候就能及時調整,不用等後期才發現問題。比如拍一場室內戲,背景裡有個電線露出來了,AI馬上提醒,工作人員當場把電線藏起來,不用後期再花時間把電線P掉,也不用重拍。

還有“曝光”問題——比如拍外景,中午陽光太曬,畫面可能太亮,演員的臉一片白;傍晚光線暗,畫面又太黑,看不清演員的表情。以前攝影師要自己調整相機的曝光引數,可能要試好幾次才能調好。現在AI能實時分析光線:“現在是中午12點,陽光強度是8000lux,建議曝光引數調為f/8,快門1/1000s”,攝影師直接按AI給的引數調,一次就能拍好,不用試錯。

3. 虛擬拍攝:AI讓“無中生有”變簡單

你有沒有看過《曼達洛人》?裡面很多外星場景不是在實地拍的,而是在一個“綠幕棚”裡拍的,背景是AI實時生成的——演員在綠幕前走,背景裡的外星沙漠、飛船就跟著動,就像演員真的在外星一樣。這就是“AI虛擬拍攝”,現在很多科幻片、仙俠片都在用。

以前拍這種“虛擬場景”,演員要在綠幕前對著空氣演,比如“演員要看著遠處的飛船”,但其實遠處甚麼都沒有,全靠演員“腦補”,很容易演得生硬。而且後期要把綠幕換成背景,得花幾個月時間,要是後期發現背景和演員的動作不匹配,比如“演員抬手的時候,飛船沒及時出現”,就得重新做背景,很麻煩。

現在用AI虛擬拍攝,演員在綠幕前演的時候,背景會實時出現在眼前的螢幕上——演員看著螢幕裡的飛船演,就能知道甚麼時候抬手、甚麼時候說話,演得更自然。而且AI會自動讓背景和演員的動作匹配:演員往前走,背景裡的樹木、石頭就往後退;演員抬頭,背景裡的飛船就慢慢靠近,不用後期再調整。

比如拍一部仙俠片,演員要“御劍飛行”。以前演員要吊威亞在綠幕前擺姿勢,後期再把綠幕換成天空、雲彩,可能要花1個月做後期。現在用AI虛擬拍攝,演員吊威亞的時候,眼前的螢幕上會實時出現天空、雲彩,演員能看到自己“腳下”的雲朵在動,就像真的在飛一樣,演得更真實,而且後期不用再換背景,直接就能用,省了1個月的時間。

三、後期:AI是“修圖大師”,讓剪片子變快10倍

拍攝結束後,就到了“後期製作”——剪片子、加特效、調色、配音……這一步是最耗時的,一部電影的後期可能要做半年到一年。而AI在後期的作用,就是“加速”和“修bug”,把原本要花幾個月的活,壓縮到幾周甚至幾天。

1. 擦除“多餘物”:AI幫著“P掉”畫面裡的“小瑕疵”

拍電影的時候,難免會有“多餘的東西”出現在畫面裡:比如拍古裝劇,背景裡不小心拍到了電線杆;拍現代劇,演員的衣服上粘了個麥克風;拍外景,天上飛過一架飛機。以前要把這些“多餘物”去掉,全靠後期人員用軟體一點一點畫,比如“要把電線杆去掉,得先畫和背景一樣的樹、石頭,再覆蓋電線杆”,一個鏡頭可能要畫10個小時,要是一部電影有100個這樣的鏡頭,就得畫1000個小時,差不多40天。

現在AI能自動“擦除”這些多餘物。只要後期人員在畫面上圈出“要去掉的電線杆”,AI會自動分析周圍的背景:比如電線杆旁邊有樹、有草地,AI就會模仿樹的紋理、草地的顏色,生成和周圍一樣的畫面,覆蓋掉電線杆,一個鏡頭只要5分鐘就能搞定,100個鏡頭也只要500分鐘,不到10個小時。

比如《甄嬛傳》重映的時候,有觀眾發現某一集中,背景裡有個工作人員的手機露出來了。要是以前,要把手機去掉,得後期人員手動畫背景,可能要花半天時間。現在用AI,圈出手機,AI自動生成和背景一樣的牆壁紋理,5分鐘就搞定了,不用耽誤重映進度。

還有“AI換臉”,除了前面說的《速度與激情7》,現在很多電影也會用它來“補拍”。比如演員拍完戲後,發現某一段臺詞說得不好,但演員已經去拍別的戲了,沒法回來重拍。這時候AI可以用演員之前拍過的鏡頭,把他的臉“換”到替身演員的臉上,再配上演員的聲音,就像演員自己重拍的一樣。比如某部電影裡,主角有一段哭戲,演員覺得自己演得不夠好,但已經沒時間重拍了,後期用AI把演員之前拍過的“哭臉”換到替身演員的臉上,再配上演員的哭聲,效果和演員自己演的一樣。

不過要說明白:AI換臉不能隨便用,得經過演員本人同意,不然會侵犯肖像權。現在影視圈對AI換臉的管理很嚴,避免出現“濫用”的情況。

2. 自動剪輯:AI幫著“剪片子”,比人快10倍

剪輯是後期最耗時的一步——比如一部電影拍了100小時的素材,後期人員要從這100小時裡挑出有用的片段,再按劇情順序拼起來,還要調整每個片段的長度,讓節奏更舒服。以前一個後期人員剪一部電影,可能要花3個月時間,要是遇到節奏快的動作片,素材更多,可能要花半年。

現在AI能“自動剪輯”,大大加快速度。比如把100小時的素材匯入AI,告訴AI“這是一部動作片,節奏要快,重點突出主角的打鬥鏡頭,背景音樂用激昂的搖滾”,AI會自動完成3件事:

第一,“挑素材”:AI會分析每一段素材,找出“主角在打鬥”“畫面清晰”“沒有多餘物”的片段,比如從100小時裡挑出20小時有用的素材,不用後期人員自己找。

第二,“拼順序”:AI會根據劇本的劇情順序,把挑出來的素材拼起來,比如“先拼主角被壞人圍攻的片段,再拼主角反擊的片段,最後拼主角打贏的片段”,不用後期人員手動拖放。

第三,“調節奏”:AI會根據背景音樂的節奏調整片段長度,比如背景音樂的鼓點很密,AI會把每個打鬥片段剪得短一點,比如1秒換一個鏡頭,讓畫面和音樂更配;背景音樂變慢的時候,AI會把片段剪得長一點,比如3秒換一個鏡頭,讓節奏更舒緩。

這樣AI能在1周內剪出一個“初版剪輯片”,後期人員不用從零開始,只要在初版的基礎上改一改:比如“把第10分鐘的打鬥片段再剪短一點”“把第20分鐘的背景音樂換成抒情的”,大概花1個月就能完成剪輯,比以前快了2倍。

現在很多短影片平臺的“短劇”也在用AI自動剪輯。比如拍一部10分鐘的短劇,拍了2小時素材,AI能在10分鐘內剪出初版,後期人員改改細節,半小時就能上線,大大加快了更新速度。

用大白話聊(續)

3. 生成特效:AI讓“暴雨、煙霧、人群”不再費錢費時間

說到影視特效,大家可能會想到《阿凡達》裡的潘多拉星球,或者《流浪地球》裡的行星發動機——這些炫酷的特效,以前全靠“特效師手動摳圖、建模”,一個簡單的“暴雨場景”,可能要幾個特效師做一週;要是遇到“千軍萬馬的戰爭戲”,更是要做幾個月,不僅費錢(按秒收費,一秒可能要幾千塊),還容易出bug(比如人群動作重複,看著像“複製貼上”)。

現在有了AI,做特效就像“搭積木”一樣簡單,而且又快又便宜。

先說說“自然特效”,比如暴雨、煙霧、火焰、雪花。以前做“暴雨戲”,特效師要先畫“雨滴的形狀”,再調整“雨滴的速度和方向”,還要讓雨滴落在演員身上、地面上有“濺起的水花”,每個細節都要手動調,一個鏡頭可能要做3天。現在用AI,只要告訴AI“要一場‘傾盆大雨’,雨滴要密,落在地面上有明顯水花,還要有風吹著雨斜著下”,AI會自動生成雨滴、水花,還能根據演員的動作調整雨滴的位置——比如演員抬手擋雨,雨滴會落在他的手上,而不是穿手而過,一個鏡頭1小時就能搞定,成本直接降了80%。

再說說“人群特效”,比如古裝劇裡的“皇宮慶典”,需要幾千個群演;戰爭片裡的“戰場廝殺”,需要上萬個士兵。以前做這種特效,要麼真的找幾千個群演來拍(成本高,還不好管理),要麼用“複製貼上”——先做幾十個群演的模型,再複製成幾千個,但動作都一樣,看著很假。現在AI能生成“獨一無二的人群”:AI會給每個“虛擬群演”設計不同的動作(有的在聊天,有的在走路,有的在揮手)、不同的衣服(有的穿紅色,有的穿藍色,有的戴帽子),甚至不同的表情(有的笑,有的嚴肅),幾千個人看起來沒有一個重複的,就像真的群演一樣。

比如拍一部古裝劇的“登基大典”,需要1萬個群演站在皇宮廣場上。以前用手動建模,可能要做1個月,還容易出現“動作重複”的問題。現在用AI,2天就能生成1萬個“虛擬群演”,每個都有自己的動作和衣服,後期直接把這些虛擬群演“放”到皇宮廣場的背景裡,不用找真群演,也不用花大價錢租場地,省錢又省時間。

還有“場景特效”,比如科幻片裡的“外星城市”、仙俠片裡的“天宮”。以前做這種場景,特效師要先畫“城市的圖紙”,再建“3D模型”,還要給建築加“燈光、紋理”,一個場景可能要做半年。現在AI能“根據文字描述生成場景”:比如告訴AI“要一個‘未來外星城市’,建築都是流線型的,會發光,天上有飛艦,地面上有懸浮的汽車,背景是紫色的天空”,AI會自動生成這個場景的3D模型,還能調整細節——比如把“飛艦的數量增加一點”“建築的顏色換成藍色”,一個場景2周就能做好,比以前快了10倍。

4. 調色:AI幫著“給畫面上色”,不用再“一幀一幀調”

拍出來的 raw 素材(沒處理過的畫面)通常是“灰濛濛”的,沒有電影感——比如拍出來的“夕陽戲”,天空是淡紅色的,演員的臉是暗黃色的,不好看。這時候就需要“調色”:把天空調成“橙紅色”,把演員的臉調成“自然膚色”,讓整個畫面更有“氛圍感”。

以前調色全靠“調色師一幀一幀調”。一部電影有幾十萬幀畫面,調色師要對著每一幀調整“亮度、對比度、飽和度”,比如“把第1000幀的天空亮度提高一點”“把第2000幀的演員膚色飽和度降低一點”,一個鏡頭可能要調2小時,一部電影要調幾個月,而且很容易出現“前後畫面顏色不一致”的問題——比如前一幀天空是橙紅色,後一幀變成了粉紅色。

現在AI能“自動調色”,還能保證“顏色統一”。比如把一部電影的素材匯入AI,告訴AI“這部電影是‘懸疑片’,整體色調要偏冷(比如藍色、灰色),只有主角的衣服是紅色,突出主角”,AI會做兩件事:

第一,“統一色調”:AI會分析所有畫面,自動把整體色調調成冷色,把主角的衣服調成紅色,不用調色師一幀一幀調,一個鏡頭5分鐘就能調好,一部電影1周就能完成調色,比以前快了10倍。

第二,“匹配場景色調”:AI會根據場景的“情緒”調整色調——比如“主角被追殺的戲”,色調會更暗,藍色更濃,營造“緊張感”;“主角回憶童年的戲”,色調會變亮,加一點暖黃色,營造“溫馨感”。而且AI會保證“同一場景的色調一致”,不會出現“前一幀暗、後一幀亮”的問題。

比如《隱秘的角落》這部劇,整體色調偏冷,只有“主角和家人吃飯的戲”色調偏暖,突出“家庭的溫馨和外面世界的冰冷”。要是以前,調色師要花1個月來調整這種“冷暖對比”,現在用AI,1周就能搞定,還能讓色調的過渡更自然。

四、宣發:AI幫著“讓電影上熱搜”,精準找到“想看的人”

電影拍完、剪好後,還得“讓觀眾知道”——這就是“宣發”(宣傳和發行)。以前宣發靠“拍個預告片、印點海報、在電視臺打廣告”,花錢多,還不知道“這些廣告有沒有用”——比如在電視臺打了100萬的廣告,可能只有100個人因為這個廣告去看電影,價效比很低。

現在AI能幫著“精準宣發”:知道“哪些人會想看這部電影”,然後把“預告片、海報”推給這些人,還能預測“哪個平臺的宣發效果最好”,讓每一分錢都花在刀刃上。

1. 生成“個性化海報、預告片”:你刷到的海報,可能和別人不一樣

以前電影的海報、預告片都是“統一的”——不管你是18歲的學生,還是35歲的上班族,刷到的都是同一張海報、同一個預告片。但其實“不同的人喜歡的點不一樣”:學生可能喜歡“電影裡的愛情戲”,上班族可能喜歡“電影裡的職場奮鬥戲”,統一的海報、預告片可能抓不住所有人的注意力。

現在AI能生成“個性化的海報、預告片”。比如一部“青春愛情職場片”,AI會先分析“不同人群的喜好”:

- 對18-25歲的學生:AI生成的海報會突出“男女主角的甜蜜互動”,預告片會剪“愛情戲的片段”,比如“男女主角在校園裡牽手、擁抱的鏡頭”,推給學生群體。

- 對26-35歲的上班族:AI生成的海報會突出“女主角在職場上奮鬥的場景”,預告片會剪“職場戲的片段”,比如“女主角在會議室裡演講、解決工作難題的鏡頭”,推給上班族群體。

- 對36-45歲的家長:AI生成的海報會突出“電影裡的家庭溫情戲”,預告片會剪“主角和家人互動的片段”,比如“主角陪父母吃飯、聊天的鏡頭”,推給家長群體。

這樣每個人刷到的海報、預告片都是“自己喜歡的型別”,更容易被吸引,願意去看電影。比如某部電影用AI生成了10種不同的海報,推給不同人群后,“想看人數”比以前用統一海報的時候增加了50%。

2. 精準“找人”:把廣告推給“最可能看的人”

以前宣發是“廣撒網”——不管你喜不喜歡這種型別的電影,都可能刷到它的廣告,比如你喜歡“恐怖片”,卻刷到了“動畫片”的廣告,你不會感興趣,廣告就白打了。現在AI能“精準找人”:透過分析你的“觀影記錄、搜尋歷史、社交動態”,判斷你“是不是這部電影的目標觀眾”,再把廣告推給你。

比如AI分析你的資料後發現:你過去半年看了5部“青春愛情片”,在社交平臺上分享過“校園戀愛”的話題,還搜尋過“這部電影的主演”,AI就會判斷“你很可能喜歡這部青春愛情片”,然後把這部電影的預告片、海報推給你。而如果你從來沒看過青春愛情片,也沒搜尋過相關話題,AI就不會給你推,避免“浪費廣告資源”。

比如某部動畫電影,AI透過分析使用者資料,找到了“過去1年看了3部以上動畫片、年齡在3-12歲的孩子家長”,把電影的廣告推給這些家長。結果這些家長裡,有30%的人帶孩子去看了電影,比以前“廣撒網”的宣發效果(只有5%的轉化率)好太多。

3. 預測“宣發效果”:提前知道“哪個平臺最管用”

宣發要選“平臺”——比如在抖音發預告片、在微信朋友圈發海報、在微博上搞話題。以前選平臺靠“經驗”:比如“年輕人都用抖音,就在抖音發預告片”,但其實可能“這部電影的目標觀眾雖然是年輕人,但他們更喜歡在B站看影片”,結果在抖音發了廣告,效果不好。

現在AI能“預測不同平臺的宣發效果”。AI會分析“過去類似電影在不同平臺的宣發資料”:比如“和這部青春愛情片類似的《XX電影》,在抖音發預告片帶來了10萬想看人數,在B站髮帶來了15萬想看人數,在微博髮帶來了8萬想看人數”,然後給出預測:“這部電影在B站宣發效果最好,其次是抖音,最後是微博,建議把60%的宣發預算放在B站,30%放在抖音,10%放在微博”。

劇組按照AI的建議分配預算,就能“花最少的錢,獲得最好的效果”。比如某部電影按照AI的建議,把主要預算放在了B站,結果在B站帶來了20萬想看人數,最終票房比預期多了3億,宣發價效比翻了2倍。

五、AI不是“取代人”,而是“幫人做得更好”

看到這裡,你可能會問:“AI這麼厲害,會不會取代編劇、導演、特效師?”其實不會——AI只是“工具”,就像廚師的菜刀、畫家的畫筆,它能幫人“省力氣、提效率”,但不能取代人的“創意和情感”。

比如編劇用AI生成了劇本大綱,但“主角為甚麼要做這個選擇”“這段對白裡藏著甚麼情感”,還是要靠編劇去琢磨;導演用AI生成了分鏡,但“這個鏡頭要表達甚麼情緒”“演員的動作要怎麼設計”,還是要靠導演去判斷;特效師用AI生成了特效,但“這個特效要怎麼和劇情結合”“怎麼讓觀眾覺得‘真實’”,還是要靠特效師去調整。

就像《流浪地球》的導演郭帆說的:“AI能幫我們快速生成100個‘行星發動機’的設計圖,但最終選哪個、怎麼改,還是要靠我們對‘中國科幻’的理解——我們要讓發動機有‘中國工業風’,要讓觀眾看到它就覺得‘這是我們中國人造的’,這是AI做不到的。”

而且AI還有“缺點”:比如它只能基於“過去的資料”生成內容,要是遇到“從來沒見過的創意”(比如《流浪地球》這種“帶著地球去流浪”的想法),AI就沒法給出好建議;它也不懂“人類的複雜情感”,比如“主角失去親人的痛苦”,AI能生成“主角哭的鏡頭”,但沒法讓這個鏡頭“打動觀眾”,還是要靠演員的表演、導演的排程。

所以,AI在影視製作裡的角色,不是“取代者”,而是“夥伴”——它幫人把“繁瑣的、重複的工作”做了,讓人有更多時間和精力去做“更有創意、更有情感的事”,讓電影變得更好看、更有深度。

最後:未來的電影,會因為AI變得更“多元”

以後,可能會有更多“小成本、有創意”的電影因為AI而誕生——比如一個獨立導演,以前因為“沒錢請編劇、特效師”,沒法拍自己想拍的故事;現在用AI生成劇本大綱、做特效,花很少的錢就能完成一部電影,然後透過AI精準宣發,讓喜歡這個故事的觀眾看到。

甚至可能會有“個性化電影”——比如你看電影的時候,AI能根據你的喜好調整劇情:你喜歡“大團圓結局”,AI就給你看主角成功的結局;你喜歡“懸疑結局”,AI就給你看主角留下謎團的結局。雖然現在這種技術還不成熟,但未來很可能會實現。

總之,AI不是“改變影視製作的本質”——影視製作的本質還是“講好一個故事,打動觀眾”,但它會讓“講好故事”的過程變得“更簡單、更高效、更多元”,讓我們看到更多“以前看不到的好電影”。

A−
A+
護眼
目錄