首頁 分類 排行榜 閱讀記錄 我的書架

第153章 貝葉斯推理:從猜硬幣到刷手機,其實你每天都在“貝葉斯”

2025-11-22 作者:巴蜀魔幻俠

如果你用過ChatGPT寫文案、讓AI推薦過短影片,或者聽說過“AI能預測天氣”“AI能診斷疾病”,可能會好奇:這些AI到底是怎麼“思考”的?它們不是人類,沒有生活經驗,怎麼能根據零散的資訊,一步步靠近真相?

其實背後藏著一個特別樸素的邏輯——貝葉斯推理。別看名字裡帶“推理”“貝葉斯”,聽著像高深的數學,本質上它跟你每天猜“今天要不要帶傘”“外賣多久能到”的思路一模一樣。接下來咱們從生活小事講到AI應用,把貝葉斯推理的來龍去脈、核心邏輯、怎麼幫AI幹活全說透,保證全程大白話,沒公式也能懂。

一、先搞懂:貝葉斯推理到底在解決甚麼問題?

咱們先從一個你肯定遇到過的場景切入——猜硬幣。

假設你朋友手裡拿了一枚硬幣,讓你猜“這枚硬幣丟擲去,正面朝上的機率是多少”。正常人第一反應都是“50%啊,硬幣不就正反兩面嗎”。但如果拋了10次,有8次是正面,你還會覺得是50%嗎?可能會嘀咕:“難道這硬幣是假的?正面機率是不是更高?”

再換個場景:你早上出門,看了眼窗外陰天,心裡想“今天下雨的機率大概30%”;走兩步看到樓下有人撐傘,馬上把機率調到“60%”;到了公司,同事說“天氣預報說今天有中雨”,機率直接拉到“90%”——最後你趕緊回去拿傘。

這兩個場景裡,你其實已經在做“貝葉斯推理”了。它解決的核心問題就是:我們對一個事情的判斷(比如硬幣正面機率、下雨機率),不是固定不變的,而是會根據新看到的資訊,不斷調整、不斷靠近真相。

放到AI身上,問題就變成了:AI一開始對“使用者想要甚麼”“這張圖裡是不是貓”“這句話是不是垃圾郵件”只有一個“初始猜測”,然後透過分析資料(比如你點的贊、圖片的畫素、郵件裡的關鍵詞),不斷修正這個猜測,最後給出一個“最可能對”的結果。

簡單說,貝葉斯推理就是“先有個初始想法,再用新資訊更新想法”的迴圈。這個迴圈,不管是人類還是AI,用起來都特別順手。

二、拆解開:貝葉斯推理的“三步心法”,其實你每天都在練

要理解AI怎麼用貝葉斯推理,得先把這個推理的“套路”拆明白。咱們還是用生活例子當靶子,一步步拆成“三步心法”。

第一步:先給個“初始猜測”——這叫“先驗機率”

貝葉斯推理的第一步,是先根據“過去的經驗”或“常識”,給事情定一個“初始機率”,專業名叫“先驗機率”(“先驗”就是“在看到新資訊之前”的意思)。

比如:

- 你沒看天氣預報,只知道“你所在的城市,5月份下雨的天數大概佔1/10”,那“今天下雨”的先驗機率就是10%;

- 你沒見過朋友的硬幣,只知道“市面上99%的硬幣是均勻的,正面機率50%”,那“這枚硬幣正面機率50%”的先驗機率就是99%;

- AI沒分析你的手機記錄,只知道“全平臺使用者裡,喜歡看美食影片的人大概佔30%”,那“你喜歡美食影片”的先驗機率就是30%。

這個“先驗機率”不用多精確,哪怕是瞎猜的也沒關係——因為後面會用新資訊修正。就像你第一次見一個人,覺得“他可能是個溫和的人”(先驗),後面相處中發現他總髮脾氣,再改成“他比較急躁”,道理一樣。

這裡要注意:先驗機率不是“固定值”,而是“根據已有資訊的判斷”。比如同樣是“猜下雨”,如果你前一天看了天氣預報說“明天大機率下雨”,那先驗機率就不是10%,而是70%——因為“天氣預報”成了新的“已有資訊”。

第二步:看新資訊“有多相關”——這叫“似然度”

有了初始猜測,下一步就是看“新出現的資訊,跟我們的猜測到底有多配”,專業名叫“似然度”(“似然”就是“看起來像”的意思)。

還是拿“猜下雨”舉例:你出門看到“有人撐傘”(新資訊),現在要算兩個“似然度”:

1. 如果“今天真的會下雨”(我們的猜測),那麼“有人撐傘”的機率有多大?——很可能,比如80%(下雨時大家更願意撐傘);

2. 如果“今天不會下雨”(反過來的猜測),那麼“有人撐傘”的機率有多大?——也有可能,比如10%(可能有人怕曬,或者習慣帶傘)。

這兩個似然度的差距越大,新資訊的“含金量”就越高。比如“有人撐傘”時,80% vs 10%,差距不小,說明這個資訊能幫我們修正猜測;但如果新資訊是“有人穿外套”,那“下雨時穿外套”的機率是60%,“不下雨時穿外套”的機率是50%,差距小,這個資訊就沒那麼有用。

再看AI的例子:AI猜“你喜歡美食影片”(初始猜測),然後看到你“點讚了一條火鍋影片”(新資訊),要算兩個似然度:

1. 如果“你真的喜歡美食影片”,那麼“你點贊火鍋影片”的機率有多大?——很高,比如90%(喜歡美食的人大機率會點贊火鍋內容);

2. 如果“你不喜歡美食影片”,那麼“你點贊火鍋影片”的機率有多大?——很低,比如5%(不喜歡的人偶爾誤點)。

這時候90% vs 5%,差距很大,說明“點贊火鍋影片”這個資訊,能幫AI更確定“你喜歡美食影片”。

簡單說,似然度就是在算“新資訊更支援哪個猜測”。支援度差距越大,資訊越有用。

第三步:更新猜測,得到“新判斷”——這叫“後驗機率”

有了“先驗機率”和“似然度”,最後一步就是把兩者結合起來,算出“更新後的機率”,專業名叫“後驗機率”(“後驗”就是“在看到新資訊之後”的意思)。

這一步是貝葉斯推理的核心,但不用怕,咱們用“猜硬幣”的例子算一遍,保證不用公式也能懂。

場景:你朋友的硬幣,先驗機率是“99%的可能是均勻的(正面50%),1%的可能是作弊的(正面80%)”。現在拋了10次,8次正面(新資訊),要算“這枚硬幣是作弊的”的後驗機率。

第一步:先算“兩種猜測下,出現‘8次正面’的似然度”:

- 如果是“均勻硬幣”(50%正面),拋10次得8次正面的機率很低,大概是4.4%(你不用算,記住“很低”就行);

- 如果是“作弊硬幣”(80%正面),拋10次得8次正面的機率很高,大概是30.2%(記住“很高”就行)。

第二步:對比“似然度”和“先驗機率”的乘積(這是貝葉斯的核心計算邏輯,不用懂為甚麼,看差距就行):

- 均勻硬幣:先驗機率99% × 似然度4.4% ≈ %;

- 作弊硬幣:先驗機率1% × 似然度30.2% ≈ %。

哎?這時候均勻硬幣的乘積反而更高?但別急,因為這只是“相對值”,我們要算“作弊硬幣佔總機率的比例”:

總機率 = 均勻硬幣的乘積 + 作弊硬幣的乘積 ≈ % + % ≈ %;

作弊硬幣的後驗機率 = % ÷ % ≈ 6.5%。

也就是說,拋了10次8次正面後,“這枚硬幣是作弊的”的機率,從原來的1%(先驗)升到了6.5%(後驗)——雖然還是低,但已經提升了6倍多。

如果再拋10次,還是8次正面(新資訊),再算一次:

- 均勻硬幣:先驗機率現在是93.5%(因為上次後驗是6.5%作弊,所以均勻是93.5%) × 似然度4.4% ≈ %;

- 作弊硬幣:先驗機率6.5% × 似然度30.2% ≈ %;

總機率 ≈ % + % ≈ %;

作弊硬幣的後驗機率 ≈ % ÷ % ≈ 32.3%。

你看,現在機率就升到32.3%了!如果再拋10次還是8次正面,這個機率會繼續升到80%以上——越來越靠近“這枚硬幣是作弊的”真相。

這就是貝葉斯推理的魔力:哪怕初始猜測錯得離譜(比如一開始只覺得1%是作弊),只要有足夠多的新資訊,就能一步步修正,最終逼近真相。

AI也是這麼幹的:比如AI一開始覺得“你喜歡美食影片”的機率是30%(先驗),你點贊1次火鍋影片,機率升到50%(後驗);你又收藏1次燒烤影片,機率升到70%;你再轉發1次甜品影片,機率升到90%——最後AI就確定“你肯定喜歡美食影片”,然後給你推更多相關內容。

三、為甚麼AI離不開貝葉斯推理?因為它解決了AI的“老大難”問題

你可能會問:AI的演算法那麼多,為甚麼偏偏要靠貝葉斯推理?其實是因為貝葉斯能解決其他演算法搞不定的“老大難”問題,這些問題在AI裡太常見了。

問題1:AI沒那麼多“完美資料”,貝葉斯能“用少資料猜真相”

很多AI演算法需要“海量完美資料”才能幹活。比如要讓AI識別“貓”,得給它10萬張標註好“這是貓”“這不是貓”的圖片,它才能學明白。但現實中,資料往往不夠——比如要識別“一種新發現的動物”,全世界可能只有幾百張照片,這時候其他演算法就歇菜了,但貝葉斯能上。

因為貝葉斯可以用“先驗機率”補資料的缺口。比如要識別新動物“XX獸”,先根據“它跟老虎長得像”,定一個“先驗機率”:“XX獸的圖片裡,有80%會有‘條紋’特徵”,然後用僅有的幾百張照片做“新資訊”,不斷修正這個先驗——哪怕資料少,也能一點點靠近“正確識別XX獸”的目標。

就像你第一次學做飯,沒看過多少菜譜(資料少),但根據“煮麵條要加水”的常識(先驗),試著煮一次,發現水少了糊了(新資訊),下次多加水(更新後驗),試幾次就會了——貝葉斯幫AI實現的,就是這種“邊試邊學”的能力。

問題2:AI要處理“不確定的資訊”,貝葉斯能“量化機率”

現實世界裡的資訊,大多是“不確定”的。比如:

- 使用者點了一個影片,可能是“真喜歡”,也可能是“誤點”;

- 圖片裡有“兩個尖耳朵”,可能是貓,也可能是狗、兔子;

- 病人說“頭痛”,可能是感冒,也可能是沒休息好、壓力大。

這些“不確定”的資訊,其他演算法很難處理——要麼當成“確定的訊號”(比如認為“點了就是喜歡”),要麼直接忽略。但貝葉斯能把“不確定”變成“機率”:比如“使用者點影片,60%是真喜歡,40%是誤點”,然後基於這個機率去更新判斷,不會一刀切。

舉個AI診斷疾病的例子:AI要判斷一個“頭痛”的病人是不是“感冒”。先驗機率是“頭痛病人裡,10%是感冒”;然後看新資訊“病人還發燒”——似然度是“感冒的人裡,80%會發燒”“不是感冒的人裡,5%會發燒”;最後算後驗機率,發現“是感冒”的機率升到了62%——AI不會說“你肯定是感冒”,而是“你有62%的可能是感冒,建議再查一下”,這就比“一刀切”科學多了。

問題3:AI要“實時更新判斷”,貝葉斯能“迴圈迭代”

AI的判斷不是“一次性”的,而是要跟著新資訊實時變。比如:

- 短影片推薦:你上午喜歡看美食,下午突然喜歡看旅遊,AI得馬上改推薦;

- 自動駕駛:前面的車本來在正常開,突然打了轉向燈,AI得立刻判斷“它要變道”,然後減速;

- 語音助手:你說“開啟窗戶”,它先猜“是客廳的窗戶”,但你又說“不是,是臥室的”,它得馬上改過來。

貝葉斯的“先驗→似然→後驗”迴圈,天生就適合這種“實時更新”——因為上一次的“後驗機率”,就是下一次的“先驗機率”。比如:

1. 初始先驗:你喜歡美食影片的機率30%;

2. 第一次更新:你點贊火鍋影片,後驗升到50%(這個50%成了下一次的先驗);

3. 第二次更新:你跳過了一條炒菜影片,似然度是“喜歡美食的人跳過炒菜影片的機率20%,不喜歡的人跳過的機率80%”,算出來後驗降到36%(這個36%又成了下一次的先驗);

4. 第三次更新:你收藏了旅遊影片,似然度調整後,後驗降到15%——AI就知道“你現在可能更喜歡旅遊”,開始推旅遊內容。

這種“迴圈迭代”的能力,讓AI能像人類一樣“持續學習”,不會停留在舊判斷裡。

四、貝葉斯推理在AI裡的4個真實應用:從刷手機到救命,都有它的影子

光說理論太抽象,咱們看幾個貝葉斯推理在AI裡的真實應用,你會發現“原來我每天都在跟貝葉斯AI打交道”。

應用1:短影片/電商推薦——“你喜歡甚麼,AI越猜越準”

你刷抖音、淘寶時,AI的推薦為甚麼會“越來越懂你”?核心就是貝葉斯推理。

比如淘寶AI要給你推薦“裙子”:

- 先驗機率:根據“你所在城市是廣州(夏天熱)”“你之前買過2次短袖”,定“你可能想買夏天裙子”的機率是40%;

- 似然度:你點選了一條“碎花短裙”的連結——算兩個似然度:“想買夏天裙子的人,點選碎花短裙的機率70%;不想買的人,點選的機率10%”;

- 後驗機率:算出來“你想買夏天裙子”的機率升到82%——AI就給你推更多碎花短裙、雪紡短裙;

- 再迭代:你把一條“黑色長裙”加入購物車(新資訊),似然度調整後,“你喜歡長裙”的後驗機率升高,AI又會多推長裙。

為甚麼有時候AI會“推錯”?比如你誤點了一條“男士運動鞋”,AI就會短暫把“你可能買男士鞋”的機率升高,推幾次後發現你沒再點選,又會把這個機率降下來——這其實就是貝葉斯在“試錯修正”。

應用2:垃圾郵件過濾——“AI怎麼知道這封是詐騙郵件?”

你郵箱裡的“垃圾郵件過濾”功能,背後也是貝葉斯推理。AI要判斷“這封郵件是不是垃圾郵件”,步驟如下:

- 先驗機率:根據“全平臺郵件裡,垃圾郵件佔20%”,定“這封是垃圾郵件”的先驗機率20%;

- 似然度:提取郵件裡的關鍵詞,比如“免費領取”“銀行卡號”“點選連結”——算似然度:

1. 如果是垃圾郵件,出現“免費領取”的機率是90%(垃圾郵件愛用這詞);

2. 如果是正常郵件,出現“免費領取”的機率是5%(正常郵件很少用);

3. 同理,“銀行卡號”在垃圾郵件裡出現機率85%,正常郵件裡1%;

- 後驗機率:把這些關鍵詞的似然度結合起來,算出來“這封是垃圾郵件”的機率升到99.5%——AI就把它歸為垃圾郵件。

這種過濾方式比“固定關鍵詞黑名單”好用多了:比如正常郵件裡也可能有“免費領取”(比如公司發的福利通知),貝葉斯會根據“其他關鍵詞”(比如有沒有“尊敬的員工”“公司名稱”)調整機率,不會誤判;而如果垃圾郵件換了新關鍵詞(比如“限時放送”),AI也能透過“新關鍵詞的似然度”慢慢學習,更新判斷。

應用3:語音助手——“你說的‘開空調’,AI怎麼聽懂的?”

你跟Siri、小愛同學說“開空調”,它們能聽懂,不是因為“認識這三個字”,而是貝葉斯在幫它們“猜你說的是甚麼”。

因為語音訊號是“模糊的”:你說“開空調”,可能因為口音、環境噪音,AI接收到的訊號是“開空tiao”“開kong調”“開空diao”——它要從這些模糊訊號裡,找出“最可能的正確指令”。

步驟如下:

- 先驗機率:根據“你之前經常說‘開空調’,很少說‘開空掉’‘開空調’”,定“你說的是開空調”的先驗機率80%;

- 似然度:分析語音訊號的特徵(比如“tiao”的發音訊率、時長)——算似然度:

1. 如果正確指令是“開空調”,發出“開空tiao”訊號的機率是90%;

2. 如果正確指令是“開空掉”,發出“開空tiao”訊號的機率是10%;

- 後驗機率:算出來“正確指令是開空調”的機率升到97%——AI就執行“開空調”的指令。

如果AI猜錯了,比如你說“開臺燈”,它聽成“開臺燈”(其實是“開臺燈”),你糾正它“是檯燈不是檯燈”——這時候“開臺燈”的先驗機率就會升高,下次再聽到類似訊號,AI就會優先猜“開臺燈”。

應用4:醫療AI診斷——“AI怎麼幫醫生判斷腫瘤是良性還是惡性?”

在醫療領域,貝葉斯推理是AI輔助診斷的“核心工具”,比如判斷“肺部結節是不是惡性腫瘤”:

- 先驗機率:根據“40歲以上人群中,肺部結節是惡性的機率約5%”,定“這個病人的結節是惡性”的先驗機率5%;

- 似然度:結合病人的其他資訊——

1. 吸菸史:惡性結節患者裡,有吸菸史的佔80%;良性結節患者裡,有吸菸史的佔20%;

2. 結節大小:惡性結節中,直徑大於1cm的佔90%;良性結節中,直徑大於1cm的佔10%;

3. CT特徵:惡性結節有“毛刺徵”(邊緣不光滑)的佔75%;良性結節有“毛刺徵”的佔5%;

- 後驗機率:把這些資訊的似然度結合起來,比如病人“有吸菸史+結節直徑+有毛刺徵”,算出來“結節是惡性”的後驗機率升到85%——AI就會提醒醫生“這個結節惡性風險高,建議進一步檢查”。

這裡要強調:醫療AI不是“代替醫生”,而是用貝葉斯推理把“零散的醫學指標”變成“量化的機率”,幫醫生減少漏診、誤診的風險——畢竟醫生要記那麼多病例,AI用貝葉斯能更高效地整合資訊。

五、貝葉斯推理不是“萬能的”,這些坑它也躲不過

雖然貝葉斯推理很厲害,但它不是“AI的萬能藥”,也有自己的短板。瞭解這些短板,能幫你更理性地看待AI的判斷。

坑1:“先驗機率”錯了,後面全錯

貝葉斯推理的起點是“先驗機率”,如果先驗機率本身錯得離譜,那後面的更新也會跟著錯。

比如:AI要判斷“一個人是不是喜歡籃球”,但它的先驗機率是“所有女性都不喜歡籃球”(這是個錯誤的偏見)——哪怕這個女性點讚了10條籃球影片,AI算出來的後驗機率也可能很低,還是不推籃球內容。

這就是為甚麼AI會出現“性別偏見”“地域偏見”——本質上是“先驗機率”裡帶了偏見資料(比如訓練資料裡,女性籃球內容太少)。要解決這個問題,就得讓AI的“先驗機率”更客觀,比如用更均衡的訓練資料。

坑2:“資訊太多”時,算不過來

貝葉斯推理要算“所有可能的猜測”和“所有新資訊的似然度”,如果資訊太多,AI的計算量會變得特別大。

比如:AI要推薦“一首你喜歡的歌”,需要考慮的資訊有“你喜歡的曲風(流行、搖滾、古典)”“你喜歡的歌手”“你聽歌的時間(早上、晚上)”“你所在的場景(通勤、工作)”——要算的“似然度”會成指數級增長,AI可能會“算不過來”,導致推薦變慢或不準。

為了解決這個問題,AI工程師會給貝葉斯“減負”,比如忽略一些“相關性低的資訊”(比如“你昨天吃的飯”跟“喜歡的歌”相關性低,就不用算),或者用更簡化的模型計算。

坑3:“遇到沒見過的新情況”,會“懵圈”

貝葉斯推理靠的是“用已有資訊更新判斷”,但如果遇到“完全沒見過的新情況”,沒有任何“先驗機率”可以參考,它就會“懵圈”。

比如:AI從來沒見過“有人用方言說‘開啟掃地機器人’”,它接收到這個新語音訊號時,因為沒有“方言指令的先驗機率”和“似然度”,就無法判斷你說的是甚麼,可能會回覆“我沒聽懂”。

這就是為甚麼AI在“處理新事物”時表現不好——比如新出現的網路熱詞、新的消費習慣,AI都需要一定時間收集資料,建立新的“先驗機率”,才能慢慢學會處理。

六、總結:貝葉斯推理的本質,是“像人類一樣思考”

看到這裡,你應該能明白:貝葉斯推理不是甚麼高深的數學理論,而是把人類“根據經驗調整判斷”的本能,變成了AI可以執行的“演算法”。

它的核心邏輯一句話就能概括:先有個初始想法,然後用新資訊不斷修正,越修正越靠近真相。

從你每天猜“要不要帶傘”,到AI給你推影片、幫醫生診斷疾病,本質上都是在做這件事。

最後要記住:AI用貝葉斯推理做出的判斷,不是“絕對正確的”,而是“機率上最可能正確的”。就像你根據天氣猜“會下雨”,最後也可能沒下——但這並不影響貝葉斯推理是“AI最接近人類思考方式”的工具之一。

下次再用AI時,你可以多想一想:“它這個判斷,是基於甚麼‘先驗’?又用了甚麼‘新資訊’更新的?”——這樣你就能更懂AI,也能更理性地看待它的推薦和判斷。

A−
A+
護眼
目錄