

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
1、貝葉斯網絡簡介Introduction to Bayesian Networks,基本框架,貝葉斯網絡:? 概率論 ? 圖論,基本思路,貝葉斯網絡是為了處理人工智能研究中的不確定性(uncertainty)問題而發(fā)展起來的.貝葉斯網絡是將概率統(tǒng)計應用于復雜領域進行不確定性推理和數(shù)據分析的工具。BN是一種系統(tǒng)地描述隨即變量之間關系的工具。建立BN的目的主要是進行概率推理(probabilistic inference)。用概率
2、論處理不確定性的主要優(yōu)點是保證推理結果的正確性。,幾個重要原理,鏈規(guī)則(chain rule)貝葉斯定理(Bayes’ theorem)利用變量間條件獨立性,What are they?Bayesian nets are a network-based framework for representing and analyzing models involving uncertaintyWhat are they us
3、ed for?Intelligent decision aids, data fusion, feature recognition, intelligent diagnostic aids, automated free text understanding, data miningWhere did they come from?Cross fertilization of ideas between the artifici
4、al intelligence, decision analysis, and statistic communities,貝葉斯網絡的幾個主要問題,貝葉斯網絡概率推理(Probabilistic Inference)結構學習 (structure learning)參數(shù)學習 (Parameter learning)分類 (classification)? 隱變量及隱結構學習 (Hidden variables and
5、hidden structure learning),一個簡單貝葉斯網絡例子,一個簡單貝葉斯網絡例子,計算過程:(1)P(y1|x1)=0.9P(z1|x1)=P(z1|y1,x1)P(y1|x1)+P(z1|y2,x1)P(y2|x1) =P(z1|y1)P(y1|x1)+P(z1|y2)P(y2|x1) =0.7*0.9+0.4*0.1=0.67P(w1|x1)=P(w1|z1,x1)P(z1
6、|x1)+P(w1|z2,x1)P(z2|x1) =P(w1|z1)P(z1|x1)+P(w1|z2)P(z2|x1) =0.5*0.67+0.6*0.33=0.533該計算利用向下概率傳播及鏈式規(guī)則。,一個簡單貝葉斯網絡例子,計算過程:(2) P(y1)=P(y1|x1)P(x1)+P(y1|x2)P(x2)=0.9*0.4+0.8*0.6=0.84P(z1)=P(z1|y1)P(y1)+P(z
7、1|y2)P(y2)=0.7*0.84+0.4*0.16=0.652P(w1)=P(w1|z1)P(z1)+P(w1|z2)P(z2)=0.5*0.652+0.6*0.348=0.5348P(w1|y1)=P(w1|z1)P(z1|y1)+P(w1|z2)P(z2|y1)=0.5*0.7+0.6*0.3=0.53P(w1|y2)=P(w1|z1)P(z1|y2)+P(w1|z2)P(z2|y2) =0.5*0
8、.4+0.6*0.6=0.56P(w1|x1)=P(w1|y1)P(y1|x1)+P(w1|y2)P(y2|x1) =0.53*0.9+0.56*0.1=0.533 該計算利用向上概率傳播及貝葉斯定理。,為什么要用貝葉斯網絡進行概率推理?,理論上,進行概率推理所需要的只是一個聯(lián)合概率分布。但是聯(lián)合概率分布的復雜度相對于變量個數(shù)成指數(shù)增長,所以當變量眾多時不可行。貝葉斯網絡的提出就是要解決這個問題。它把復雜的聯(lián)
9、合概率分布分解成一系列相對簡單的模塊,從而大大降低知識獲取和概率推理的復雜度,使得可以把概率論應用于大型問題。統(tǒng)計學、系統(tǒng)工程、信息論以及模式識別等學科中貝葉斯網絡特里的多元概率模型:樸素貝葉斯模型,隱類模型,混合模型,隱馬爾科夫模型,卡爾曼濾波器等。動態(tài)貝葉斯網絡主要用于對多維離散時間序列的監(jiān)控和預測。多層隱類模型,能夠揭示觀測變量背后的隱結構。,概率論基礎,貝葉斯網絡所依賴的一個核心概念是條件獨立: Condition
10、al Independence,基本概念,例子,P(C, S,R,W) = P(C)P(S|C)P(R|S,C)P(W|S,R,C) chain rule = P(C)P(S|C)P(R|C)P(W|S,R,C) since = P(C)P(S|C)P(R|C)P(W|S,R) since,貝葉斯網絡應用,醫(yī)療診斷,工業(yè),金融分
11、析,計算機(微軟Windows,Office),模式識別:分類,語義理解軍事(目標識別,多目標跟蹤,戰(zhàn)爭身份識別等),生態(tài)學,生物信息學(貝葉斯網絡在基因連鎖分析中應用),編碼學,分類聚類,時序數(shù)據和動態(tài)模型,圖分割與變量獨立,圖分割,有向分割(d-separate,d-分割)變量X和Y通過第三個變量Z間接相連的三種情況:阻塞(block)設Z為一節(jié)點集合,X和Y是不在Z中的兩個節(jié)點。考慮X和Y之間的一條通
12、路。如果滿足下面條件之一,則稱被Z所阻塞:1.有一個在Z中的順連節(jié)點;2.有一個在Z中的分連節(jié)點3. 有一個匯連節(jié)點W,它和它的后代節(jié)點均不在Z中。,圖分割與變量獨立,如果X和Y之間的所有通路都被Z阻塞,則說Z有向分割(directed separate)X和Y,簡稱d-separate,d-分割。那么X和Y在給定Z時條件獨立。定理(整體馬爾科夫性)設X和Y為貝葉斯網N中的兩個變量,Z為N中一個不包含X和Y的節(jié)點集合。如果Z
13、d-分割X和Y,那么X和Y在給定Z時條件獨立,即 d-分割是圖論的概念,而條件獨立是概率論的概念,所以定理揭示了貝葉斯網絡圖論側面和概率論側面之間的關系。,馬爾科夫邊界與端正圖,?馬爾科夫邊界:條件獨立性 在貝葉斯網絡中,一個節(jié)點X的馬爾科夫邊界(Markov boundary)包括其父節(jié)點、子節(jié)點、以及子節(jié)點的父節(jié)點。? 端正圖(Moral graph): 團樹傳播算法-junction tree 設G為一
14、有向無環(huán)圖,如果將G中每個節(jié)點的不同父節(jié)點結合,即在他們之間加一條邊,然后去掉所有邊的方向,所得到的無向圖成為G的端正圖。,貝葉斯網絡推理(Inference),貝葉斯網絡可以利用變量間的條件獨立對聯(lián)合分布進行分解,降低參數(shù)個數(shù)。推理(inference)是通過計算來回答查詢的過程計算后驗概率分布:P(Q|E=e),貝葉斯網絡推理(Inference),1 變量消元算法(Variable elimination) 利用概率
15、分解降低推理復雜度。? 使得運算局部化。消元過程實質上就是一個邊緣化的過程。? 最優(yōu)消元順序:最大勢搜索,最小缺邊搜索,貝葉斯網絡推理(Inference),2. 團樹傳播算法利用步驟共享來加快推理的算法。團樹(clique tree)是一種無向樹,其中每一個節(jié)點代表一個變量集合,稱為團(clique)。團樹必須滿足變量連通性,即包含同一變量的所有團所導出的子圖必須是連通的。,用團樹組織變量消元的算法。計算共享
16、團樹傳播算法基本步驟:將貝葉斯網絡轉化為團樹團樹初始化在團樹中選一個團作為樞紐全局概率傳播:CollectMessage; DistributeMessage邊緣化,歸一化,團樹傳播算法示例 ([TLR]是樞紐節(jié)點) ?變量消元和團樹傳播算法都是精確推理算法。,,貝葉斯網絡推理(Inference),3 . 近似推理(1) 隨機抽樣算法:順序抽樣法,MCMC抽樣是一類應用于數(shù)值積分和統(tǒng)
17、計物理中的近似計算方法。基本思想是從某個概率分布隨機抽樣,生成一組樣本,然后從樣本出發(fā)近似計算感興趣的量。隨機抽樣算法理論基礎是大數(shù)定律。,MCMC算法—吉布斯抽樣(Gibbs sampling)。它首先隨機生成一個與證據E=e相一致的樣本s1作為起始樣本。此后,每個樣本si的產生都依賴于前一個樣本si-1,且si與si-1最多只有一個非證據變量的取值不同,記改變量為X。X的取值可以從非證據變量中隨機選取,也可以按某個固定順序輪流決
18、定。在si中,X的值通過隨機抽樣決定,抽樣分布是:當樣本數(shù) 時,馬氏鏈理論保證了算法返回的結果收斂于真正的后驗概率。吉布斯抽樣的缺點是收斂速度慢,因為馬氏鏈往往需要花很長時間才能真正達到平穩(wěn)分布。 (2) 變分法。,貝葉斯網絡學習,1. 結構學習:發(fā)現(xiàn)變量之間的圖關系 ,2 .參數(shù)學習:決定變量之間互相關聯(lián)的量化關系。,貝葉斯網絡結構學習,選擇具有最大后驗概率的結構 ?;谠u分函數(shù)(scoring fu
19、nction):BIC, MDL, AIC等 拉普拉斯近似(Laplace approximation):對拉普拉斯近似簡化,得BIC:①BIC既不依賴于先驗也不依賴于參數(shù)坐標系統(tǒng) ②第一項度量參數(shù)模型預測數(shù)據的優(yōu)良程度,第二項用于懲罰模型復雜度,結構學習算法,算法:K2: 通過為每個結點尋找父結點集合來學習貝葉斯網絡結構。它不斷往父結點集中添加結點,并選擇能最大化數(shù)據和結構的聯(lián)合概率的結點集。 Hi
20、llClimbing (operators: edge addition, edge deletion, edge reversion) 從一個無邊結構開始,在每一步,它添加能最大化BIC的邊。算法在通過添加邊不能再提高結構得分時停止。缺值數(shù)據結構學習:Structural EM SEM不是每次迭代都同時優(yōu)化模型結構和參數(shù),而是先固定模型結構進行數(shù)次參數(shù)優(yōu)化后,再進行一次結構加參數(shù)優(yōu)化,如此交替進行。
21、 目的:減小計算復雜度。,貝葉斯網絡參數(shù)學習,最大似然估計 完全基于數(shù)據,不需要先驗概率: 貝葉斯估計 假定在考慮數(shù)據之前,網絡參數(shù)服從某個先驗分布。先驗的主觀概率,它的影響隨著數(shù)據量的增大而減小。,貝葉斯網絡參數(shù)學習,缺值數(shù)據最大似然估計:EM算法 (迭代算法) 1 基于 對數(shù)據進行修補,使之完整 (E-step) 2 基于修補后的完整數(shù)據計算的最大似然估計 (M-Step)
22、EM算法是收斂的。,隱結構模型學習,隱變量是取值未被觀察到的變量。通過數(shù)據分析: 1 隱變量的個數(shù) 2 隱結構 3 隱變量的勢 4 模型參數(shù)方法:基于評分函數(shù)的爬山法 G是一個隱變量模型,D是一組數(shù)據。 是G的參數(shù)的某一個最大似然估計, 是G的有效維數(shù)。 隱變量勢學習爬山算法隱結構學習雙重爬山算法,貝葉斯網絡用于分類和因
23、果關系分析,(1) Naïve Bayesian networks(2) Tree augment Bayesian networks, et al.(3) PC (Spirtes et al.,2000) , IC(Pearl,2000) algorithm,動態(tài)貝葉斯網絡,DBN: Dynamic Bayesian networksDealing with timeIn many systems, data
24、arrives sequentiallyDynamic Bayes nets (DBNs) can be used to model such time-series (sequence) dataSpecial cases of DBNs includeState-space modelsHidden Markov models (HMMs),Software Tools,Microsoft’s MSBNXBNT
25、 Kevin Murphy. BayesNet Toolbox for Matlab (BNT). http://www.cs.ubc.ca/~murphyk/Software/BNT/bnt.html, 2001.,參考文獻,(美)拉塞爾,(美)諾文 著. 姜哲 等譯. 人工智能—一種現(xiàn)代 方法(第二版),北京:人民郵電出版社,2004.6. (Chapter 13,14,15,20). Kevin Patrick Murphy.
26、 Dynamic Bayesian Networks: Representation, Inference and learning. PhD dissertation, University of California, Berkeley, 2002. David Heckerman. A Tutorial on Learning with Bayesian Networks. Microsoft Technical Report
27、.No.MSR-TR-95-06.Microsoft Research, March 1995 (revised November 1996) Richard E. Neapolitan. Learning Bayesian Networks. Prentice Hall Series in Artificial Intelligence, Pearson Education, Inc., Pearson Prentice Hall
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 貝葉斯網絡
- 貝葉斯網絡matlab
- 貝葉斯網絡研究.pdf
- 貝葉斯統(tǒng)計
- 貝葉斯博弈
- 貝葉斯網絡分類器與應用.pdf
- 貝葉斯網絡推理算法研究.pdf
- 基于貝葉斯網絡的試卷分析.pdf
- 貝葉斯網絡中的因果推斷.pdf
- (貝葉斯決策例題)
- 貝葉斯統(tǒng)計復習
- 十貝葉斯統(tǒng)計
- 基于周期的貝葉斯網絡預測模型.pdf
- 基于貝葉斯網絡的預測模型研究.pdf
- 基于貝葉斯網絡的水質風險分析.pdf
- 基于貝葉斯網絡的移動商務系統(tǒng).pdf
- 如何使用貝葉斯網絡工具箱
- 貝葉斯網絡參數(shù)遷移學習方法.pdf
- 基于貝葉斯網絡的互動故事模型.pdf
- 基于貝葉斯網絡的數(shù)據挖掘研究.pdf
評論
0/150
提交評論