

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、TalkingData基于Spark的數(shù)據(jù)挖掘工作,張夏天 騰云天下科技有限公司@張夏天_機(jī)器學(xué)習(xí),內(nèi)容,TalkingData簡(jiǎn)介我們的數(shù)據(jù)挖掘工作應(yīng)用廣告優(yōu)化隨機(jī)決策樹(shù)算法及其Spark實(shí)現(xiàn),Talking Data簡(jiǎn)介,TalkingData移動(dòng)大數(shù)據(jù)生態(tài)圈,行業(yè)透視,DMP數(shù)據(jù)管理平臺(tái),數(shù)據(jù)交易與交換,數(shù)據(jù)監(jiān)測(cè)與預(yù)警,基礎(chǔ)數(shù)據(jù)服務(wù),數(shù)據(jù)能力開(kāi)放,企業(yè)服務(wù),內(nèi)容,TalkingData簡(jiǎn)介我們的數(shù)據(jù)挖掘工作
2、應(yīng)用廣告優(yōu)化隨機(jī)決策樹(shù)算法及其Spark實(shí)現(xiàn),數(shù)據(jù)挖掘在TalkingData的應(yīng)用,移動(dòng)應(yīng)用推薦,廣告優(yōu)化,用戶畫像,游戲數(shù)據(jù)挖掘,,外包咨詢,,通用推薦,同步推,機(jī)鋒,開(kāi)放:移動(dòng)應(yīng)用通用服務(wù)接口,CTR: 提升20%-50%轉(zhuǎn)化率: 提升50%-100%轉(zhuǎn)化成本: 降低50%,,人口屬性,,移動(dòng)應(yīng)用興趣標(biāo)簽,,行業(yè)興趣標(biāo)簽,,位置信息,,付費(fèi)預(yù)測(cè),,流失預(yù)測(cè),為什么選擇Spark,硬件資源有限,人力資源有限,任務(wù)
3、繁重,,,為什么沒(méi)有廣泛使用MLLib,內(nèi)存資源有限,很多情況下無(wú)法把數(shù)據(jù)放入內(nèi)存處理,因此迭代算法效率還是很低迭代依然是阿格硫斯之蹱我們只能盡可能使用需要迭代次數(shù)少,甚至不迭代的算法和算法實(shí)現(xiàn),RDT,One Iteration LR,SimHash,內(nèi)容,TalkingData簡(jiǎn)介我們的數(shù)據(jù)挖掘工作應(yīng)用廣告優(yōu)化隨機(jī)決策樹(shù)算法及其Spark實(shí)現(xiàn),應(yīng)用廣告優(yōu)化,針對(duì)某一應(yīng)用,篩選推廣目標(biāo)人群,,,,,,,如何做廣告優(yōu)化
4、,分類問(wèn)題預(yù)測(cè)每個(gè)設(shè)備對(duì)目標(biāo)應(yīng)用的感興趣程度算法隨機(jī)決策樹(shù)一次迭代LR,RDT算法簡(jiǎn)介,隨機(jī)決策樹(shù)算法(Random Decsion Trees)[Fan et al, 2003]融合多棵隨機(jī)構(gòu)建的決策樹(shù)的預(yù)測(cè)結(jié)果,來(lái)進(jìn)行分類/回歸特點(diǎn)樹(shù)的構(gòu)建完全隨機(jī),不尋找最優(yōu)分裂點(diǎn)和分裂值 建樹(shù)的開(kāi)銷低建樹(shù)的過(guò)程不需要使用label信息應(yīng)用分類,多標(biāo)簽分類,回歸單機(jī)開(kāi)源實(shí)現(xiàn): Dice
5、 www.dice4dm.com,RDT的簡(jiǎn)單例子,P’(+|x)=30/50 =0.6,P(+|x)=30/100=0.3,,,(P(+|x)+P’(+|x))/2 = 0.45,兩種構(gòu)建隨機(jī)決策樹(shù)的方式,方式1:,方式2:,,,,,,,,,,,,,,,,,,,,優(yōu)點(diǎn):隨時(shí)剪枝缺點(diǎn):需要迭代,優(yōu)點(diǎn):不需要迭代缺點(diǎn):空樹(shù)占用內(nèi)存很大,限制了樹(shù)的深度,與決策樹(shù)和隨機(jī)決策森林的區(qū)別,為什么RDT有學(xué)習(xí)能力,直觀解釋 [Fan
6、et al., 2003]貝葉斯最優(yōu)分類器解釋 [Fan et al., 2005;Davidson and Fan, 2006]矩解釋(高階統(tǒng)計(jì))[Dhurandhar 2010],Multi-label RDT算法 [Zhang et al, 2010],Multi-label 學(xué)習(xí)問(wèn)題,Multi-label RDT算法,P(L1+|x)=30/100=0.3,P’(L1+|x)=30/50 =0.6,P(L
7、2+|x)=50/100=0.5,P’(L2+|x)=20/100=0.2,(P(L1+|x)+P’(L1+|x))/2 = 0.45,(P(L2+|x)+P’(L2+|x))/2 = 0.35,RDT算法在Spark上實(shí)現(xiàn)的問(wèn)題,兩種方式都存在比較大的缺點(diǎn)方式1: 需要多次迭代方式2: 空樹(shù)占用過(guò)多內(nèi)存,限制樹(shù)的深度,,,方式3: 不顯示構(gòu)建樹(shù)結(jié)構(gòu)的隨機(jī)決策樹(shù),僅在樣本走到某個(gè)節(jié)點(diǎn)時(shí),動(dòng)態(tài)確定當(dāng)前的節(jié)點(diǎn)的feature.
8、優(yōu)點(diǎn):無(wú)需迭代數(shù)據(jù),內(nèi)存占用小,如何實(shí)現(xiàn)不構(gòu)建樹(shù)的隨機(jī)決策樹(shù)算法,一個(gè)偽隨機(jī)數(shù)種子就可以確定一棵隨機(jī)決策樹(shù)理論上:我們僅需要一個(gè)偽隨機(jī)數(shù)種子,我們就可以計(jì)算出這棵樹(shù)任何一個(gè)節(jié)點(diǎn)上的feature實(shí)踐中:使用偽隨機(jī)數(shù)發(fā)生器效率比較低,我們采用Hash函數(shù),二叉隨機(jī)決策樹(shù)的實(shí)現(xiàn),二叉樹(shù)僅針對(duì)binary數(shù)據(jù), 每個(gè)節(jié)點(diǎn)只需要確定feature可以通過(guò)公式推算父節(jié)點(diǎn),左右子節(jié)點(diǎn)的編號(hào),父節(jié)點(diǎn): (p-1)/2(奇數(shù)) ,
9、(p-2)/2(偶數(shù)) 左子節(jié)點(diǎn):2*p+1右子節(jié)點(diǎn):2*p+2,Spark實(shí)現(xiàn)—確定節(jié)點(diǎn)feature,用Hash函數(shù)來(lái)確定每個(gè)節(jié)點(diǎn)的featuref = hash(p+s) mod M其中,p是節(jié)點(diǎn)編碼,s是當(dāng)前樹(shù)的種子,M是feature數(shù), hash函數(shù)是整數(shù)hash函數(shù)。如果在一條路徑下重復(fù)出現(xiàn)了一個(gè)feature, 則按如下邏輯處理:while(path contains(f)) f = (
10、f+1) mod M end while,樣本在樹(shù)上行走的過(guò)程,,,,,,,,Hash(0+s) mod 8 = 4,Hash(2+s) mod 8 = 0,Hash(5+s) mod 8 = 0,(0+1) mod 8 = 1,,,,,2:f0,,5:f0,5:f1,,2,1,3,4,5,6,0,0:f4,f4,f0,f0,Conflict !,f1,隨機(jī)決策樹(shù)Spark實(shí)現(xiàn),Map,Data,Data,Data,Data,
11、S1,S4,S2,S3,,,,,,,,,,,,,,,,,Reduce,與MLLib算法的比較,數(shù)據(jù)(對(duì)RDT算法,用SimHash轉(zhuǎn)成512維binary數(shù)據(jù)):,與MLLib算法的比較,RDT:深度: 30 樹(shù)棵數(shù):50Spark配置:excutors: 12worker: 1driver-mem: 2Gexecutor-mem:2G,MLLib(1.0)算法:迭代:10次Logsitic Re
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于Spark的若干數(shù)據(jù)挖掘技術(shù)研究.pdf
- 基于Spark的大數(shù)據(jù)挖掘技術(shù)的研究與實(shí)現(xiàn).pdf
- 基于SPARK的海量數(shù)據(jù)頻繁模式挖掘算法研究.pdf
- 基于YARN和Spark框架的數(shù)據(jù)挖掘算法并行研究.pdf
- 基于Spark文本挖掘技術(shù)的研究與應(yīng)用.pdf
- 基于Spark平臺(tái)的空間數(shù)據(jù)挖掘DBSCAN聚類算法并行化研究.pdf
- 基于Spark的圖數(shù)據(jù)查詢算法研究.pdf
- 基于Spark數(shù)據(jù)分析系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn).pdf
- 基于Spark的情報(bào)大數(shù)據(jù)可視化分析.pdf
- 基于Spark的海量數(shù)據(jù)計(jì)算平臺(tái)設(shè)計(jì)與實(shí)現(xiàn).pdf
- 基于Spark的分布式頻繁項(xiàng)集挖掘算法研究.pdf
- 基于工作流的數(shù)據(jù)挖掘過(guò)程研究.pdf
- 基于Spark平臺(tái)大數(shù)據(jù)推薦系統(tǒng)的研究.pdf
- 基于Spark的數(shù)據(jù)管理平臺(tái)的設(shè)計(jì)與實(shí)現(xiàn).pdf
- 基于數(shù)據(jù)挖掘技術(shù)的
- 基于文本的數(shù)據(jù)挖掘
- 基于Spark大數(shù)據(jù)平臺(tái)的火電廠節(jié)能分析.pdf
- 基于Spark的RDF數(shù)據(jù)toP-k查詢計(jì)算研究.pdf
- 基于Spark的電力系統(tǒng)日志數(shù)據(jù)的分析處理.pdf
- 基于Spark的數(shù)據(jù)分析建模工具的設(shè)計(jì)與實(shí)現(xiàn).pdf
評(píng)論
0/150
提交評(píng)論