版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領
文檔簡介
1、羅夏樸老師的意見問題幾個小建議:(1)遷移分析為何可以解決這個問題的原因也許可以寫的更多一些;(2)想問問代碼補全對反混淆的作用是什么?也許可以基于現(xiàn)在的混淆方法來說明一下為何這些方法可以反混淆。另外一個是思路是:現(xiàn)在有人提出利用程序生成來做這個,也就是說不直接反混淆,而是重新生成清晰的程序感覺也許遷移學習或者代碼補全可以做這個(1)遷移分析為何可以解決這個問題的原因(余嘯、郭峻材分別填些理由,我再綜合一下)【余嘯詞向量預訓練】這里的“
2、遷移學習”主要是指的是代碼的詞向量預訓練(訓練出的詞向量就表示了代碼背景語義信息)。目前NLP領域?qū)⒃~向量預訓練也算作遷移學習了(余嘯問了幾個做NLP的同學)。建議把遷移學習的字眼去掉,如果一定要說遷移這個字眼,就將“突出采用BigCode背景信息深度增強方式作為roid代碼反混淆的基本方法,基于遷移學習的思想,將代碼背景語義信息合理引入反混淆模型中”改成“突出采用BigCode背景信息深度增強方式作為roid代碼反混淆的基本方法,將代
3、碼背景語義信息合理遷移到反混淆模型中。”【郭峻材多任務預訓練】遷移學習已在計算機視覺領域取得了巨大的進步,通過大量圖像數(shù)據(jù)集對中間層的預訓練來學習圖像的一般知識,中間層通常是多層卷積網(wǎng)絡。NLP中最初流行的“遷移學習”是由詞嵌入(wdembedding)帶動起來的,通過利用單詞的上下文將單詞表示為向量,從而將單詞集合構(gòu)成一個適當維度的數(shù)字空間。目前NLP的遷移學習也在逐步通過多任務預訓練方式不斷提升目標任務的精度,這種遷移模塊不再僅限于
4、詞嵌入模塊。當前最典型的就是Google提出的BERT模型,通過MaskedLanguageModel和NextSentencePrediction進行主要模塊的預訓練,當用于目標任務時,只需要對模型進行輸入郭峻材分別填些理由,我再綜合一下)另外一個是思路是:現(xiàn)在有人提出利用程序生成來做這個,也就是說不直接反混淆,而是重新生成清晰的程序感覺也許遷移學習或者代碼補全可以做這個【余嘯】如果用程序生成來做,得去確保生成的程序和混淆代碼的程序?qū)?/p>
5、現(xiàn)的功能完全一樣。這個就目前的技術來說,很難保證,這樣很容易對產(chǎn)生bug。所以我不傾向這樣去做。但是如果是按照我們目前的申報方案的方法來做,就算反混淆的效果不好,也能確保反混淆的程序和混淆程序功能是一樣的?!具@理解是程序生成方式對我們方法不利的方面。但是程序生成方式對我們方法有利的方面是什么?】【郭峻材】上述思路應該是一個程序重構(gòu)任務。輸入為混淆代碼序列,輸出為(完整的)反混淆代碼序列,通過編碼模塊和解碼模塊實現(xiàn)內(nèi)部過程。這個一般過程面
6、臨的最大問題是:即使是在一個開放式的程序生成環(huán)境中,代碼的可讀性和可執(zhí)行性都還不能滿足要求(需要進一步解釋。。。)。當在代碼反混淆任務中時,更大的限制就在于輸出代碼要求的執(zhí)行結(jié)果必須要和輸入保持一致,這對于只是依賴于統(tǒng)計的深度學習模型很難保證。我們目前的思路是,將反混淆任務看成一個局部翻譯任務,其中的“局部”具有不確定性,即不同代碼序列中的混淆位點幾乎都不一致(需要舉個例子。。。)。我們的解決方案就是在反混淆過程中將混淆位點與代碼序列進
7、行拷貝式分離,即混淆代碼序列結(jié)構(gòu)完全不變進行序列編碼,混淆位點代碼在初步編碼后拷貝取出,通過Attention機制實現(xiàn)混淆位點代碼與混淆代碼序列中所有代碼的關聯(lián)性計算,然后只輸出反混淆結(jié)果,替換混淆代碼。在此基礎上,盡可能保持代碼的可讀性、可執(zhí)行性與執(zhí)行結(jié)果的一致性?!緞⑦M】我的問題Motivation里為什么只講要做標識符混淆,而不講結(jié)構(gòu)混淆?體現(xiàn)在Motivation中的理由有哪些?(羅老師、余嘯、郭峻材請根據(jù)自己已掌握的知識分別填
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
評論
0/150
提交評論