2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩72頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、“當(dāng)系統(tǒng)的復(fù)雜性增加時(shí),我們使它精確化的能力將減小。直到達(dá)到一個(gè)閾值,一旦超越它,復(fù)雜性和精確性將互相排斥。” ——模糊數(shù)學(xué)創(chuàng)始人L.A.Zadeh教授,互克性原理,雨的大小,風(fēng)的強(qiáng)弱,人的胖瘦,年齡大小,個(gè)子高低,天氣冷熱,客觀世界的模糊性反映在人腦中,便產(chǎn)生了概念上的模糊性;人巧妙地利用自已建立的模糊概念來(lái)進(jìn)行判斷、推理和控制,完成那些現(xiàn)代先進(jìn)設(shè)備所不能完成的工作: 人們幾乎

2、可以同樣地辨認(rèn)胖子和瘦子,美麗和丑陋; 人們無(wú)須測(cè)量車速便可明智地躲過(guò)川流不息的車隊(duì); 一行草書(shū)雖然大異于整齊的印刷字體,卻照樣可以被人看懂。,在科學(xué)發(fā)展的今天,尤其在工程研究設(shè)計(jì)領(lǐng)域,模糊問(wèn)題無(wú)法回避,要求對(duì)數(shù)據(jù)進(jìn)行定量分析。,模糊概念,定量分析,1、模糊理論 1965年,Zadeh教授發(fā)表論文“模糊集合”(Fuzzy set),標(biāo)志模糊數(shù)學(xué)的誕生。模糊集合的基本思想是把經(jīng)典集合中的絕對(duì)隸屬關(guān)系靈活化,即元素對(duì)“

3、集合”的隸屬度不再是局限于取0或1,而是可以取從0到1間的任一數(shù)值。用隸屬函數(shù)(Membership Function)來(lái)刻畫(huà)處于中間過(guò)渡的事物對(duì)差異雙方所具有的傾向性。隸屬度(Membership Degree)就表示元素隸屬于集合的程度。,設(shè)X是論域,映射A(x):X→[0,1]確定了一個(gè)X上的模糊子集A,A(x)稱為A的隸屬函數(shù)。,,,,,,,例1,,,,,,,,,例2,,,,,,,,隸屬函數(shù)是模糊理論中的重要概念,實(shí)際應(yīng)用中

4、經(jīng)常用到以下三類隸屬函數(shù):(1)S函數(shù)(偏大型隸屬函數(shù)),注:(a、b為待定參數(shù)),(2)Z函數(shù)(偏小型隸屬函數(shù))這種隸屬函數(shù)可用于表示像年輕、冷、矮、淡等偏向小的一方的模糊現(xiàn)象。(3)∏函數(shù)(中間型隸屬函數(shù)) 這種隸屬函數(shù)可用于表示像中年、適中、平均等趨于中間的模糊現(xiàn)象。,,圖a、b、c分別表示偏大型、偏小型和中間型,,常用的模糊分布有矩形分布或半矩形分別、梯形或半梯形分布、拋物線型分布、正態(tài)分

5、布、高斯分布、鐘型函數(shù)等等。,(1)矩形或半矩形分布,(2)梯形或半梯形分布,(3)拋物線形分布,(4)正態(tài)分布,(5)高斯分布,鐘型函數(shù),三角形隸屬函數(shù),梯形隸屬函數(shù),高斯形隸屬函數(shù),鐘型隸屬函數(shù),2、模糊系統(tǒng)(Fussy System,簡(jiǎn)稱FS),許多實(shí)際的應(yīng)用系統(tǒng)很難用準(zhǔn)確的術(shù)語(yǔ)來(lái)描述。如化學(xué)過(guò)程中的“溫度很高”、“反應(yīng)驟然加快”等。 模糊系統(tǒng)(也稱模糊邏輯系統(tǒng))就是以模糊規(guī)則為基礎(chǔ)而具有模糊信息處理能力的動(dòng)態(tài)模型。,

6、2.1 模糊系統(tǒng)的構(gòu)成 模糊系統(tǒng)(也稱模糊邏輯系統(tǒng))就是以模糊規(guī)則為基礎(chǔ)而具有模糊信息處理能力的動(dòng)態(tài)模型。它由四部分構(gòu)成,如下圖:,(1)模糊化接口(Fuzzification)模糊化接口主要將檢測(cè)輸入變量的精確值根據(jù)其模糊度劃分和隸屬度函數(shù)轉(zhuǎn)換成合適的模糊值。 為了盡量減少模糊規(guī)則數(shù),可對(duì)于檢測(cè)和控制精度要求高的變量劃分多(一般5一7個(gè))的模糊度,反之則劃分少(一般3個(gè))的模糊度。當(dāng)完成變量的模糊度劃分后,需定義變量各模

7、糊集的隸屬函數(shù)。,,(2)知識(shí)庫(kù)(knowledge base)知識(shí)庫(kù)中存貯著有關(guān)模糊控制器的一切知識(shí),包含了具體應(yīng)用領(lǐng)域中的知識(shí)和要求的控制目標(biāo),它們決定著模糊控制器的性能,是模糊控制器的核心。 如專家經(jīng)驗(yàn)等。,比如:If渾濁度 清,變化率 零,then洗滌時(shí)間 短 If渾濁度 較濁,變化率 小,then洗滌時(shí)間 標(biāo)準(zhǔn),(3)模糊推理機(jī)( Fuzzy Inference Engine)根據(jù)模糊邏輯法

8、則把模糊規(guī)則庫(kù)中的模糊“if-then”規(guī)則轉(zhuǎn)換成某種映射。模糊推理,這是模糊控制器的核心,模擬人基于模糊概念的推理能力。,(4)反模糊化器(Defuzzification) 把輸出的模糊量轉(zhuǎn)化為實(shí)際用于控制的清晰量。,按照常見(jiàn)的形式,模糊推理系統(tǒng)可分為: 純模糊邏輯系統(tǒng) 高木-關(guān)野(Takagi-Sugeno)模糊邏輯系統(tǒng) 其他模糊邏輯系統(tǒng),,2.2 模糊系統(tǒng)的分類,2.2.1 純模糊邏

9、輯系統(tǒng),純模糊邏輯系統(tǒng)僅由知識(shí)庫(kù)和模糊推理機(jī)組成。其輸入輸出均是模糊集合。,×,×,,,純模糊邏輯系統(tǒng)結(jié)構(gòu)圖,純模糊邏輯系統(tǒng)的優(yōu)點(diǎn):提供了一種量化專輯語(yǔ)言信息和在模糊邏輯原則下系統(tǒng)地利用這類語(yǔ)言信息的一般化模式;缺點(diǎn):輸入輸出均為模糊集合,不易為絕大數(shù)工程系統(tǒng)所應(yīng)用。,2.2.2 高木-關(guān)野模糊系統(tǒng),該系統(tǒng)是由日本學(xué)者Takagi和Sugeno提出的,系統(tǒng)輸出為精確值,也稱為T(mén)-S模糊系統(tǒng)或Sugeno系統(tǒng)。舉例

10、:,,典型的一階Sugeno型模糊規(guī)則形式如下: 其中: x和y為輸入語(yǔ)言變量;A和B為推理前件的模糊集合;z為輸出語(yǔ)言變量;p、q、k為常數(shù)。,2.3 自適應(yīng)模糊系統(tǒng) 自適應(yīng)模糊系統(tǒng)是指具有學(xué)習(xí)算法的模糊邏輯系統(tǒng),其中模糊邏輯系統(tǒng)是由服從模糊邏輯規(guī)則的一系列“If-then”規(guī)則構(gòu)造的;學(xué)習(xí)算法則依靠數(shù)據(jù)信息來(lái)調(diào)整模糊邏輯系統(tǒng)的參數(shù)。 自適應(yīng)模糊系統(tǒng)被認(rèn)為是通過(guò)學(xué)習(xí)能自動(dòng)產(chǎn)生其模糊規(guī)則的模糊

11、邏輯系統(tǒng)。,,(1)從知識(shí)的表達(dá)方式來(lái)看模糊系統(tǒng)可以表達(dá)人的經(jīng)驗(yàn)性知識(shí),便于理解,而神經(jīng)網(wǎng)絡(luò)只能描述大量數(shù)據(jù)之間的復(fù)雜函數(shù)關(guān)系,難于理解。(2)從知識(shí)的存儲(chǔ)方式來(lái)看模糊系統(tǒng)將知識(shí)存在規(guī)則集中,神經(jīng)網(wǎng)絡(luò)將知識(shí)存在權(quán)系數(shù)中,都具有分布存儲(chǔ)的特點(diǎn)。,2.4 模糊系統(tǒng)與神經(jīng)網(wǎng)絡(luò)的區(qū)別與聯(lián)系,,(3)從知識(shí)的運(yùn)用方式來(lái)看模糊系統(tǒng)和神經(jīng)網(wǎng)絡(luò)都具有并行處理的特點(diǎn),模糊系統(tǒng)同時(shí)激活的規(guī)則不多,計(jì)算量小,而神經(jīng)網(wǎng)絡(luò)涉及的神經(jīng)元很多,計(jì)算量大。(

12、4)從知識(shí)的獲取方式來(lái)看模糊系統(tǒng)的規(guī)則靠專家提供或設(shè)計(jì),難于自動(dòng)獲?。窠?jīng)網(wǎng)絡(luò)的權(quán)系數(shù)可由輸入輸出樣本中學(xué)習(xí),無(wú)需人來(lái)設(shè)置。,將兩者結(jié)合起來(lái),在處理大規(guī)模的模糊應(yīng)用問(wèn)題方面將表現(xiàn)出優(yōu)良的效果。,模糊神經(jīng)網(wǎng)絡(luò)?,3、模糊神經(jīng)網(wǎng)絡(luò)(FNN),模糊神經(jīng)網(wǎng)絡(luò)(Fuzzy Neural Network,簡(jiǎn)稱FNN)將模糊系統(tǒng)和神經(jīng)網(wǎng)絡(luò)相結(jié)合,充分考慮了二者的互補(bǔ)性,集邏輯推理、語(yǔ)言計(jì)算、非線性動(dòng)力學(xué)于一體,具有學(xué)習(xí)、聯(lián)想、識(shí)別、自適應(yīng)和模糊信

13、息處理能力等功能。 其本質(zhì)就是將常規(guī)的神經(jīng)網(wǎng)絡(luò)輸入模糊輸入信號(hào)和模糊權(quán)值。,在模糊神經(jīng)網(wǎng)絡(luò)中,神經(jīng)網(wǎng)絡(luò)的輸入、輸出節(jié)點(diǎn)用來(lái)表示模糊系統(tǒng)的輸入、輸出信號(hào),神經(jīng)網(wǎng)絡(luò)的隱含節(jié)點(diǎn)用來(lái)表示隸屬函數(shù)和模糊規(guī)則,利用神經(jīng)網(wǎng)絡(luò)的并行處理能力使得模糊系統(tǒng)的推理能力大大提高。,,模糊神經(jīng)網(wǎng)絡(luò)的三種形式:邏輯模糊神經(jīng)網(wǎng)絡(luò)算術(shù)模糊神經(jīng)網(wǎng)絡(luò)(常規(guī)模糊神經(jīng)網(wǎng)絡(luò))混合模糊神經(jīng)網(wǎng)絡(luò),3.1 典型模糊神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),由于模糊系統(tǒng)的規(guī)則集和隸屬度函數(shù)等設(shè)

14、計(jì)參數(shù)只能靠設(shè)計(jì)經(jīng)驗(yàn)來(lái)選擇,所以用神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法,根據(jù)輸入輸出的學(xué)習(xí)樣本自動(dòng)設(shè)計(jì)和調(diào)整模糊系統(tǒng)的設(shè)計(jì)參數(shù),實(shí)現(xiàn)模糊系統(tǒng)的自學(xué)習(xí)和自適應(yīng)功能。結(jié)構(gòu)上像神經(jīng)網(wǎng)絡(luò),功能上是模糊系統(tǒng),這是目前研究和應(yīng)用最多的一類模糊神經(jīng)網(wǎng)絡(luò)。,,該網(wǎng)絡(luò)共分5層,是根據(jù)模糊系統(tǒng)的工作過(guò)程來(lái)設(shè)計(jì)的,是神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的模糊推理系統(tǒng)。第二層的隸屬函數(shù)參數(shù)和三、四層間及四、五層間的連接權(quán)是可以調(diào)整的。,典型的模糊神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),第一層為輸入層,為精確值。節(jié)點(diǎn)個(gè)數(shù)為輸

15、入變量的個(gè)數(shù)。,典型的模糊神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),第二層為輸入變量的隸屬函數(shù)層,實(shí)現(xiàn)輸入變量的模糊化。,典型的模糊神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),第三層也稱“與”層,該層節(jié)點(diǎn)個(gè)數(shù)為模糊規(guī)則數(shù)。該層每個(gè)節(jié)點(diǎn)只與第二層中前m個(gè)節(jié)點(diǎn)中的一個(gè)和后n個(gè)節(jié)點(diǎn)中的一個(gè)相連,共有m ×n個(gè)節(jié)點(diǎn),也就是有m ×n條規(guī)則。,典型的模糊神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),第四層為“或”層,節(jié)點(diǎn)數(shù)為輸出變量模糊度劃分的個(gè)數(shù)q。該層與第三層的連接為全互連,連接權(quán)值為Wkj,其中k=

16、1,2,…,q; j=1,2,…,m×n.(權(quán)值代表了每條規(guī)則的置信度,訓(xùn)練中可調(diào)。),典型的模糊神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),第五層為清晰化層,節(jié)點(diǎn)數(shù)為輸出變量的個(gè)數(shù)。該層與第四層的連接為全互連,該層將第四層各個(gè)節(jié)點(diǎn)的輸出,轉(zhuǎn)換為輸出變量的精確值。,3.2 模糊神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法,模糊神經(jīng)網(wǎng)絡(luò)無(wú)論作為逼近器,還是模式存儲(chǔ)器,都是需要學(xué)習(xí)和優(yōu)化權(quán)系數(shù)的。學(xué)習(xí)算法是模糊神經(jīng)網(wǎng)絡(luò)優(yōu)化權(quán)系數(shù)的關(guān)鍵。模糊神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法,大多來(lái)自神經(jīng)網(wǎng)絡(luò),

17、如BP算法、RBF算法等。,Matlab實(shí)現(xiàn),自適應(yīng)模糊神經(jīng)推理系統(tǒng),也稱為基于神經(jīng)網(wǎng)絡(luò)的自適應(yīng)模糊推理系統(tǒng)(Adaptive Network-based Fuzzy Inference System),簡(jiǎn)稱ANFIS,1993年由學(xué)者Jang Roger提出。融合了神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)機(jī)制和模糊系統(tǒng)的語(yǔ)言推理能力等優(yōu)點(diǎn),彌補(bǔ)各自不足。同其他模糊神經(jīng)系統(tǒng)相比,ANFIS具有便捷高效的特點(diǎn)。,ANFIS使用一個(gè)給定的輸入輸出數(shù)據(jù)集,從而構(gòu)造出

18、一個(gè)模糊推理系統(tǒng)(支持T-S型系統(tǒng)),并用一個(gè)單獨(dú)的反向傳播算法或該算法與最小二乘法相結(jié)合的方法來(lái)完成對(duì)系統(tǒng)隸屬函數(shù)參數(shù)的調(diào)節(jié)。這使得模糊系統(tǒng)可以從其建模數(shù)據(jù)中學(xué)習(xí)信息。,ANFIS建模方法,首先假定一個(gè)參數(shù)化的模型結(jié)構(gòu),然后采集輸入輸出的數(shù)據(jù),最后使用ANFIS訓(xùn)練FIS(fuzzy inference system)模型,根據(jù)選定的誤差準(zhǔn)則修正隸屬函數(shù)參數(shù),仿真給定的訓(xùn)練數(shù)據(jù)。,具體步驟:,(1)將選取的訓(xùn)練樣本和評(píng)價(jià)樣本分別寫(xiě)入兩

19、個(gè).dat文件。如trainData.dat和checkData,dat作為ANFIS的數(shù)據(jù)源,在ANFIS編輯器中載入這兩個(gè)樣本數(shù)據(jù)。 load trainData.dat load checkData.dat,(2)初始化模糊推理系統(tǒng)FIS的參數(shù),包括選擇輸入的隸屬度函數(shù),利用規(guī)則編輯器生成規(guī)則等等,作為訓(xùn)練初始的FIS。 fismat= genfis1(trainData),fismat

20、= genfis1(data) fismat = genfis1(data,numMFs,inmftype, outmftype),The default number of membership functions, numMFs, is 2; the default input membership function type is 'gbellmf'; and the default output members

21、hip function type is 'linear'.,(3)根據(jù)載入ANFIS編輯器中的訓(xùn)練樣本和評(píng)價(jià)樣本數(shù)據(jù),利用anfis函數(shù)對(duì)已初始化的FIS結(jié)構(gòu)進(jìn)行訓(xùn)練。 [fismat,error,stepsize] = anfis(trnData,fismat,n) 注:fismat是已初始化的FIS結(jié)構(gòu),n為訓(xùn)練次數(shù)。,(4)利用evalfis、plot等函數(shù),對(duì)訓(xùn)練好的模糊神經(jīng) 推理系統(tǒng)進(jìn)行驗(yàn)證

22、。 如 evalfis([x1,x2,…],format); plot(error),例1:設(shè)某水泥廠煤粉制備系統(tǒng)煤磨的輸入輸出特征數(shù)據(jù)見(jiàn)下表。利用表中樣本建立一個(gè)模糊神經(jīng)推理系統(tǒng)。,表:輸入輸出樣本,X1-X5為煤磨機(jī)的特征參數(shù),Y為煤磨機(jī)的狀態(tài)(正?;虍惓#?,(1)將1-9作為訓(xùn)練樣本,10-11作為評(píng)價(jià)樣本。(2)將表中的訓(xùn)練樣本寫(xiě)入trainData.dat,作為ANFIS的數(shù)據(jù)源,并在ANFIS編輯器中載

23、入樣本數(shù)據(jù):load trainData.dat(3)利用ANFIS自動(dòng)生成一個(gè)FIS結(jié)構(gòu)作為初始FIS。 in_format=genfis1(trainData)(4)對(duì)初始FIS(in_format)進(jìn)行訓(xùn)練。對(duì)樣本數(shù)據(jù)訓(xùn)練200次后得到一個(gè)訓(xùn)練好的ANFIS系統(tǒng)。 [format1,error1,stepsize]=anfis(trainData,in_format,200),(5)運(yùn)用評(píng)價(jià)數(shù)據(jù)對(duì)訓(xùn)練好的模糊神經(jīng)系統(tǒng)

24、進(jìn)行驗(yàn)證,觀察仿真結(jié)果。 如input=[58 16 11 793 3302;33 10 11 783 3114], evalfis(input,format1),例2:anfis函數(shù)逼近,函數(shù) 分別在區(qū)間: 進(jìn)行函數(shù)逼近。,,,,[x1,x2]=me

25、shgrid(-1:0.1:1,-1:0.05:1); %將輸入空間劃分為41*21個(gè)網(wǎng)格點(diǎn)y=0.5*(pi*(x1.^2)).*sin(2*pi*x2); %求得函數(shù)輸出值x11=reshape(x1,861,1); %將輸入變量變?yōu)榱邢蛄縳12=reshape(x2,861,1); %將輸入變量變?yōu)榱邢蛄縴1=reshape(y,861,1);

26、 %將輸出變量變?yōu)榱邢蛄縯rnData=[x11(1:2:861) x12(1:2:861) y1(1:2:861)]; %構(gòu)造訓(xùn)練數(shù)據(jù)chkData=[x11 x12 y1]; %構(gòu)造檢驗(yàn)數(shù)據(jù)numMFs=5; %定義隸屬函數(shù)個(gè)數(shù)mfType='gbellmf';epoch_n=20; %定義隸屬函數(shù)類型及訓(xùn)練次數(shù)in_fisMa

27、t=genfis1(trnData,numMFs,mfType); %采用genfis1函數(shù)由訓(xùn)練數(shù)據(jù)直接生成模糊推理系統(tǒng),參考代碼,out_fisMat=anfis(trnData,in_fisMat, epoch_n); %訓(xùn)練模糊系統(tǒng)y11=evalfis(chkData(:,1:2),out_fisMat); %對(duì)訓(xùn)練好的模糊神經(jīng)

28、推理系統(tǒng)進(jìn)行驗(yàn)證x111=reshape(x11,41,21);x112=reshape(x12,41,21);y111=reshape(y11,41,21); %構(gòu)造41*21向量矩陣subplot(221),mesh(x1,x2,y);title('期望輸出');subplot(222),mesh(x111,x112,y111);title('實(shí)際輸出');subplot(223),

29、mesh(x1,x2,(y-y111));title('誤差');[x,mf]=plotmf(in_fisMat,'input',1);[x,mf1]=plotmf(out_fisMat,'input',1);subplot(224),plot(x,mf,'r-',x,mf1,'k--');title('隸屬度函數(shù)變化');,,,訓(xùn)練后

30、的模糊神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖,,,運(yùn)行結(jié)果,也可以:,運(yùn)用ANFIS構(gòu)建模型,首先在打開(kāi)MATLAB,并在命令行中鍵入“anfisedit”,從而打開(kāi)ANFIS編輯器操作界面。,編輯FIS屬性,,,,可以修改輸入變量、輸出變量的個(gè)數(shù)等。,下一步根據(jù)實(shí)際要求定義各個(gè)量的屬性。,“Edit”—“Membership functions”進(jìn)行輸入輸出變量隸屬函數(shù)的定義。,設(shè)置模糊控制規(guī)則庫(kù):“Edit”—“rules”,,,例3:洗衣機(jī)的模糊控制,洗

31、衣機(jī)的主要被控參量為洗滌時(shí)間和水流強(qiáng)度,而影響這一輸出參量的主要因子是被洗物的渾濁程度和渾濁性質(zhì),后者可用渾濁度的變化率來(lái)描述。例如,在洗滌過(guò)程中,油污的渾濁度變化率小,泥污的渾濁度變化率大。渾濁度及其變化率作為控制系統(tǒng)的輸入?yún)⒘浚礈鞎r(shí)間和水流強(qiáng)度作為系統(tǒng)的輸出。洗衣過(guò)程中輸入和輸出很難用一定的數(shù)學(xué)模型進(jìn)行描述,很大程度上依賴操作者的經(jīng)驗(yàn)。利用專家知識(shí)進(jìn)行控制決策,往往容易實(shí)現(xiàn)優(yōu)化控制。,確定洗滌時(shí)間的模糊推理框圖,輸入量為水的渾

32、濁度及其變化率,輸出量為洗滌時(shí)間。,渾濁度語(yǔ)言值取{很清、清、較清、中、較濁、濁、很濁}渾濁度變化率語(yǔ)言值取{很小、小、較小、零、較大、大、很大}洗滌時(shí)間……,描述輸入、輸出變量都具有模糊性,轉(zhuǎn)換為模糊集合的隸屬函數(shù)問(wèn)題。,建立隸屬函數(shù),確定模糊集合。根據(jù)專家經(jīng)驗(yàn),針對(duì)洗滌時(shí)間得到16條模糊規(guī)則,根據(jù)模糊規(guī)則,構(gòu)建網(wǎng)絡(luò)訓(xùn)練樣本,進(jìn)行網(wǎng)絡(luò)訓(xùn)練。 比如:渾濁度 清,變化率 零,洗滌時(shí)間 短 渾濁度

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論