“物倫理學”視閾下機器人的倫理設計_第1頁
已閱讀1頁,還剩12頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、<p>  “物倫理學”視閾下機器人的倫理設計</p><p>  [摘要]自治型機器人作為高科技時代的產(chǎn)物已退步走進人類世界,人們在與機器人互動的過程中會產(chǎn)生諸多倫理問題和安全問題?!拔飩惱韺W”是當前哲學研究中“物轉向”在倫理學領域內的映射,這要求我們關注物的倫理性,對智能機器人這種物行為體納入責任環(huán)中進行道德責任的考量,在人體安全、安全關鍵系統(tǒng)的調節(jié)機制、工程師、安全文化和高可靠性組織(HRO)等諸

2、多方面進行倫理設計,以期在機器人倫理學的框架內把物行為體善建為“理想人”。 </p><p>  [關鍵詞]機器人 物倫理學 自治行為體 倫理設計 責任環(huán) </p><p> ?。ㄖ袌D分類號]B82-057 [文獻標識碼]A [文章編號]1007-1539(2013)03-0133-06 </p><p>  隨著新興科技的出現(xiàn)及其機械化程度的提升,智能化、自治型機

3、器人開始走進了我們的生活視野。面對機器人行業(yè)的出現(xiàn)與發(fā)展,計算機行業(yè)的重要締造者比爾·蓋茨給出了鮮明的洞見:“機器人行業(yè)的出現(xiàn)……正如30年前計算機行業(yè)一樣正在蓬勃發(fā)展?!彼帧澳柖伞辈孕旁诓痪玫膶恚瑱C器人的飛速發(fā)展將會達到和當今計算機一樣的普及程度。然而,另一方面,“機器人在可預見的未來將面臨人類道德的拷問,也面臨擔負著人類道德和法律的責任”。美國著名計算機倫理學家詹姆斯·摩爾以及黛博拉·約翰遜

4、也警醒世人關注機器人倫理學。呼吁為未來機器人奠定道德性根基。 </p><p>  “物倫理學”是當前哲學研究中“物轉向”在倫理學領域內的映射,是當前哲學研究中的一個重要動向。在“物倫理學”的轉向下,對自治型機器人進行倫理考量是高科技時代人類需要持有的責任倫理,是前瞻性倫理原則和關護性倫理學的題中要義。我們把機器人這樣的人工物看作道德主體,并在社會技術系統(tǒng)中進行道德分配的基礎上,以“嵌入”道德的方式(即實行“物倫

5、理”)對機器人進行倫理設計,消弭機器人的安全問題,以期機器人在“需求工程”的大框架中表現(xiàn)為一個道德完備的人工物行為體。 </p><p>  一、機器人倫理設計的必要性 </p><p>  機器人作為智能行為體是新興技術中最具前沿和發(fā)展空間的技術之一。然而,歷史經(jīng)驗證明,缺乏道德性的高智能機器很可能變得肆無忌憚,具有破壞性。因此,智能機器必須加入倫理因素的考量,對其進行倫理規(guī)制。 <

6、;/p><p>  (一)人與機器人的交互與合作 </p><p>  高智能機器人能夠由自然語言控制。安裝在夾具上的攝像機可以模擬人的視力功能,驅動器為機器人的行動提供足夠的動力,機械手臂也顯得越來越靈活。然而,最為重要的是,機器人可以通過傳感器的輸入和用戶的語音命令與周圍環(huán)境進行交互,并能保持對周圍環(huán)境的實時反饋。對于人類來說,兼具理性并能夠與人類進行交談的機器人是全新的挑戰(zhàn),尤其對于具有

7、靈活移動能力并能自由行進的機器人更是如此,例如具有代表性的日本“阿西莫(ASIMO)”和美國“漢森(Hanson)”機器人就已經(jīng)具備了面部情緒表達的類人型功能,表現(xiàn)出與人類進行全面交互的獨特能力。 </p><p>  智能機器人具有復雜的“人一機交互”的性質,交互的雙方可以是人類,也可以是機器人,人與機器之間的物理邊界變得模糊并逐漸融合。專家機器人可能在一個群體組織中擔任領導的角色,它可以基于數(shù)據(jù)庫里有效的知識

8、提出最佳解決方案。除此之外,機器人可以快速運行復雜的邏輯計算,并作出最優(yōu)化的決策。不但人與機器存在著交互,而且機器人之間也可以形成交互,比人類更有效率地從數(shù)據(jù)庫中汲取信息。 </p><p> ?。ǘ靶枨蠊こ獭敝械臋C器人倫理責任 </p><p>  機器人設計師對機器人的功能和行為負有特殊責任。對我們來說,在“需求工程”的核心活動中的特殊利益就在于分析、討論和引導確保機器人的倫理需求

9、的設計?!靶枨蠊こ獭奔仁且粋€宏觀層面上的組織活動(判定產(chǎn)品中需要嵌入什么樣的需求),又是一個微觀層面上關于最終需求的項目活動。因此,我們要把主要觀點放在“需求工程”的整體特征上,將目光聚焦在宏觀層面的需求上,構建具有倫理設計的智能化自治型機器人。 </p><p>  然而,不少學者也提出了不同的意見,他們擔心在構建人工物的道德特征上可能造成人類逃避責任。如提出“物倫理學”的荷蘭學者維爾貝克(Verbeek)強調

10、:“工程倫理大多聚焦于設計者的責任和道德決策,其余的則擴展到技術本身的意義方面。然而,這些關于非中性技術的分析使得工程倫理把一些道德歸咎于人工物就不免顯得有些牽強了?!彼J為除了設計之外,能夠實現(xiàn)其應用價值也是定義人工物的一個重要方面。維爾貝克的重點在于闡明為什么要對機器人進行倫理設計,并且不能對設計師、制造商和其他利益相關者進行責任豁免。 </p><p>  瑞典馬蘭德蘭大學(Mlardalen Univer

11、sity)的G.道濟格·森科威克(Gordana Dodig Crnkovic)教授和皮爾森(Persson)教授也提出了類似的觀點:“社會技術系統(tǒng)要求把道德責任看作是一個道德分配網(wǎng)絡,對具有道德意義的工作任務必須要被視為道德責任,即使行為主體是一臺智能機器也應具有道德責任?!?</p><p> ?。ㄈC器人的安全問題 </p><p>  自20世紀50年代工業(yè)機器人出現(xiàn)以

12、來,機器人就已經(jīng)成為各生產(chǎn)工序中的一個重要部分從而走進了我們的生活,并深刻改變著我們的生存世界。在電子領域,計算機科學和機電一體化的發(fā)展使這些智能工具更加完善,能力也得到了增強,這也使得其在非工業(yè)領域的應用得到了飛速發(fā)展。我們可以想象,在不久的將來,從娛樂行業(yè)到醫(yī)療行業(yè),從私人住宅到公共場所,都將遍布著各式機器的身影,甚至我們的環(huán)境也會受到周圍電子設備的影響而變得兼具智能性和適應性,并能與人類進行良好的溝通。 </p>&

13、lt;p>  安全問題是所有新技術相關事務中最為重要的問題。我們需要明確的是,無論是工業(yè)機器人還是社會機器人的發(fā)展,它們都對人類的安全構成了挑戰(zhàn),這種境況具有長期性和艱巨性。為了解決該問題,在工業(yè)機器人領域中,制造商、終端用戶以及其他涉眾已經(jīng)起草和頒布了一系列相關安全準則與法規(guī),例如,韓國信息通訊部在2008年頒布的《機器人道德憲章》,日本頒布了《下一代機器人安全問題指導方針(草案)》等。   然而,在安全問題的解決機制上,我們

14、僅僅把機器人在工業(yè)應用領域的經(jīng)驗直接拿來解決非工業(yè)領域的問題是不恰當?shù)摹F湓蛟谟?,雖然當今工業(yè)機器人領域經(jīng)歷了一次重大變革,人們可以把工業(yè)機器人禁錮在柵欄內,以防其與人過近接觸而引發(fā)安全問題,但是在將來,智能機器人將變得能夠自由移動,并能夠與人類密切交互。這些新情況將給機器人的安全問題帶來新的挑戰(zhàn)。 </p><p>  二、物倫理學對人工智能的適用性 </p><p>  G.道濟格&

15、#183;森科威克(G.Dodig Crnkovic)和皮爾森(Persson)都強調了人工智能和人工道德的相似性:“人工智能被定義為一種人工物行為體能夠完成傳統(tǒng)上只有人類智能才能完成的任務過程中所具有的一種能力;人工道德被定義為一個人工物行為體按照人類道德的標準進行行為時所表現(xiàn)出的一種能力?!庇纱?,我們得知,雖然人工智能和人類智能不屬于同一現(xiàn)象,但它們都能夠產(chǎn)生相同的特定行為。隨著人工物變得越來越智能化和自治化,我們期望它們能夠遵守我

16、們人類的價值體系和道德規(guī)范。 </p><p>  與經(jīng)典道德責任理論相比,“物倫理學”是一種實用道德責任。從宏觀層面上看,像智能機器人這種物行為體在社會技術系統(tǒng)中也擔負著巨大責任,這是大科技時代中倫理責任的題中要義。因此,這就要求我們在物倫理框架內尋求對人工物的行為規(guī)制。 </p><p> ?。ㄒ唬┪镄袨轶w在社會技術系統(tǒng)中擔負的責任 </p><p>  有關技

17、術產(chǎn)品系統(tǒng)的責任問題必須把設計者、制造商、用戶以及技術產(chǎn)品自身都考慮在內。人類行為體可以通過工程和操作指令影響物行為體的道德,然而,作為在社會技術系統(tǒng)中的人工物也可以限制和影響人類。盡管如此,人類和技術之間的關系研究直到現(xiàn)在還一直強調從研發(fā)環(huán)節(jié)上對設計師和制造商進行倫理規(guī)制。然而,當我們看到全球社會技術系統(tǒng)的巨大進展時,我們應該認識到,應把物行為體納入到整個社會技術系統(tǒng)中進行倫理考量。 </p><p>  人工

18、智能的生產(chǎn)和使用增加了社會技術系統(tǒng)的復雜性。甚至當今機器人也被當作一種智能化自治工具而被賦予倫理功能。然而,技術不是價值中立的,對于有道德相關性的任務來說是具有責任的,這些應當通過“功能性道德責任”(通過對物行為體進行功能結構的設計進而使其擔負倫理責任)來完成。這正如美國印第安納大學科學哲學與歷史系的科林·艾倫(Colin Alien)教授所指出的那樣:“無論人工物的道德是否具有真正的道德,人工產(chǎn)品的行為都會產(chǎn)生道德后果。這不

19、能簡單地說他們可能導致傷害,相反地,我們需要明確這樣的事實,人工物所引發(fā)的危害可以通過行為體自身進行調節(jié)和規(guī)制。” </p><p>  首先,經(jīng)典道德責任——道德責任是一種個人責任。道德責任是主體倫理行為中最重要的內容。道德責任的兩種主要方法是經(jīng)典道德責任方法和實踐道德責任方法,其中經(jīng)典道德責任認為機器不肩負責任,而實踐道德責任則認為人工智能機器依據(jù)其智能程度而具有不同的功能性責任。 </p>&

20、lt;p>  美國斯坦福大學的埃謝爾曼(Eshleman.A)、索諾馬州立大學的蘇林斯(SulHns)和芬蘭奧陸大學的西坡恩(Siponen)都反對把道德責任歸咎于人工智能系統(tǒng),他們認為對人工智能系統(tǒng)的贊揚或責備就像對一個物行為體一樣都是無意義的。美國著名文化傳播學者尼森鮑姆(Nissenbaum)認為,判定一個行為體是否對一個行為具有道德負責,通常要考慮兩個方面:“因果責任”和“精神狀態(tài)”。一般認為,只有人類才被認為具有道德行為

21、能力。人類行動能力的基礎是“意向(intention)”,因為“意向性”賦予了人們能夠從錯誤的事物中進行學習的能力,這被視為人類特有的能力。 </p><p>  同樣地,信息哲學家盧西亞諾·弗洛里迪(Luciano Floridi)也反對把道德責任歸于人工智能系統(tǒng),他認為人工智能系統(tǒng)不具有“意向性”這樣的精神因素。然而事實上,即使對于人類來說,意向性也只是建立在被觀察對象的行為表現(xiàn)的基礎上,因為我們無

22、法完全洞悉人類大腦的內部運作。 </p><p>  以上觀點主要出于人工智能主體是一個孤立實體的觀點。然而,為更好地解答這個道德責任問題,我們必須把智能行為體看作是一個“社會技術組織”系統(tǒng)的一部分。從該維度講,責任在這樣一個復雜的系統(tǒng)中是分配式的和網(wǎng)絡式的,智能機器在一定程度上肩負著重要的角色。 </p><p>  總之,人工智能技術正飛速發(fā)展,具有自治型的智能行為體將會變得更加先進,

23、以至于我們把機器人劃為具有“意向性”精神狀態(tài)的物將不成問題,因此,對于人工智能機器來說,兼具因果責任和意向性的“精神狀態(tài)”也都將會實現(xiàn)。 </p><p>  其次,實用道德責任——道德責任是一種系統(tǒng)責任。“意向性”問題和行為體的自由意志都很難解決工程科學中出現(xiàn)的實際情況,例如關于自治型機器人的具體開發(fā)和使用就是明證。對此,美國斯塔夫大學哲學系教授丹尼特(Daniel C.Dennett)認為,我們不能僅僅把道德

24、責任理解為一種個人責任,而是要把其看作一組“外在主義實用準則”。我們應該采用這種更接近于機器人應用程序的實用方法。 </p><p>  對此,科林·艾倫(Colin Allen)引入“工具性方法(Instrumental approach)”:把道德責任看作是一個系統(tǒng)責任、一種社會調節(jié)機制,其旨在增強人們認為是善的行為,減少惡的行為。因此,對于一個能行使任務并能自行評估其后果的行為體來說是肩負責任的。

25、他認為,當成熟的道德行為者可能超越當今和未來的技術時,我們采用“工具性方法”,然而,在適用性道德和“真正的(genuine)”道德行為體之間還存有很大的空間。這就是我們確定為“功能性道德”的利基。美國羅格斯大學的阿薩羅同樣認為,我們把機器人看作是一種社會技術系統(tǒng),隨著機器人表現(xiàn)出越來越復雜的行為時,它們將被賦予更大的道德權限,這就要全面考察機器人的道德責任問題。 </p><p>  綜上所述,道德責任是行為體的

26、行為方式,這就要求行為體應遵循可接受性的道德準則。這些可接受性的道德準則影響著行為體在分配責任中的行為表現(xiàn)。 </p><p> ?。ǘ┪飩惱韺W對機器人行為進行規(guī)制   物倫理學和人工智能兩者是一種平行關系。倫理規(guī)范對于特定的人工物行為體類型來說也是特定的。當然,這并不是說豁免工程師的道德責任,相反地,根據(jù)預防原則(相當于約納斯的“關護倫理”和“責任倫理”),工程師被期望在道德上可以對物行為體進行倫理設計。

27、</p><p>  我們認為,包括自治型智能機器人在內的社會技術系統(tǒng)的道德責任,應該遵循實用主義的路徑,把其當作一個調節(jié)機制來看待。出于實用的目的,自治型智能系統(tǒng)和“高可靠性組織”(HRO)一樣,都面臨著在復雜性風險下安全運行的境況,因此,應把責任問題納入到一個整體責任環(huán)中進行倫理探討,用物倫理學對機器人行為進行規(guī)制進而解決相關安全問題和倫理問題。 </p><p>  三、機器人倫理學

28、在責任環(huán)中的設計 </p><p>  共同擔責的復雜系統(tǒng)應該保證“人機”混合組織的安全性。因此,必須把具有自治型人工智能物的發(fā)展納入到一個責任環(huán)中進行倫理設計。這為設計師、制造商、用戶處理問題奠定了思想基礎,為其后果評估和技術的使用提供了一個解決途徑。 </p><p> ?。ㄒ唬┽槍θ梭w安全的倫理設計 </p><p>  人身安全是人類與人工智能機器的交互中必

29、須考量的重要問題之一。這主要表現(xiàn)為兩個方面:一方面,指有利于增強人類安全度的機器人,主要包括在危險環(huán)境中的作業(yè)機器人和救援機器人等;另一方面,指具有承受強大負荷能力的機器人,主要包括需要大幅度移動并可能對人類造成身體傷害的機器人。 </p><p>  可能出現(xiàn)安全問題的環(huán)節(jié)包括人機協(xié)作、機器人與機器人的交互等方面。針對這些安全問題,通常采用安全標準來對人工智能物進行安全問題的規(guī)制。例如,美國新頒布的“工業(yè)機器人

30、安全運行標準”(ANSI/RIA/1S010218-1:2007)就是為了規(guī)制新興機器人技術的安全問題。該標準的制訂和頒布對于諸如軟件機器人、認知機器人和其他人工機器來說,都是極其必要的。 </p><p> ?。ǘ┌踩P鍵系統(tǒng)的調節(jié)機制設計 </p><p>  面對高新科學技術的發(fā)展,人們應該對可能產(chǎn)生社會不利影響的智能系統(tǒng)保持審慎的態(tài)度。對此,我們應像對待其他技術的發(fā)展一樣,對人工

31、智能技術的發(fā)展采取“預防原則”。根據(jù)預防原則,我們能合理預見其發(fā)展趨勢及道德后果。 </p><p>  審視人工智能的實際應用方面,大家最為關注的是安全關鍵系統(tǒng)問題。在航空航天、交通和醫(yī)療等“安全關鍵系統(tǒng)”的經(jīng)驗基礎上,不同等級的組織通常都需要做好應對各種事故的準備。有人認為,支持它們功能的社會技術結構是由預防和減少故障的安全屏障所組成的。這正道出了安全關鍵系統(tǒng)中的倫理設計問題的核心:要確保系統(tǒng)能夠正常安全運行

32、,就必須通過減少反常和意外事故來進行補充。 </p><p>  宏觀層面的安全保障必須考慮技術、管理、使用和影響等多個層面的問題。對于工程師來說,真正倫理方面的憂慮則是風險識別與評估,以及安全保障問題。 </p><p>  (三)工程師的道德設計 </p><p>  從以上提到的經(jīng)典道德責任和實踐道德責任的分歧可以看出,對于物行為體是否具有道德意蘊的問題,許多

33、學者存在著正反兩方面的觀點。然而,我們在宏觀層面上可以把該問題看作是“需求工程”問題。我們關注的焦點是道德責任的肩負主體問題,具體來說也就是自治型人工產(chǎn)品的出現(xiàn)可能導致人類把全部責任推卸給機器人的問題。 </p><p>  因此,調動工程師關注智能(計算機)人工產(chǎn)品則顯得尤為重要。美國伊利諾伊大學計算機科學系的凱思·W.米勒(Keith W.Miller)教授率先發(fā)起了“計算機相關人工產(chǎn)品道德責任的規(guī)

34、則”的討論。他“重申了對(計算機)人工物產(chǎn)品保有道德責任的重要性,并警醒每個人和科研機構在生產(chǎn)和使用(計算機)人工物產(chǎn)品時都要牢記自己所肩負的責任”。此外,凱思·W.米勒還組成了一個“國際責任計算機特設委員會”,該委員會由50名專家組成。在該委員會制訂的27條現(xiàn)行草案中總共提出了五個規(guī)則,其中的首要規(guī)則就是:“從事設計、開發(fā)計算機人工智能產(chǎn)品的人們都對其肩負道義上的責任,都對人工智能產(chǎn)品的社會效應肩負責任。該責任應該與其他從事

35、于設計、開發(fā)以及專門從事于把人工智能產(chǎn)品當做社會技術系統(tǒng)一部分來使用的人們共同擔負?!?</p><p> ?。ㄋ模┌踩幕透呖煽啃越M織(HR())的設計 </p><p>  機器人安全是機器人倫理設計的一個最基本的問題。根據(jù)安全性要求,可靠性(reliability)是最重要的行為考量準則。安全設計是指鼓勵產(chǎn)品設計師在開發(fā)過程中“設計出”既健康又能規(guī)避安全風險的一個概念。安全設計大致

36、分為兩條防線:“第一條防線”在于構建安全風險中恰當?shù)墓こ探鉀Q方案;“第二條防線”作為“第一條防線”的補充,是一種旨在減少各種風險的安全文化(主要包括管理程序、防護措施等)?!皟蓷l防線”相結合可以培養(yǎng)一個人預知安全威脅和建立預防措施的能力。 </p><p>  安全文化是一種調控機制,旨在社會技術系統(tǒng)中建立一個高可靠性安全機制。此外,安全文化也可以看作是管理層和員工共同承諾并進行實施的一系列安全保障活動。因此,安

37、全文化的基礎是高效、開放和透明的溝通,它在承認安全風險存在的前提下,主動發(fā)現(xiàn)和消除潛在的危險和隱患。“要建立安全文化,組織就必須從錯誤中不斷改正。一種安全文化應意識到錯誤的存在,安全文化作為企業(yè)的一部分,應該以一種非懲罰性方式來規(guī)制錯誤行為?!?</p><p>  自治型機器人作為計算機的一種應用拓展,被廣泛用于諸多復雜性、高危性組織部門中,在高可靠性組織(HRO)中具有重要性地位。因此,保障高可靠性組織(HR

38、O)的安全設計和倫理設計是解決機器人在責任環(huán)中設計的重要內容和環(huán)節(jié)。 </p><p>  總之,在當前情況下,我們需知確保系統(tǒng)的安全性才是最重要的目的,這就要求高可靠性組織(HR())通過不斷學習和改進組織行為程序來實現(xiàn)?!鞍踩O計”既是安全文化的主要內容,也是預防原則的題中要義。它對于一切新技術的出現(xiàn)都保有一種前攝性態(tài)度,這為我們在宏觀層面上探討道德機器人的“需求工程”提供了有益的借鑒。 </p>

39、<p><b>  結語 </b></p><p>  “在科技哲學中,物轉向意味著其擺脫先驗研究路向,關注經(jīng)驗研究;在科技倫理學中,物轉向意味著其擺脫人類中心主義,關注物的倫理性?!币虼?,機器人倫理學的勃興可以看做是哲學中的物轉向在科技倫理中的回應。為了確保物行為體的行為具有道德性,我們需要對機器人進行倫理設計。物倫理是人工智能技術發(fā)展的道德性要求,兩者是相互依存、并行不悖的

40、:人工智能的發(fā)展需要倫理設計和道德規(guī)制,同樣只有物倫理的植入才能保證人工物融入人類社會。 </p><p>  當然,由于科技的進步,技術應用所引發(fā)的新現(xiàn)象和新問題將會層出不窮。在“需求工程”框架下對機器人進行倫理設計的思想可能不會立即實現(xiàn),我們也不能一勞永逸地完成機器人的倫理設計,這需要我們作出長期的努力并逐步地完善。正所謂“路漫漫其修遠兮”,我們期望未來的機器人行為體兼具“理想人”一樣的道德品質,期望機器人的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論