版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、<p> “物倫理學(xué)”視閾下機(jī)器人的倫理設(shè)計(jì)</p><p> [摘要]自治型機(jī)器人作為高科技時(shí)代的產(chǎn)物已退步走進(jìn)人類世界,人們?cè)谂c機(jī)器人互動(dòng)的過(guò)程中會(huì)產(chǎn)生諸多倫理問(wèn)題和安全問(wèn)題?!拔飩惱韺W(xué)”是當(dāng)前哲學(xué)研究中“物轉(zhuǎn)向”在倫理學(xué)領(lǐng)域內(nèi)的映射,這要求我們關(guān)注物的倫理性,對(duì)智能機(jī)器人這種物行為體納入責(zé)任環(huán)中進(jìn)行道德責(zé)任的考量,在人體安全、安全關(guān)鍵系統(tǒng)的調(diào)節(jié)機(jī)制、工程師、安全文化和高可靠性組織(HRO)等諸
2、多方面進(jìn)行倫理設(shè)計(jì),以期在機(jī)器人倫理學(xué)的框架內(nèi)把物行為體善建為“理想人”。 </p><p> [關(guān)鍵詞]機(jī)器人 物倫理學(xué) 自治行為體 倫理設(shè)計(jì) 責(zé)任環(huán) </p><p> ?。ㄖ袌D分類號(hào)]B82-057 [文獻(xiàn)標(biāo)識(shí)碼]A [文章編號(hào)]1007-1539(2013)03-0133-06 </p><p> 隨著新興科技的出現(xiàn)及其機(jī)械化程度的提升,智能化、自治型機(jī)
3、器人開(kāi)始走進(jìn)了我們的生活視野。面對(duì)機(jī)器人行業(yè)的出現(xiàn)與發(fā)展,計(jì)算機(jī)行業(yè)的重要締造者比爾·蓋茨給出了鮮明的洞見(jiàn):“機(jī)器人行業(yè)的出現(xiàn)……正如30年前計(jì)算機(jī)行業(yè)一樣正在蓬勃發(fā)展?!彼帧澳柖伞辈?jiān)信在不久的將來(lái),機(jī)器人的飛速發(fā)展將會(huì)達(dá)到和當(dāng)今計(jì)算機(jī)一樣的普及程度。然而,另一方面,“機(jī)器人在可預(yù)見(jiàn)的未來(lái)將面臨人類道德的拷問(wèn),也面臨擔(dān)負(fù)著人類道德和法律的責(zé)任”。美國(guó)著名計(jì)算機(jī)倫理學(xué)家詹姆斯·摩爾以及黛博拉·約翰遜
4、也警醒世人關(guān)注機(jī)器人倫理學(xué)。呼吁為未來(lái)機(jī)器人奠定道德性根基。 </p><p> “物倫理學(xué)”是當(dāng)前哲學(xué)研究中“物轉(zhuǎn)向”在倫理學(xué)領(lǐng)域內(nèi)的映射,是當(dāng)前哲學(xué)研究中的一個(gè)重要?jiǎng)酉?。在“物倫理學(xué)”的轉(zhuǎn)向下,對(duì)自治型機(jī)器人進(jìn)行倫理考量是高科技時(shí)代人類需要持有的責(zé)任倫理,是前瞻性倫理原則和關(guān)護(hù)性倫理學(xué)的題中要義。我們把機(jī)器人這樣的人工物看作道德主體,并在社會(huì)技術(shù)系統(tǒng)中進(jìn)行道德分配的基礎(chǔ)上,以“嵌入”道德的方式(即實(shí)行“物倫
5、理”)對(duì)機(jī)器人進(jìn)行倫理設(shè)計(jì),消弭機(jī)器人的安全問(wèn)題,以期機(jī)器人在“需求工程”的大框架中表現(xiàn)為一個(gè)道德完備的人工物行為體。 </p><p> 一、機(jī)器人倫理設(shè)計(jì)的必要性 </p><p> 機(jī)器人作為智能行為體是新興技術(shù)中最具前沿和發(fā)展空間的技術(shù)之一。然而,歷史經(jīng)驗(yàn)證明,缺乏道德性的高智能機(jī)器很可能變得肆無(wú)忌憚,具有破壞性。因此,智能機(jī)器必須加入倫理因素的考量,對(duì)其進(jìn)行倫理規(guī)制。 <
6、;/p><p> (一)人與機(jī)器人的交互與合作 </p><p> 高智能機(jī)器人能夠由自然語(yǔ)言控制。安裝在夾具上的攝像機(jī)可以模擬人的視力功能,驅(qū)動(dòng)器為機(jī)器人的行動(dòng)提供足夠的動(dòng)力,機(jī)械手臂也顯得越來(lái)越靈活。然而,最為重要的是,機(jī)器人可以通過(guò)傳感器的輸入和用戶的語(yǔ)音命令與周圍環(huán)境進(jìn)行交互,并能保持對(duì)周圍環(huán)境的實(shí)時(shí)反饋。對(duì)于人類來(lái)說(shuō),兼具理性并能夠與人類進(jìn)行交談的機(jī)器人是全新的挑戰(zhàn),尤其對(duì)于具有
7、靈活移動(dòng)能力并能自由行進(jìn)的機(jī)器人更是如此,例如具有代表性的日本“阿西莫(ASIMO)”和美國(guó)“漢森(Hanson)”機(jī)器人就已經(jīng)具備了面部情緒表達(dá)的類人型功能,表現(xiàn)出與人類進(jìn)行全面交互的獨(dú)特能力。 </p><p> 智能機(jī)器人具有復(fù)雜的“人一機(jī)交互”的性質(zhì),交互的雙方可以是人類,也可以是機(jī)器人,人與機(jī)器之間的物理邊界變得模糊并逐漸融合。專家機(jī)器人可能在一個(gè)群體組織中擔(dān)任領(lǐng)導(dǎo)的角色,它可以基于數(shù)據(jù)庫(kù)里有效的知識(shí)
8、提出最佳解決方案。除此之外,機(jī)器人可以快速運(yùn)行復(fù)雜的邏輯計(jì)算,并作出最優(yōu)化的決策。不但人與機(jī)器存在著交互,而且機(jī)器人之間也可以形成交互,比人類更有效率地從數(shù)據(jù)庫(kù)中汲取信息。 </p><p> (二)“需求工程”中的機(jī)器人倫理責(zé)任 </p><p> 機(jī)器人設(shè)計(jì)師對(duì)機(jī)器人的功能和行為負(fù)有特殊責(zé)任。對(duì)我們來(lái)說(shuō),在“需求工程”的核心活動(dòng)中的特殊利益就在于分析、討論和引導(dǎo)確保機(jī)器人的倫理需求
9、的設(shè)計(jì)?!靶枨蠊こ獭奔仁且粋€(gè)宏觀層面上的組織活動(dòng)(判定產(chǎn)品中需要嵌入什么樣的需求),又是一個(gè)微觀層面上關(guān)于最終需求的項(xiàng)目活動(dòng)。因此,我們要把主要觀點(diǎn)放在“需求工程”的整體特征上,將目光聚焦在宏觀層面的需求上,構(gòu)建具有倫理設(shè)計(jì)的智能化自治型機(jī)器人。 </p><p> 然而,不少學(xué)者也提出了不同的意見(jiàn),他們擔(dān)心在構(gòu)建人工物的道德特征上可能造成人類逃避責(zé)任。如提出“物倫理學(xué)”的荷蘭學(xué)者維爾貝克(Verbeek)強(qiáng)調(diào)
10、:“工程倫理大多聚焦于設(shè)計(jì)者的責(zé)任和道德決策,其余的則擴(kuò)展到技術(shù)本身的意義方面。然而,這些關(guān)于非中性技術(shù)的分析使得工程倫理把一些道德歸咎于人工物就不免顯得有些牽強(qiáng)了。”他認(rèn)為除了設(shè)計(jì)之外,能夠?qū)崿F(xiàn)其應(yīng)用價(jià)值也是定義人工物的一個(gè)重要方面。維爾貝克的重點(diǎn)在于闡明為什么要對(duì)機(jī)器人進(jìn)行倫理設(shè)計(jì),并且不能對(duì)設(shè)計(jì)師、制造商和其他利益相關(guān)者進(jìn)行責(zé)任豁免。 </p><p> 瑞典馬蘭德蘭大學(xué)(Mlardalen Univer
11、sity)的G.道濟(jì)格·森科威克(Gordana Dodig Crnkovic)教授和皮爾森(Persson)教授也提出了類似的觀點(diǎn):“社會(huì)技術(shù)系統(tǒng)要求把道德責(zé)任看作是一個(gè)道德分配網(wǎng)絡(luò),對(duì)具有道德意義的工作任務(wù)必須要被視為道德責(zé)任,即使行為主體是一臺(tái)智能機(jī)器也應(yīng)具有道德責(zé)任。” </p><p> ?。ㄈC(jī)器人的安全問(wèn)題 </p><p> 自20世紀(jì)50年代工業(yè)機(jī)器人出現(xiàn)以
12、來(lái),機(jī)器人就已經(jīng)成為各生產(chǎn)工序中的一個(gè)重要部分從而走進(jìn)了我們的生活,并深刻改變著我們的生存世界。在電子領(lǐng)域,計(jì)算機(jī)科學(xué)和機(jī)電一體化的發(fā)展使這些智能工具更加完善,能力也得到了增強(qiáng),這也使得其在非工業(yè)領(lǐng)域的應(yīng)用得到了飛速發(fā)展。我們可以想象,在不久的將來(lái),從娛樂(lè)行業(yè)到醫(yī)療行業(yè),從私人住宅到公共場(chǎng)所,都將遍布著各式機(jī)器的身影,甚至我們的環(huán)境也會(huì)受到周圍電子設(shè)備的影響而變得兼具智能性和適應(yīng)性,并能與人類進(jìn)行良好的溝通。 </p>&
13、lt;p> 安全問(wèn)題是所有新技術(shù)相關(guān)事務(wù)中最為重要的問(wèn)題。我們需要明確的是,無(wú)論是工業(yè)機(jī)器人還是社會(huì)機(jī)器人的發(fā)展,它們都對(duì)人類的安全構(gòu)成了挑戰(zhàn),這種境況具有長(zhǎng)期性和艱巨性。為了解決該問(wèn)題,在工業(yè)機(jī)器人領(lǐng)域中,制造商、終端用戶以及其他涉眾已經(jīng)起草和頒布了一系列相關(guān)安全準(zhǔn)則與法規(guī),例如,韓國(guó)信息通訊部在2008年頒布的《機(jī)器人道德憲章》,日本頒布了《下一代機(jī)器人安全問(wèn)題指導(dǎo)方針(草案)》等。 然而,在安全問(wèn)題的解決機(jī)制上,我們
14、僅僅把機(jī)器人在工業(yè)應(yīng)用領(lǐng)域的經(jīng)驗(yàn)直接拿來(lái)解決非工業(yè)領(lǐng)域的問(wèn)題是不恰當(dāng)?shù)?。其原因在于,雖然當(dāng)今工業(yè)機(jī)器人領(lǐng)域經(jīng)歷了一次重大變革,人們可以把工業(yè)機(jī)器人禁錮在柵欄內(nèi),以防其與人過(guò)近接觸而引發(fā)安全問(wèn)題,但是在將來(lái),智能機(jī)器人將變得能夠自由移動(dòng),并能夠與人類密切交互。這些新情況將給機(jī)器人的安全問(wèn)題帶來(lái)新的挑戰(zhàn)。 </p><p> 二、物倫理學(xué)對(duì)人工智能的適用性 </p><p> G.道濟(jì)格&
15、#183;森科威克(G.Dodig Crnkovic)和皮爾森(Persson)都強(qiáng)調(diào)了人工智能和人工道德的相似性:“人工智能被定義為一種人工物行為體能夠完成傳統(tǒng)上只有人類智能才能完成的任務(wù)過(guò)程中所具有的一種能力;人工道德被定義為一個(gè)人工物行為體按照人類道德的標(biāo)準(zhǔn)進(jìn)行行為時(shí)所表現(xiàn)出的一種能力?!庇纱?,我們得知,雖然人工智能和人類智能不屬于同一現(xiàn)象,但它們都能夠產(chǎn)生相同的特定行為。隨著人工物變得越來(lái)越智能化和自治化,我們期望它們能夠遵守我
16、們?nèi)祟惖膬r(jià)值體系和道德規(guī)范。 </p><p> 與經(jīng)典道德責(zé)任理論相比,“物倫理學(xué)”是一種實(shí)用道德責(zé)任。從宏觀層面上看,像智能機(jī)器人這種物行為體在社會(huì)技術(shù)系統(tǒng)中也擔(dān)負(fù)著巨大責(zé)任,這是大科技時(shí)代中倫理責(zé)任的題中要義。因此,這就要求我們?cè)谖飩惱砜蚣軆?nèi)尋求對(duì)人工物的行為規(guī)制。 </p><p> ?。ㄒ唬┪镄袨轶w在社會(huì)技術(shù)系統(tǒng)中擔(dān)負(fù)的責(zé)任 </p><p> 有關(guān)技
17、術(shù)產(chǎn)品系統(tǒng)的責(zé)任問(wèn)題必須把設(shè)計(jì)者、制造商、用戶以及技術(shù)產(chǎn)品自身都考慮在內(nèi)。人類行為體可以通過(guò)工程和操作指令影響物行為體的道德,然而,作為在社會(huì)技術(shù)系統(tǒng)中的人工物也可以限制和影響人類。盡管如此,人類和技術(shù)之間的關(guān)系研究直到現(xiàn)在還一直強(qiáng)調(diào)從研發(fā)環(huán)節(jié)上對(duì)設(shè)計(jì)師和制造商進(jìn)行倫理規(guī)制。然而,當(dāng)我們看到全球社會(huì)技術(shù)系統(tǒng)的巨大進(jìn)展時(shí),我們應(yīng)該認(rèn)識(shí)到,應(yīng)把物行為體納入到整個(gè)社會(huì)技術(shù)系統(tǒng)中進(jìn)行倫理考量。 </p><p> 人工
18、智能的生產(chǎn)和使用增加了社會(huì)技術(shù)系統(tǒng)的復(fù)雜性。甚至當(dāng)今機(jī)器人也被當(dāng)作一種智能化自治工具而被賦予倫理功能。然而,技術(shù)不是價(jià)值中立的,對(duì)于有道德相關(guān)性的任務(wù)來(lái)說(shuō)是具有責(zé)任的,這些應(yīng)當(dāng)通過(guò)“功能性道德責(zé)任”(通過(guò)對(duì)物行為體進(jìn)行功能結(jié)構(gòu)的設(shè)計(jì)進(jìn)而使其擔(dān)負(fù)倫理責(zé)任)來(lái)完成。這正如美國(guó)印第安納大學(xué)科學(xué)哲學(xué)與歷史系的科林·艾倫(Colin Alien)教授所指出的那樣:“無(wú)論人工物的道德是否具有真正的道德,人工產(chǎn)品的行為都會(huì)產(chǎn)生道德后果。這不
19、能簡(jiǎn)單地說(shuō)他們可能導(dǎo)致傷害,相反地,我們需要明確這樣的事實(shí),人工物所引發(fā)的危害可以通過(guò)行為體自身進(jìn)行調(diào)節(jié)和規(guī)制。” </p><p> 首先,經(jīng)典道德責(zé)任——道德責(zé)任是一種個(gè)人責(zé)任。道德責(zé)任是主體倫理行為中最重要的內(nèi)容。道德責(zé)任的兩種主要方法是經(jīng)典道德責(zé)任方法和實(shí)踐道德責(zé)任方法,其中經(jīng)典道德責(zé)任認(rèn)為機(jī)器不肩負(fù)責(zé)任,而實(shí)踐道德責(zé)任則認(rèn)為人工智能機(jī)器依據(jù)其智能程度而具有不同的功能性責(zé)任。 </p>&
20、lt;p> 美國(guó)斯坦福大學(xué)的埃謝爾曼(Eshleman.A)、索諾馬州立大學(xué)的蘇林斯(SulHns)和芬蘭奧陸大學(xué)的西坡恩(Siponen)都反對(duì)把道德責(zé)任歸咎于人工智能系統(tǒng),他們認(rèn)為對(duì)人工智能系統(tǒng)的贊揚(yáng)或責(zé)備就像對(duì)一個(gè)物行為體一樣都是無(wú)意義的。美國(guó)著名文化傳播學(xué)者尼森鮑姆(Nissenbaum)認(rèn)為,判定一個(gè)行為體是否對(duì)一個(gè)行為具有道德負(fù)責(zé),通常要考慮兩個(gè)方面:“因果責(zé)任”和“精神狀態(tài)”。一般認(rèn)為,只有人類才被認(rèn)為具有道德行為
21、能力。人類行動(dòng)能力的基礎(chǔ)是“意向(intention)”,因?yàn)椤耙庀蛐浴辟x予了人們能夠從錯(cuò)誤的事物中進(jìn)行學(xué)習(xí)的能力,這被視為人類特有的能力。 </p><p> 同樣地,信息哲學(xué)家盧西亞諾·弗洛里迪(Luciano Floridi)也反對(duì)把道德責(zé)任歸于人工智能系統(tǒng),他認(rèn)為人工智能系統(tǒng)不具有“意向性”這樣的精神因素。然而事實(shí)上,即使對(duì)于人類來(lái)說(shuō),意向性也只是建立在被觀察對(duì)象的行為表現(xiàn)的基礎(chǔ)上,因?yàn)槲覀儫o(wú)
22、法完全洞悉人類大腦的內(nèi)部運(yùn)作。 </p><p> 以上觀點(diǎn)主要出于人工智能主體是一個(gè)孤立實(shí)體的觀點(diǎn)。然而,為更好地解答這個(gè)道德責(zé)任問(wèn)題,我們必須把智能行為體看作是一個(gè)“社會(huì)技術(shù)組織”系統(tǒng)的一部分。從該維度講,責(zé)任在這樣一個(gè)復(fù)雜的系統(tǒng)中是分配式的和網(wǎng)絡(luò)式的,智能機(jī)器在一定程度上肩負(fù)著重要的角色。 </p><p> 總之,人工智能技術(shù)正飛速發(fā)展,具有自治型的智能行為體將會(huì)變得更加先進(jìn),
23、以至于我們把機(jī)器人劃為具有“意向性”精神狀態(tài)的物將不成問(wèn)題,因此,對(duì)于人工智能機(jī)器來(lái)說(shuō),兼具因果責(zé)任和意向性的“精神狀態(tài)”也都將會(huì)實(shí)現(xiàn)。 </p><p> 其次,實(shí)用道德責(zé)任——道德責(zé)任是一種系統(tǒng)責(zé)任?!耙庀蛐浴眴?wèn)題和行為體的自由意志都很難解決工程科學(xué)中出現(xiàn)的實(shí)際情況,例如關(guān)于自治型機(jī)器人的具體開(kāi)發(fā)和使用就是明證。對(duì)此,美國(guó)斯塔夫大學(xué)哲學(xué)系教授丹尼特(Daniel C.Dennett)認(rèn)為,我們不能僅僅把道德
24、責(zé)任理解為一種個(gè)人責(zé)任,而是要把其看作一組“外在主義實(shí)用準(zhǔn)則”。我們應(yīng)該采用這種更接近于機(jī)器人應(yīng)用程序的實(shí)用方法。 </p><p> 對(duì)此,科林·艾倫(Colin Allen)引入“工具性方法(Instrumental approach)”:把道德責(zé)任看作是一個(gè)系統(tǒng)責(zé)任、一種社會(huì)調(diào)節(jié)機(jī)制,其旨在增強(qiáng)人們認(rèn)為是善的行為,減少惡的行為。因此,對(duì)于一個(gè)能行使任務(wù)并能自行評(píng)估其后果的行為體來(lái)說(shuō)是肩負(fù)責(zé)任的。
25、他認(rèn)為,當(dāng)成熟的道德行為者可能超越當(dāng)今和未來(lái)的技術(shù)時(shí),我們采用“工具性方法”,然而,在適用性道德和“真正的(genuine)”道德行為體之間還存有很大的空間。這就是我們確定為“功能性道德”的利基。美國(guó)羅格斯大學(xué)的阿薩羅同樣認(rèn)為,我們把機(jī)器人看作是一種社會(huì)技術(shù)系統(tǒng),隨著機(jī)器人表現(xiàn)出越來(lái)越復(fù)雜的行為時(shí),它們將被賦予更大的道德權(quán)限,這就要全面考察機(jī)器人的道德責(zé)任問(wèn)題。 </p><p> 綜上所述,道德責(zé)任是行為體的
26、行為方式,這就要求行為體應(yīng)遵循可接受性的道德準(zhǔn)則。這些可接受性的道德準(zhǔn)則影響著行為體在分配責(zé)任中的行為表現(xiàn)。 </p><p> ?。ǘ┪飩惱韺W(xué)對(duì)機(jī)器人行為進(jìn)行規(guī)制 物倫理學(xué)和人工智能兩者是一種平行關(guān)系。倫理規(guī)范對(duì)于特定的人工物行為體類型來(lái)說(shuō)也是特定的。當(dāng)然,這并不是說(shuō)豁免工程師的道德責(zé)任,相反地,根據(jù)預(yù)防原則(相當(dāng)于約納斯的“關(guān)護(hù)倫理”和“責(zé)任倫理”),工程師被期望在道德上可以對(duì)物行為體進(jìn)行倫理設(shè)計(jì)。
27、</p><p> 我們認(rèn)為,包括自治型智能機(jī)器人在內(nèi)的社會(huì)技術(shù)系統(tǒng)的道德責(zé)任,應(yīng)該遵循實(shí)用主義的路徑,把其當(dāng)作一個(gè)調(diào)節(jié)機(jī)制來(lái)看待。出于實(shí)用的目的,自治型智能系統(tǒng)和“高可靠性組織”(HRO)一樣,都面臨著在復(fù)雜性風(fēng)險(xiǎn)下安全運(yùn)行的境況,因此,應(yīng)把責(zé)任問(wèn)題納入到一個(gè)整體責(zé)任環(huán)中進(jìn)行倫理探討,用物倫理學(xué)對(duì)機(jī)器人行為進(jìn)行規(guī)制進(jìn)而解決相關(guān)安全問(wèn)題和倫理問(wèn)題。 </p><p> 三、機(jī)器人倫理學(xué)
28、在責(zé)任環(huán)中的設(shè)計(jì) </p><p> 共同擔(dān)責(zé)的復(fù)雜系統(tǒng)應(yīng)該保證“人機(jī)”混合組織的安全性。因此,必須把具有自治型人工智能物的發(fā)展納入到一個(gè)責(zé)任環(huán)中進(jìn)行倫理設(shè)計(jì)。這為設(shè)計(jì)師、制造商、用戶處理問(wèn)題奠定了思想基礎(chǔ),為其后果評(píng)估和技術(shù)的使用提供了一個(gè)解決途徑。 </p><p> ?。ㄒ唬┽槍?duì)人體安全的倫理設(shè)計(jì) </p><p> 人身安全是人類與人工智能機(jī)器的交互中必
29、須考量的重要問(wèn)題之一。這主要表現(xiàn)為兩個(gè)方面:一方面,指有利于增強(qiáng)人類安全度的機(jī)器人,主要包括在危險(xiǎn)環(huán)境中的作業(yè)機(jī)器人和救援機(jī)器人等;另一方面,指具有承受強(qiáng)大負(fù)荷能力的機(jī)器人,主要包括需要大幅度移動(dòng)并可能對(duì)人類造成身體傷害的機(jī)器人。 </p><p> 可能出現(xiàn)安全問(wèn)題的環(huán)節(jié)包括人機(jī)協(xié)作、機(jī)器人與機(jī)器人的交互等方面。針對(duì)這些安全問(wèn)題,通常采用安全標(biāo)準(zhǔn)來(lái)對(duì)人工智能物進(jìn)行安全問(wèn)題的規(guī)制。例如,美國(guó)新頒布的“工業(yè)機(jī)器人
30、安全運(yùn)行標(biāo)準(zhǔn)”(ANSI/RIA/1S010218-1:2007)就是為了規(guī)制新興機(jī)器人技術(shù)的安全問(wèn)題。該標(biāo)準(zhǔn)的制訂和頒布對(duì)于諸如軟件機(jī)器人、認(rèn)知機(jī)器人和其他人工機(jī)器來(lái)說(shuō),都是極其必要的。 </p><p> ?。ǘ┌踩P(guān)鍵系統(tǒng)的調(diào)節(jié)機(jī)制設(shè)計(jì) </p><p> 面對(duì)高新科學(xué)技術(shù)的發(fā)展,人們應(yīng)該對(duì)可能產(chǎn)生社會(huì)不利影響的智能系統(tǒng)保持審慎的態(tài)度。對(duì)此,我們應(yīng)像對(duì)待其他技術(shù)的發(fā)展一樣,對(duì)人工
31、智能技術(shù)的發(fā)展采取“預(yù)防原則”。根據(jù)預(yù)防原則,我們能合理預(yù)見(jiàn)其發(fā)展趨勢(shì)及道德后果。 </p><p> 審視人工智能的實(shí)際應(yīng)用方面,大家最為關(guān)注的是安全關(guān)鍵系統(tǒng)問(wèn)題。在航空航天、交通和醫(yī)療等“安全關(guān)鍵系統(tǒng)”的經(jīng)驗(yàn)基礎(chǔ)上,不同等級(jí)的組織通常都需要做好應(yīng)對(duì)各種事故的準(zhǔn)備。有人認(rèn)為,支持它們功能的社會(huì)技術(shù)結(jié)構(gòu)是由預(yù)防和減少故障的安全屏障所組成的。這正道出了安全關(guān)鍵系統(tǒng)中的倫理設(shè)計(jì)問(wèn)題的核心:要確保系統(tǒng)能夠正常安全運(yùn)行
32、,就必須通過(guò)減少反常和意外事故來(lái)進(jìn)行補(bǔ)充。 </p><p> 宏觀層面的安全保障必須考慮技術(shù)、管理、使用和影響等多個(gè)層面的問(wèn)題。對(duì)于工程師來(lái)說(shuō),真正倫理方面的憂慮則是風(fēng)險(xiǎn)識(shí)別與評(píng)估,以及安全保障問(wèn)題。 </p><p> (三)工程師的道德設(shè)計(jì) </p><p> 從以上提到的經(jīng)典道德責(zé)任和實(shí)踐道德責(zé)任的分歧可以看出,對(duì)于物行為體是否具有道德意蘊(yùn)的問(wèn)題,許多
33、學(xué)者存在著正反兩方面的觀點(diǎn)。然而,我們?cè)诤暧^層面上可以把該問(wèn)題看作是“需求工程”問(wèn)題。我們關(guān)注的焦點(diǎn)是道德責(zé)任的肩負(fù)主體問(wèn)題,具體來(lái)說(shuō)也就是自治型人工產(chǎn)品的出現(xiàn)可能導(dǎo)致人類把全部責(zé)任推卸給機(jī)器人的問(wèn)題。 </p><p> 因此,調(diào)動(dòng)工程師關(guān)注智能(計(jì)算機(jī))人工產(chǎn)品則顯得尤為重要。美國(guó)伊利諾伊大學(xué)計(jì)算機(jī)科學(xué)系的凱思·W.米勒(Keith W.Miller)教授率先發(fā)起了“計(jì)算機(jī)相關(guān)人工產(chǎn)品道德責(zé)任的規(guī)
34、則”的討論。他“重申了對(duì)(計(jì)算機(jī))人工物產(chǎn)品保有道德責(zé)任的重要性,并警醒每個(gè)人和科研機(jī)構(gòu)在生產(chǎn)和使用(計(jì)算機(jī))人工物產(chǎn)品時(shí)都要牢記自己所肩負(fù)的責(zé)任”。此外,凱思·W.米勒還組成了一個(gè)“國(guó)際責(zé)任計(jì)算機(jī)特設(shè)委員會(huì)”,該委員會(huì)由50名專家組成。在該委員會(huì)制訂的27條現(xiàn)行草案中總共提出了五個(gè)規(guī)則,其中的首要規(guī)則就是:“從事設(shè)計(jì)、開(kāi)發(fā)計(jì)算機(jī)人工智能產(chǎn)品的人們都對(duì)其肩負(fù)道義上的責(zé)任,都對(duì)人工智能產(chǎn)品的社會(huì)效應(yīng)肩負(fù)責(zé)任。該責(zé)任應(yīng)該與其他從事
35、于設(shè)計(jì)、開(kāi)發(fā)以及專門(mén)從事于把人工智能產(chǎn)品當(dāng)做社會(huì)技術(shù)系統(tǒng)一部分來(lái)使用的人們共同擔(dān)負(fù)?!?</p><p> ?。ㄋ模┌踩幕透呖煽啃越M織(HR())的設(shè)計(jì) </p><p> 機(jī)器人安全是機(jī)器人倫理設(shè)計(jì)的一個(gè)最基本的問(wèn)題。根據(jù)安全性要求,可靠性(reliability)是最重要的行為考量準(zhǔn)則。安全設(shè)計(jì)是指鼓勵(lì)產(chǎn)品設(shè)計(jì)師在開(kāi)發(fā)過(guò)程中“設(shè)計(jì)出”既健康又能規(guī)避安全風(fēng)險(xiǎn)的一個(gè)概念。安全設(shè)計(jì)大致
36、分為兩條防線:“第一條防線”在于構(gòu)建安全風(fēng)險(xiǎn)中恰當(dāng)?shù)墓こ探鉀Q方案;“第二條防線”作為“第一條防線”的補(bǔ)充,是一種旨在減少各種風(fēng)險(xiǎn)的安全文化(主要包括管理程序、防護(hù)措施等)?!皟蓷l防線”相結(jié)合可以培養(yǎng)一個(gè)人預(yù)知安全威脅和建立預(yù)防措施的能力。 </p><p> 安全文化是一種調(diào)控機(jī)制,旨在社會(huì)技術(shù)系統(tǒng)中建立一個(gè)高可靠性安全機(jī)制。此外,安全文化也可以看作是管理層和員工共同承諾并進(jìn)行實(shí)施的一系列安全保障活動(dòng)。因此,安
37、全文化的基礎(chǔ)是高效、開(kāi)放和透明的溝通,它在承認(rèn)安全風(fēng)險(xiǎn)存在的前提下,主動(dòng)發(fā)現(xiàn)和消除潛在的危險(xiǎn)和隱患?!耙踩幕?,組織就必須從錯(cuò)誤中不斷改正。一種安全文化應(yīng)意識(shí)到錯(cuò)誤的存在,安全文化作為企業(yè)的一部分,應(yīng)該以一種非懲罰性方式來(lái)規(guī)制錯(cuò)誤行為?!?</p><p> 自治型機(jī)器人作為計(jì)算機(jī)的一種應(yīng)用拓展,被廣泛用于諸多復(fù)雜性、高危性組織部門(mén)中,在高可靠性組織(HRO)中具有重要性地位。因此,保障高可靠性組織(HR
38、O)的安全設(shè)計(jì)和倫理設(shè)計(jì)是解決機(jī)器人在責(zé)任環(huán)中設(shè)計(jì)的重要內(nèi)容和環(huán)節(jié)。 </p><p> 總之,在當(dāng)前情況下,我們需知確保系統(tǒng)的安全性才是最重要的目的,這就要求高可靠性組織(HR())通過(guò)不斷學(xué)習(xí)和改進(jìn)組織行為程序來(lái)實(shí)現(xiàn)。“安全設(shè)計(jì)”既是安全文化的主要內(nèi)容,也是預(yù)防原則的題中要義。它對(duì)于一切新技術(shù)的出現(xiàn)都保有一種前攝性態(tài)度,這為我們?cè)诤暧^層面上探討道德機(jī)器人的“需求工程”提供了有益的借鑒。 </p>
39、<p><b> 結(jié)語(yǔ) </b></p><p> “在科技哲學(xué)中,物轉(zhuǎn)向意味著其擺脫先驗(yàn)研究路向,關(guān)注經(jīng)驗(yàn)研究;在科技倫理學(xué)中,物轉(zhuǎn)向意味著其擺脫人類中心主義,關(guān)注物的倫理性。”因此,機(jī)器人倫理學(xué)的勃興可以看做是哲學(xué)中的物轉(zhuǎn)向在科技倫理中的回應(yīng)。為了確保物行為體的行為具有道德性,我們需要對(duì)機(jī)器人進(jìn)行倫理設(shè)計(jì)。物倫理是人工智能技術(shù)發(fā)展的道德性要求,兩者是相互依存、并行不悖的
40、:人工智能的發(fā)展需要倫理設(shè)計(jì)和道德規(guī)制,同樣只有物倫理的植入才能保證人工物融入人類社會(huì)。 </p><p> 當(dāng)然,由于科技的進(jìn)步,技術(shù)應(yīng)用所引發(fā)的新現(xiàn)象和新問(wèn)題將會(huì)層出不窮。在“需求工程”框架下對(duì)機(jī)器人進(jìn)行倫理設(shè)計(jì)的思想可能不會(huì)立即實(shí)現(xiàn),我們也不能一勞永逸地完成機(jī)器人的倫理設(shè)計(jì),這需要我們作出長(zhǎng)期的努力并逐步地完善。正所謂“路漫漫其修遠(yuǎn)兮”,我們期望未來(lái)的機(jī)器人行為體兼具“理想人”一樣的道德品質(zhì),期望機(jī)器人的
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 醫(yī)學(xué)倫理學(xué)與倫理學(xué)的屬性
- 倫理學(xué)視閾下的女性幸福.pdf
- 倫理學(xué)視閾下的課堂優(yōu)化探微
- 倫理學(xué)教案非倫理學(xué)專業(yè)
- 倫理學(xué)視閾下的“走捷徑”治理研究
- 倫理學(xué)視閾下的課堂優(yōu)化探微.pdf
- 和諧農(nóng)村社會(huì)秩序的倫理學(xué)視閾
- 設(shè)計(jì)的倫理學(xué)思考
- 倫理學(xué)視閾下的當(dāng)代幸福問(wèn)題研究
- 文學(xué)倫理學(xué)視閾下赫索格中猶太文化倫理研究
- 醫(yī)學(xué)倫理學(xué)
- 教師倫理學(xué)
- 倫理概念及倫理學(xué)淺析
- 生命倫理學(xué)
- 《護(hù)理倫理學(xué)》
- 通俗倫理學(xué)
- 社會(huì)倫理學(xué)
- 生命倫理學(xué)
- 《倫理學(xué)與現(xiàn)實(shí)生活——應(yīng)用倫理學(xué)引論》
- 和諧農(nóng)村社會(huì)秩序的倫理學(xué)視閾.pdf
評(píng)論
0/150
提交評(píng)論