機器人法則-文明
當機器可以思考時
2023年3月,在美國亞利桑那州的坦佩市,一輛自動駕駛汽車將推著自行車過馬路的伊蓮·赫茨伯格撞倒。當時,該自動駕駛汽車以每小時70千米的速度行駛,并且是在其車載電腦發(fā)現(xiàn)赫茨伯格6秒之后才將她撞倒。6秒的時間足夠汽車停下來或轉(zhuǎn)彎,但它什么都沒有做,而是直接撞向了她。赫茨伯格在被送往醫(yī)院后死亡,這是第一個被自動駕駛汽車撞死的行人。
美國國家運輸安全委員會通過對這一事件的初步調(diào)查發(fā)現(xiàn),為確保更順暢的駕駛,這輛自動駕駛汽車的緊急制動器被設(shè)計為在自動駕駛時禁用,而且也沒有提醒操作人員注意危險的設(shè)計。
75年前,美國著名科幻小說家艾薩克·阿西莫夫就提出了機器人三大定律,其中的機器人第一定律為:機器人不能傷害人類,或者坐視人類受到傷害。今天,我們已經(jīng)處在一個機器人幾乎隨處可見的世界里,但是對于我們應(yīng)該如何與機器人共同生活的深層次問題,仍然沒有完美的答案。
在過去的幾年中,盡管出現(xiàn)了很多關(guān)于智能機器人的報告和政策建議,但到目前為止,阿西莫夫的定律仍然是一種幻想。
歐盟機器人法律報告的起草者麥迪·德爾沃將目前的情況與汽車首次出現(xiàn)在道路上的情況進行了比較。她說:“第一批駕駛員在開車上路時沒有規(guī)則可遵守,他們按照自己的想法合理或謹慎地駕駛。但隨著技術(shù)的普及,社會就需要規(guī)則了。”
麻煩的是,規(guī)范機器人對人類事務(wù)的干預比制定道路交通法規(guī)更復雜。例如,保護乘客和行人免受自動駕駛汽車傷害的立法,無法阻止數(shù)據(jù)抓取算法對選民投票的影響。用于診斷和治療的醫(yī)療機器人與戰(zhàn)場上的機器人需要不同的規(guī)定。
機器人行為守則
關(guān)于機器人的立法還有另一個障礙,法律過于籠統(tǒng),不會過多考慮背景。對阿西莫夫來說,背景可能構(gòu)成規(guī)則的一部分。他的許多故事探討了機器人試圖在不同場景中應(yīng)用法律的意外后果。在他1942年出版的小說《環(huán)舞》中,當機器人試圖同時滿足第二定律(遵守人類給予它的命令)和第三定律(保護自己不受傷害)時,機器人陷入了困境。阿西莫夫的定律非常適合小說,但不適合實踐。
將這種法律解釋為行動常識幾乎是不可能完成的任務(wù),有學者曾嘗試這樣去做,但最終因為太難而放棄。
最終,辯論歸結(jié)為道德問題而不是技術(shù)問題。英國上議院人工智能委員會的史蒂文·克羅夫特說:“人工智能帶來的新力量需要一種新的道德規(guī)范。為了人類的繁榮,社會應(yīng)該塑造規(guī)則,而不是讓規(guī)則塑造社會,這一點至關(guān)重要。不能允許私營公司制定規(guī)程來決定每個人的利益。”
正如克羅夫特所強調(diào)的那樣,不同的地方有不同的文化,不同的文化也有不同的規(guī)則。例如,相比其他許多國家,日本對伴侶機器人的接受度要高很多,歐洲國家對隱私和數(shù)據(jù)收集的態(tài)度與美國不同。
盡管如此,肯定有一些所有人都同意的指導方針。無論如何,機器人有能力對人類造成傷害——不管在手術(shù)室、戰(zhàn)場上還是在路上。因此,人類的監(jiān)控至關(guān)重要。
人們經(jīng)常用“電車難題”思想實驗來表明,允許人工智能自行決定所帶來的危險。如果自動駕駛汽車必須選擇在發(fā)生事故的情況下殺死誰,這對車上的乘客和路上的行人來說肯定是致命的。但美國華盛頓大學的瑞安·卡洛認為這個思想實驗很荒謬,讓機器人除了殺人別無選擇本就是一個奇怪的假設(shè),更值得思考的是技術(shù)帶來的新的可能性。
卡洛設(shè)想了一種情景:想象一輛混合動力的自動駕駛汽車,可以通過汽油發(fā)動機為其電池充電。這款車的設(shè)計目標之一,是使其燃油效率最大化。在跑了幾天之后,汽車發(fā)現(xiàn)使用充滿電的電池時效率最高。它就會每天晚上在車庫運行其發(fā)動機,這樣早上就能使用充滿電的電池了,但這樣做可能會導致家中的人因一氧化碳中毒而死亡。
這明顯違反了不能傷害人類的法律,而且很難被預見。在這種情況下,我們?nèi)绾闻袛噱e在哪里以及應(yīng)該責怪誰?有人認為機器人的責任應(yīng)該由制造商承擔,他們將商品投放到市場,理應(yīng)承擔責任。
問題在于,對于誰承擔責任,法律通常要求被告預見其行為的結(jié)果。但是,對擁有學習能力的人工智能來說,這可能并不合理——就像卡洛設(shè)想的電池充電場景一樣。為了避免出現(xiàn)這種不可預測的行為,有人建議自動駕駛汽車不應(yīng)該有自學能力,但這明顯與人們對自動駕駛汽車的期望不符。
我們可以要求的是,機器人的行為實現(xiàn)自洽。確保負責任地使用算法可能意味著我們需要新的人工智能混合算法,讓機器學習軟件與人類更容易理解的技術(shù)相結(jié)合。這是一個令人興奮的新研究領(lǐng)域。
當機器人越來越像人
美國加利福尼亞州帕洛阿爾托未來研究所的理事安妮·伊馬菲登說,如果我們希望人工智能以最小的傷害提供最大的利益,那么關(guān)鍵不僅僅是讓人們理解機器人,而且要制造更好的機器人。她的答案是確保機器人不會具備我們對事物先入為主的執(zhí)著。這樣我們就可以避免一些悄悄進入人工智能的偏見,并扭曲自動化的決策制定。
如果我們能夠克服這些挑戰(zhàn),那么,能拯救生命、行為自洽并公平對待我們的機器人將受到大多數(shù)人的歡迎。但是,隨著我們能夠創(chuàng)造越來越像人類的機器人,我們必須考慮讓我們感到舒服的人機互動方式。
語音識別技術(shù)讓我們能夠或多或少地與我們的設(shè)備交談。谷歌公司通過人工智能合成的聲音,足以使另一端的人認為他們正在與一個人交談。機器人專家正在制作具有栩栩如生的肉體和頭發(fā)的人形機器人。與此同時,又產(chǎn)生了一個更大的擔憂。人類很容易形成情感依戀。但是無論機器人看起來多么逼真,我們都應(yīng)該清楚自己是與機器,還是與人進行交流。
在日益自動化的世界中,人們很容易忘記機器是由人類編程、擁有和操作的。設(shè)計和使用它們是為了一些更高、更人性化的目標:安全性、舒適性、效率、利潤。設(shè)計機器人遵循的法律是一個有趣的思想實驗,但最終會分散注意力。真正的機器人法律應(yīng)該對相關(guān)的人進行檢查,而不是對機器。
作為人類,我們需要依賴深厚的傳統(tǒng)智慧來解決這些基本問題,不能單靠技術(shù)來回答。然而,至少有一點我們都會認可:人類應(yīng)該始終能夠關(guān)閉機器。
機器人五大法則
任何普遍的機器人法則都可能包括以下內(nèi)容。
法則1:機器人不得傷害人類或讓人類受到傷害——除非它受到另一個人的監(jiān)督。
法則2:機器人必須能夠解釋自己的行為。
法則3:機器人應(yīng)該抵制任何先入為主的沖動。
法則4:機器人不得冒充人類。
法則5:機器人應(yīng)始終有一個關(guān)閉按鈕。