機器人法則-文明

網(wǎng)絡(luò)整理 分享 時間: 收藏本文

機器人法則-文明

當機器可以思考時
  
  2023年3月,在美國亞利桑那州的坦佩市,一輛自動駕駛汽車將推著自行車過馬路的伊蓮·赫茨伯格撞倒。當時,該自動駕駛汽車以每小時70千米的速度行駛,并且是在其車載電腦發(fā)現(xiàn)赫茨伯格6秒之后才將她撞倒。6秒的時間足夠汽車停下來或轉(zhuǎn)彎,但它什么都沒有做,而是直接撞向了她。赫茨伯格在被送往醫(yī)院后死亡,這是第一個被自動駕駛汽車撞死的行人。
  
  美國國家運輸安全委員會通過對這一事件的初步調(diào)查發(fā)現(xiàn),為確保更順暢的駕駛,這輛自動駕駛汽車的緊急制動器被設(shè)計為在自動駕駛時禁用,而且也沒有提醒操作人員注意危險的設(shè)計。
  
  75年前,美國著名科幻小說家艾薩克·阿西莫夫就提出了機器人三大定律,其中的機器人第一定律為:機器人不能傷害人類,或者坐視人類受到傷害。今天,我們已經(jīng)處在一個機器人幾乎隨處可見的世界里,但是對于我們應(yīng)該如何與機器人共同生活的深層次問題,仍然沒有完美的答案。
  
  在過去的幾年中,盡管出現(xiàn)了很多關(guān)于智能機器人的報告和政策建議,但到目前為止,阿西莫夫的定律仍然是一種幻想。
  
  歐盟機器人法律報告的起草者麥迪·德爾沃將目前的情況與汽車首次出現(xiàn)在道路上的情況進行了比較。她說:“第一批駕駛員在開車上路時沒有規(guī)則可遵守,他們按照自己的想法合理或謹慎地駕駛。但隨著技術(shù)的普及,社會就需要規(guī)則了。”
  
  麻煩的是,規(guī)范機器人對人類事務(wù)的干預比制定道路交通法規(guī)更復雜。例如,保護乘客和行人免受自動駕駛汽車傷害的立法,無法阻止數(shù)據(jù)抓取算法對選民投票的影響。用于診斷和治療的醫(yī)療機器人與戰(zhàn)場上的機器人需要不同的規(guī)定。
  
  機器人行為守則
  
  關(guān)于機器人的立法還有另一個障礙,法律過于籠統(tǒng),不會過多考慮背景。對阿西莫夫來說,背景可能構(gòu)成規(guī)則的一部分。他的許多故事探討了機器人試圖在不同場景中應(yīng)用法律的意外后果。在他1942年出版的小說《環(huán)舞》中,當機器人試圖同時滿足第二定律(遵守人類給予它的命令)和第三定律(保護自己不受傷害)時,機器人陷入了困境。阿西莫夫的定律非常適合小說,但不適合實踐。
  
  將這種法律解釋為行動常識幾乎是不可能完成的任務(wù),有學者曾嘗試這樣去做,但最終因為太難而放棄。
  
  最終,辯論歸結(jié)為道德問題而不是技術(shù)問題。英國上議院人工智能委員會的史蒂文·克羅夫特說:“人工智能帶來的新力量需要一種新的道德規(guī)范。為了人類的繁榮,社會應(yīng)該塑造規(guī)則,而不是讓規(guī)則塑造社會,這一點至關(guān)重要。不能允許私營公司制定規(guī)程來決定每個人的利益。”
  
  正如克羅夫特所強調(diào)的那樣,不同的地方有不同的文化,不同的文化也有不同的規(guī)則。例如,相比其他許多國家,日本對伴侶機器人的接受度要高很多,歐洲國家對隱私和數(shù)據(jù)收集的態(tài)度與美國不同。
  
  盡管如此,肯定有一些所有人都同意的指導方針。無論如何,機器人有能力對人類造成傷害——不管在手術(shù)室、戰(zhàn)場上還是在路上。因此,人類的監(jiān)控至關(guān)重要。
  
  人們經(jīng)常用“電車難題”思想實驗來表明,允許人工智能自行決定所帶來的危險。如果自動駕駛汽車必須選擇在發(fā)生事故的情況下殺死誰,這對車上的乘客和路上的行人來說肯定是致命的。但美國華盛頓大學的瑞安·卡洛認為這個思想實驗很荒謬,讓機器人除了殺人別無選擇本就是一個奇怪的假設(shè),更值得思考的是技術(shù)帶來的新的可能性。
  
  卡洛設(shè)想了一種情景:想象一輛混合動力的自動駕駛汽車,可以通過汽油發(fā)動機為其電池充電。這款車的設(shè)計目標之一,是使其燃油效率最大化。在跑了幾天之后,汽車發(fā)現(xiàn)使用充滿電的電池時效率最高。它就會每天晚上在車庫運行其發(fā)動機,這樣早上就能使用充滿電的電池了,但這樣做可能會導致家中的人因一氧化碳中毒而死亡。
  
  這明顯違反了不能傷害人類的法律,而且很難被預見。在這種情況下,我們?nèi)绾闻袛噱e在哪里以及應(yīng)該責怪誰?有人認為機器人的責任應(yīng)該由制造商承擔,他們將商品投放到市場,理應(yīng)承擔責任。
  
  問題在于,對于誰承擔責任,法律通常要求被告預見其行為的結(jié)果。但是,對擁有學習能力的人工智能來說,這可能并不合理——就像卡洛設(shè)想的電池充電場景一樣。為了避免出現(xiàn)這種不可預測的行為,有人建議自動駕駛汽車不應(yīng)該有自學能力,但這明顯與人們對自動駕駛汽車的期望不符。
  
  我們可以要求的是,機器人的行為實現(xiàn)自洽。確保負責任地使用算法可能意味著我們需要新的人工智能混合算法,讓機器學習軟件與人類更容易理解的技術(shù)相結(jié)合。這是一個令人興奮的新研究領(lǐng)域。
  
  當機器人越來越像人
  
  美國加利福尼亞州帕洛阿爾托未來研究所的理事安妮·伊馬菲登說,如果我們希望人工智能以最小的傷害提供最大的利益,那么關(guān)鍵不僅僅是讓人們理解機器人,而且要制造更好的機器人。她的答案是確保機器人不會具備我們對事物先入為主的執(zhí)著。這樣我們就可以避免一些悄悄進入人工智能的偏見,并扭曲自動化的決策制定。
  
  如果我們能夠克服這些挑戰(zhàn),那么,能拯救生命、行為自洽并公平對待我們的機器人將受到大多數(shù)人的歡迎。但是,隨著我們能夠創(chuàng)造越來越像人類的機器人,我們必須考慮讓我們感到舒服的人機互動方式。
  
  語音識別技術(shù)讓我們能夠或多或少地與我們的設(shè)備交談。谷歌公司通過人工智能合成的聲音,足以使另一端的人認為他們正在與一個人交談。機器人專家正在制作具有栩栩如生的肉體和頭發(fā)的人形機器人。與此同時,又產(chǎn)生了一個更大的擔憂。人類很容易形成情感依戀。但是無論機器人看起來多么逼真,我們都應(yīng)該清楚自己是與機器,還是與人進行交流。
  
  在日益自動化的世界中,人們很容易忘記機器是由人類編程、擁有和操作的。設(shè)計和使用它們是為了一些更高、更人性化的目標:安全性、舒適性、效率、利潤。設(shè)計機器人遵循的法律是一個有趣的思想實驗,但最終會分散注意力。真正的機器人法律應(yīng)該對相關(guān)的人進行檢查,而不是對機器。
  
  作為人類,我們需要依賴深厚的傳統(tǒng)智慧來解決這些基本問題,不能單靠技術(shù)來回答。然而,至少有一點我們都會認可:人類應(yīng)該始終能夠關(guān)閉機器。
  
  機器人五大法則
  
  任何普遍的機器人法則都可能包括以下內(nèi)容。
  
  法則1:機器人不得傷害人類或讓人類受到傷害——除非它受到另一個人的監(jiān)督。
  
  法則2:機器人必須能夠解釋自己的行為。
  
  法則3:機器人應(yīng)該抵制任何先入為主的沖動。
  
  法則4:機器人不得冒充人類。
  
  法則5:機器人應(yīng)始終有一個關(guān)閉按鈕。

信息流廣告 競價托管 招生通 周易 易經(jīng) 代理招生 二手車 網(wǎng)絡(luò)推廣 自學教程 招生代理 旅游攻略 非物質(zhì)文化遺產(chǎn) 河北信息網(wǎng) 石家莊人才網(wǎng) 買車咨詢 河北人才網(wǎng) 精雕圖 戲曲下載 河北生活網(wǎng) 好書推薦 工作計劃 游戲攻略 心理測試 石家莊網(wǎng)絡(luò)推廣 石家莊招聘 石家莊網(wǎng)絡(luò)營銷 培訓網(wǎng) 好做題 游戲攻略 考研真題 代理招生 心理咨詢 游戲攻略 興趣愛好 網(wǎng)絡(luò)知識 品牌營銷 商標交易 游戲攻略 短視頻代運營 秦皇島人才網(wǎng) PS修圖 寶寶起名 零基礎(chǔ)學習電腦 電商設(shè)計 職業(yè)培訓 免費發(fā)布信息 服裝服飾 律師咨詢 搜救犬 Chat GPT中文版 語料庫 范文網(wǎng) 工作總結(jié) 二手車估價 情侶網(wǎng)名 愛采購代運營 情感文案 古詩詞 邯鄲人才網(wǎng) 鐵皮房 衡水人才網(wǎng) 石家莊點痣 微信運營 養(yǎng)花 名酒回收 石家莊代理記賬 女士發(fā)型 搜搜作文 石家莊人才網(wǎng) 銅雕 關(guān)鍵詞優(yōu)化 圍棋 chatGPT 讀后感 玄機派 企業(yè)服務(wù) 法律咨詢 chatGPT國內(nèi)版 chatGPT官網(wǎng) 勵志名言 兒童文學 河北代理記賬公司 教育培訓 游戲推薦 抖音代運營 朋友圈文案 男士發(fā)型 培訓招生 文玩 大可如意 保定人才網(wǎng) 黃金回收 承德人才網(wǎng) 石家莊人才網(wǎng) 模型機 高度酒 沐盛有禮 公司注冊 造紙術(shù) 唐山人才網(wǎng) 沐盛傳媒