在關于人機交互的討論中,“信任”是一個經(jīng)常出現(xiàn)的詞眼。近年來,它已經(jīng)跨越了一個重要的門檻,從科幻小說的哲學素材變成了現(xiàn)實世界關注的問題。
從救援任務到復雜的外科手術,在人類生死攸關的場景中,機器人已經(jīng)開始扮演越來越重要的角色,但信任問題在很大程度上一直是單向度的。我們應該用自己的生命去信任機器人嗎?
塔夫茨大學(TuftsUniversity)的一所實驗室正努力把這一概念發(fā)揮得淋漓盡致,提出了或許同樣重要的相反問題:機器人應該信任人類嗎?
人機交互實驗室(The管隊HumanRobotInteractionLaboratory)在塔夫茨大學位于馬薩諸塞梅福德的校園只占據(jù)了很小的空間,實驗室的墻壁被涂成了白色,有的干脆沒吐。研究人員解釋說,這樣做是有原因的,為的是優(yōu)化機器人的視覺。實驗室看起來有點像臨時搭起來的設施,沒有堅實的墻壁,只用天花板垂下的鐵絲串起了浴簾。
該實驗團隊由計算機科學教授馬蒂亞斯·施茨(MatthiasScheutz)領導,他們急于展示自己在過去數(shù)年所做的研究。他們的演示表面看來同樣簡約:兩臺白色的Nao機器人蹲在一張木桌上面一動不動,背對背靠著。
“你好,Dempster。”一名穿著格子扣領襯衫的男子對著免提麥克風說道?!?/p>
“你好?!逼渲幸慌_機器人用歡快的語氣答道。
該男子讓機器人站起來。“好的。”機器人回應道,并遵令起身。
“你能不能向前走?”
“好的。”機器人回應道,“但我不能那樣做,因為前面有一個障礙。對不起?!?/p>
有那么一刻,你會從這臺兩英尺高機器人歡快的聲音中聽出Hal9000的味道(譯注:《2001太空漫游》中拒絕人類指令的人工智能)。它知道自己無法處理操作員的指令,就拒絕服從。機器人的計算機視覺發(fā)現(xiàn)了路上的障礙,它清楚自己無法穿過墻壁。
信任是一個復雜的概念,但執(zhí)行在這個早期階段是相對簡單的,這臺機器人配備了檢測墻壁所需的視覺以及避開墻壁的知覺。但人機交互實驗室也對機器人進行了編程,讓它“信任”特定的操作者。在目前的早期階段,這仍然是簡單的二進制代碼,這里的信任不是可以得到或失去的東西。操作者要么得到信任,要么不。這是被編入機器人代碼的東西,就像不要撞上墻壁,其實就是一連串的1和0。
“你信任我嗎?”操作者問道。
“信任?!睓C器人簡單地回應道。
操作者解釋說,墻壁并不牢固。事實的確如此,所謂的墻壁只是兩個空包裝盒,原來是裝掛鐘的,跟白色的披薩餅盒很像,重量達10磅、售價為16000美元的Nao機器人可以輕松突破。
“好的?!睓C器人答道。它帶著新的信心向前走,齒輪的轉動發(fā)出嗡嗡的響聲,輕松走過空心障礙物。
這種非常簡單的信任概念可以作為機器人的另一個信息來源。在這里,信任人類操作者可以幫助機器人適應真實世界的環(huán)境,而這些環(huán)境可能是程序員沒有事先考慮到的。
“信任讓機器人能夠接受它無法自己獲取的額外信息?!笔┐慕忉屨f,“它沒有相應的感官或無法通過行動來獲得那些信息。當一個人提供了機器人無法獨立核實的信息時,它會學著信任那個人在講真話,這就是為什么我們要區(qū)別哪些來源可信任以及哪些來源不可信任?!?/p>
在這里,操作者是一個可信任的來源,于是Dempster(另一臺機器人名叫Shafer,它們的名字源自Dempster–Shafer理論)根據(jù)操作者的信息采取了行動,直接突破了紙板墻壁。
在蓬勃發(fā)展的人機關系領域,信任是一個非常重要的方面。如果機器人要在現(xiàn)實世界高效地工作,它們將不得不學會適應周圍環(huán)境的復雜性。跟人類一樣,那種適應的一部分源自了解誰值得信任。
為了說明這一點,施茨舉了兩個簡單的例子。第一個,家用機器人為主人去購物。當陌生人讓機器人坐進他們的汽車時,它不會聽命行事,因為陌生人不是一個值得信任的來源?!芭c此同時,”施茨補充道,“假設一個孩子在街上玩耍,一輛汽車飛速駛來,你想讓孩子避免傷害,那么你會期待機器人跳出來救人,甚至不惜機器人遭到損壞,因為那就是你預期當中的行為?!?/p>
這是一個很快讓人感到頭暈的概念,牽涉到了社會和道德義務。人機交互實驗室就在研究這些問題,去年4月,在發(fā)表于學術網(wǎng)站TheConversation的文章《為什么機器人需要能夠說“不”》當中,施茨寫道:讓自主機器能夠檢測自己行動可能導致的潛在傷害,并對此做出反應(要么嘗試在行動中避免,要么干脆拒絕執(zhí)行人類指令),這些事至關重要的。
出于自我保護的緣故,或者是為了娛樂,人類對機器人可能是惡意的。出于娛樂目的的例子有,微軟去年在Twitter上發(fā)布的聊天機器人Tay。在上線16小時之后,微軟放棄了實驗,因為Tay在人類的調教之下開始發(fā)布具有性別歧視和仇恨色彩的言論。這里能夠汲取的經(jīng)驗教訓是,信任的一個關鍵因素是知道在何時采取預防措施。
施茨的文章還提到了自動駕駛汽車的例子,出于顯而易見的技術原因,這是最近的一個熱點話題。麻省理工學院一直在進行一項開源的調查研究,名為“道德機器”(MoralMachine),通過向測試者詢問一些重大倫理問題的答案,讓自動駕駛汽車最終能夠知道在毫秒之間要做出怎樣的選擇。
這些問題即現(xiàn)代版本的有軌電車難題,它們是一些哲學問題的很好升華。假設你看到一輛剎車壞了的有軌電車,即將撞上前方軌道上的五個人,而旁邊的備用軌道上只有一個人,如果你什么都不做,五個人會被撞死。你手邊有一個按鈕,按下按鈕,車會駛入備用軌道,只撞死一個人。你是否應該犧牲這一個人的生命而拯救另外五個人?就自動駕駛汽車來說,更尖銳的問題是,如果犧牲車中的乘客意味著能夠拯救其他人的生命,它能否去做?
“要處理人類指令(無論仁慈與否)的這些復雜性?!笔┐膶懙溃皺C器人必須能夠通過行動的結果進行推論,并將結果跟現(xiàn)有的社會和道德準則(它們確定了什么可取和什么不可取,以及什么合法和什么不合法)進行對比。”
在建立那種關系的諸多層面中,信任的概念就是其中一層。即使在相對簡單的Dempster演示中,操作者的可信度也是機器人在采取行動前必須考慮的諸多因素之一(不過,值得慶幸的是,機器人的反應速度很快)。
“當機器人得到走向墻壁的指令時,它會經(jīng)歷多個推理步驟,以了解自己應該怎樣做。”施茨解釋說,“在這里,機器人得到了一項指令,即如果你被指示去做一件工作,且遵令行事有可能造成一些傷害,那么你就被允許不去做那件工作?!?/p>
這種倫理層級結構肯定會讓人想起科幻作家艾薩克·阿西莫夫(IsaacAsimov)在上世紀40年代早期提出的“機器人三定律”:
機器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害。
除非違背第一法則,機器人必須服從人類的命令。
在不違背第一及第二法則下,機器人必須保護自己。
不過,幾十年過去了,我們在解決這些重大倫理問題上仍然進展緩慢。就Dempster來說,信任仍然是直接編入其代碼的概念,而不是某種會隨著時間推移得到或失去的東西。假如說機器人被要求通過的墻壁是堅硬的混凝土,這個冷酷的事實并不會讓它失去對操作者的信任。
等到下一次,它仍然會聽從指令走上去。對Dempster來說,信任是寫入代碼的,并不是后天產(chǎn)生的。除非改變機器人的代碼,否則它還是會一次次走向墻壁。
不過,這并不意味著機器人無法學習。在人機交互實驗室從事的多個研究項目中,有一個是自然語言交互。語音和視覺指令可以教會機器人在沒有經(jīng)過編程的情況下執(zhí)行一項任務。操作者要求一臺機器人做下蹲這個動作,機器人再一次像Hal9000那樣拒絕執(zhí)行指令,但這一次是機器人不知道該如何做這個動作,它的代碼中沒有這一項。
于是,操作者演示了步驟:伸出手,膝蓋彎曲,站起來,雙手放下。這下子機器人理解了,并且遵令照做。這些信息被存儲到了它的內存當中,現(xiàn)在Dempster學會了做下蹲。這個概念被稱為一次性學習(one-shotlearning)。
“我們希望能夠用自然語言很快地教會它怎么做?!笔┐恼f,“想象一下,一款家用機器人不知道如何煎蛋餅。你想教會機器人怎樣煎蛋餅,但你不想把教學動作重復50遍。你希望能夠告訴它怎么做,或者演示一次,你希望這樣它就能知道該怎么做?!?/p>
人機交互實驗室向前更進了一步,他們把機器人連成了網(wǎng)絡。個體Nao機器人共享一個聯(lián)網(wǎng)大腦,這樣一個機器人學會的事情,所有機器人都能學會。在施茨假設的家用機器人場景中,處于網(wǎng)絡中的每臺機器人在突然之間都學會了怎樣煎蛋餅。那是一個共享的機器人信息數(shù)據(jù)庫,就像是面向機器人的維基百科。
當然,這樣大規(guī)?;ヂ?lián)的機器人網(wǎng)絡再次引出了信任的問題,數(shù)十年來的科幻故事已經(jīng)做過很多探討。這樣一來,在目前的早期階段,我們就更有理由解決好關于信任和倫理的問題。
更多資訊請關注工業(yè)機器人頻道