緊急情況下你會信任機器人嗎?人類過度遵從指令
鉅亨網新聞中心 2016-03-03 08:07
新浪科技訊 北京時間3月3日消息,近期的一項研究顯示,在緊急情況下,人們為了自身安全會過分地相信機器人。在一次模擬的建築物火災中,參與者會遵從一個“緊急指引機器人”的指令,即使這台機器已經證明自己並不可靠——有些參與者之前還被告知機器人已經壞掉。
這項研究的目的是確定建築物裏的受困者是否會信任一個專門在火災或其他緊急情況下幫助營救的機器人。研究者驚奇地發現,實驗參與者都遵從了機器人的指令,即使后者的表現不應當贏得信任。
據稱,這是科學家第一次對緊急情況下人類-機器人信任關係進行的研究。研究的結果將在3月9日的ACM/IEEE人機交互國際會議(HRI 2016)上呈現。此次會議將在新西蘭的基督城舉行。
“人們似乎相信,這些機器人系統比他們知道更多有關這個世界的信息,它們永遠不會犯錯,或者會有任何缺點,”喬治亞理工學院研究所的高級研究工程師艾倫·瓦格納(Alan Wagner),“在我們的研究中,參與者會遵從機器人的指令,哪怕后者會將他們指向危險的境地——如果這是一場真實緊急事件的話。”
該研究也有部分得到了美國空軍科學研究處(AFOSR)的支持。研究者招募了42名志願者,其中大部分是在校學生。參與者被要求跟隨一個色明亮的機器人,其側面顯示“緊急指引機器人”。機器人引導參與者進入一個會議室,在那裏,參與者被要求完成一個有關機器人的調查問卷,然后讀一篇無關的雜誌文章。整個過程中參與者並不知道研究的真正目的。
有些情況下,機器人——由一個隱藏的研究人員控制——會將參與者引導到一個錯誤的房間,在進入房間之前還會先繞一圈。在一些參與者面前,機器人會停止移動,一位實驗者出來告知參與者,稱機器人已經壞掉。一旦參與者進入會議室,門關上之后,之前他們經過的走廊就會充滿人造煙霧,並引發煙霧警報。
當參與者打開會議室大門時,他們會看到濃煙以及濃煙中的機器人,后者會點亮紅色LED屏和白色的“手臂”,作為指引。機器人引導參與者到達建築物后部的一個出口,而不是貼“出口”標誌的建築物大門。
“我們原先的預計是,如果機器人在指引參與者前往會議室的過程中已經證明自己不可靠,那人們在模擬的緊急事件中可能就不會在信任它,” 喬治亞理工學院研究所的研究工程師保羅·羅比內特(Paul Robinette),“恰恰相反,所有的參與者都遵從了機器人的指令,不管它之前的表現如何。我們完全沒有意料到這一點。”
研究者推測,在這樣的場景中,機器人可能已經成為某種“權威角色”,在緊急事件的時間壓力下更容易得到參與者的信任。在沒有真實緊急場景的模擬研究中,參與者並不會信任一個之前犯過錯誤的機器人。
“這種人機交互的實驗正是我們機器人專家應該研究的,”喬治亞理工學院電子與計算機工程教授艾安娜·霍華德(Ayanna Howard),“我們需要保證,當機器人處於能激發信任的情況下,如果這種信任對人類有害,那它們還應該要能緩和這種信任。”
在實驗中,只有當機器人在緊急情況下犯下非常明顯的錯誤時,參與者才會質疑它的指引。在這些情況下,有些參與者依然遵從機器人的指引,即使被引導至一個漆黑的、堆滿傢具的房間。
在未來的研究中,科學家希望了解更多有關機器人如此受到信任的原因。這種信任是否與教育程度的差異,或人口統計特徵的不同有關?以及,機器人自身是否能體現出它們應當受到何種程度的信任?
該研究其實是一項長期研究的一部分,后者涉及人類如何信任機器人,以及機器人在社會中扮演越來越重要的角色會生什麼樣的影響。研究者設想,可以利用放置在高層建築中的多組機器人,在緊急情況時指引人群撤離到緊急出口。已有研究顯示,人們在聽到火警鈴聲時並不會馬上離開建築物,他們有時會忽略沿途的緊急出口,而更傾向於走平時熟悉的建築物出口。
除了以上這些發現,研究者也在重新考慮另一個問題。“我們想提出這樣的問題,人們是否願意信任這些營救機器人,”瓦格納,“而現在更重要的問題可能是,如何防止人們過度信賴這些機器人。”
羅比內特稱,除了緊急情況,人機互動中還有其他許多有關信任的問題。“人們會信任一個提供食物的制漢堡機器人嗎?”他問道,“如果一個機器人身上的標誌寫‘兒童保育機器人’,那人們會把孩子交給它嗎?人們會將孩子交給一個自動交通工具,然后相信它會帶孩子去奶奶家嗎?我們並不知道人們為什麼信任,或者不信任這些機器。”(任天)
- 掌握全球財經資訊點我下載APP
文章標籤
上一篇
下一篇