2014-06-27

當機器變得像人:人類如何看待家用機器人(下)

沒有留言
前文提到,當機器人進入家庭之中,由於人類與之互動的的情境與機會大幅增加,因此即使這些機器人明顯不夠具有自主性、也不類似於人類——它們不是電影〈變形金剛〉裡的那種「機器生物」——人們依然傾向將它們視為「獨立生命體」。這使得家用機器人有很大的機會被視為正式家庭成員之一,因為一旦把機器人看成擁有獨立生命,人們就容易與其建立「情感關係」。一般論者認為,這有助於機器人「打入」家用市場,獲得更高的採用率與使用率。不過,這或許也會帶來倫理上的挑戰。首先本文列舉幾個人類與機器情感關係的例子,接下來指出此一現象帶來的隱憂,最後再提供一些可能的解決方案。

○ 本文供稿【科技部.科技大觀園】:連結

Robot Ethical Issues and AIBO
AIBO (Photo credit: James Maskell, CC BY-NC-SA 2.0 )

人類與不像人的機器人真的可以建立情感關係嗎?讓我們來看幾個例子。有一種多腿的「掃雷」機器人,其運作方式是透過用這些「腿」去踩踏地雷,藉由「犧牲」腿來觸發地雷並使其失效。在測試階段,這個機器人運作良好,接連找到許多地雷,也報廢了好幾隻腿。然而,就在任務完全結束——機器人的腿全部「用掉」——之前,操作員決定停止繼續遙控機器人。為什麼?原因是,操作員無法忍受持續看到機器人用僅剩一條腿「拖行」的畫面,也覺得在讓機器人「失去」最後一條腿過於慘忍。換句話說,一種感情關係——同情——在掃雷機器人與人類操作員之間建立了起來(Garreau, 2007)。

在機器小狗 AIBO 上,這個現像更為明顯,即使 AIBO 的實際外觀相當「機械化」。研究者檢視網路上 AIBO 使用者社群的貼文,發現使用者的遣詞用字透露出一些傾向:第一,經常會描述 AIBO 動作帶有「情感」,例如「牠沮喪地低下頭」;第二,不把 AIBO 視為技術產品,而是真正的寵物,例如「牠是我的寵物,不是什麼很酷的科技玩物」,甚至有人會說「我很抱歉今天踢到牠,牠一定很痛!」(Kahn, Friedman, and Hagman, 2002)。即使是相當習慣以「機器」的角度來處理與談論機器人的機器人學家,仍然不可避免地——但通常是無意地——使用某些情感或情緒字眼來形容他們正在研發的機器人,彷彿這些機器人真的具有「靈魂」一樣(Scheutz, 2002)。這些都意味著,人類對於機器人具有某程度的「同理」,也因此會以情感的方式來理解機器人、以及建立與機器人的關係。

當機器人越來越容易讓人類與之建立情感,我們不得不注意隨之而來的危險。例如,由於機器人或寵物不像一般人類會對我們的要求提出反駁與反抗,因此在未來,我們很可能寧願與機器人相處而不願意和真實人類交往,或者我們寧可以要一隻不需要花時間訓練便溺行為的機器寵物而不要一隻真的小狗或小貓。換句話說,人類與機器人或寵物的關係,很可能威脅到人類與真實人類或寵物之間的關係。另一方面,科技社會學家 Sherry Turkle 曾經出書討論,認為當代社交媒體科技雖然讓我們便於聯繫彼此,但實際上卻讓我們活在自己的小世界,缺乏與真實人類面對面的相處,反而是被科技圍繞(Turkle, 2012)。

在 Turkle 的說法裡,科技尚且是個「媒介」,因此我們不難想像,一旦科技確實成為相處的「對象」——就像(未來的)家用機器人——我們又會如何將自身隔離於真實關係。除此之外,我們對於機器人投射情感,很可能讓我們信任機器人遠超過信任人類,因為我們通常不會假設機器會騙人。這將導致未來的「銷售人員」或「法庭證人」可能多是機器人且鮮少人類,但我們卻對於機器人可能內建「詐騙」機制未有所覺。實際上,人類具有同理心的情感特質,正是減緩人類詐欺行為的機制之一,因為我們能夠設想「如果自己受到欺騙感覺如何」,然而這種心理機制在機器人中可以說完全沒有,因此反而更容易提供長機器人「不誠實」的可能性。

How to know which on is the real human being?
美劇 Almost Human 海報:猜猜哪邊是人類?
(Photo from here

那麼,要如何避免這個趨勢?機器人學家 Matthisa Scheutz 提供了幾個方案。(一)嚴格地把某些道德價值「寫入」機器人的程式當中,例如「誠實不說謊」。不過,這可能遭遇倫理學一直以來的重大困擾——道德價值排序問題:你讓猶太人躲藏在你的家中,但當納粹敲你家門追問是否藏匿猶太人時,你應該說謊救人還是據實以告?(二)讓機器人與人類同樣具有同理心,因此會「設身處地」感到違反道德價值的罪惡感,因而避免犯下諸如欺騙的行為。這或許是最為理想的狀況,不過以目前機器人學的發展狀況來看,這個方案或許仍需要一段不短的時間才可能實現。

目前最為可行的方案是(三):在設計時,不只盡量避免擬人化,更要賦予機器人某些足以提醒人類「我是無生物」的特徵。透過這樣的方式,盡可能避免讓人類不自覺地與機器人產生情感關係,從而避免相關倫理疑慮。總之,不論是以何種方式,現在已是必須思考這些問題與採取相關行動的重要時刻,唯有審慎因應可能的未來,才有可能擁有一個理想的未來。

參考書目:
  • Garreau, J. (2007, May 6). Bots on the Ground. The Washington Post.
  • Kahn, P. H., Jr., Friedman, B., & Hagman, J. (2002). "I Care About Him As a Pal": Conceptions of Robotic Pets in Online AIBO Discussion Forums. In CHI '02 Extended Abstracts on Human Factors in Computing Systems (pp. 632–633). New York, NY, USA: ACM.
  • Turkle, S. (2012). Alone Together: Why We Expect More from Technology and Less from Each Other (First Trade Paper Edition edition.). New York: Basic Books.
Alone Together: Why We Expect More from Technology and Less from Each Other
到博客來買這本書
沒有留言 :
張貼留言