自動駕駛汽車(autonomous car)能夠取代人類駕駛嗎?這個問題,不是在問技術上能否辦到,而是在問是否應該讓 AI(人工智慧)全權掌控汽車、做出道德決定——前方有三個老人、兩個孩子、一個孕婦,非得選一組時,自駕車應該撞誰?這個典型的「電車難題」(註),是目前自駕車各種倫理討論的核心,甚至有不少論者認為,如果自駕車無法處理這種道德困境,那麼自駕車就不應該發展或上路。這種討論方向不能說錯,但其實幫助不大、甚至略嫌誤導。
我們常常認為,科技不應該犯錯,會出錯的科技就不應該採用。這就是為何,一旦自駕車出車禍撞到人,媒體往往大肆報導,視為自駕車危險的明證。然而,真正的問題,不在於科技是否會犯錯,而在於科技是否比人類更不會犯錯。換句話說,面對「應該撞誰」的道德難題時,我們應該看的是:自駕車能比人類做出更好的決定嗎?正是在這一點上,用電車難題來做比擬,其實頗有問題。原因是,電車難題不是突發事件,我們有時間考慮,但行車中眼前突然出現人影往往只有幾秒鐘,時間少到駕駛根本來不及做決定。有車禍經驗的人一定曉得,在車禍當下,我們根本還沒做出決定,就已經撞上了——事後多數駕駛都會說:當時腦中一片空白。
自駕車不會一片空白,它持續計算、找出最小傷亡。在這一點上,就算自駕車無法做出比人類更好的決定,但至少不會比人類差,畢竟人類很多時候其實連決定都沒做。能夠計算傷亡的自駕車,說不定還能讓你比任何駕駛都更道德。很多人都同意,犧牲自己搶救多數人或老弱婦孺是一種極高的美德,但我們必須承認的是,這非常難做到(要不然犧牲自我就沒什麼好歌頌的了)。自駕車可以幫忙——它可以選擇鎖死輪胎,不撞到其中任何一組人,但讓你傷或亡。自駕車反而可以幫助人們克服面臨道德抉擇時的軟弱和躊躇。問題是,這種車子根本賣不出去:MIT 的調查顯示,多數人希望自駕車盡可能降低傷亡人數,但又希望他們的自駕車不計代價保護駕駛。我們應該細想,問題究竟出在科技還是人類?
自駕車最難應對的情況,其實跟人類駕駛最難應對的情況一樣,就是那些突然衝出的路人或車輛。他們的「突然衝出」,往往是因為違反交通規則。換句話說,自駕車面對的道德問題之所以難以處理,經常是因為那個問題本身就是已經錯誤行為的後果,而無關於自駕車有無能力做出正確決定。自駕車依賴的是規則(演算法),它的最大效用必須在一個其他事物都遵守規則的環境中才能體現。就像車輛能夠成為我們主要的交通工具,並不是因為它們本身能夠通行無阻、翻山越嶺,而是因為我們在各種地方鋪設了足夠平坦的道路。要討論自駕車是否犯錯,不能只看自駕車本身,也必須看到它的運用情境。
一方面,人類不見得比自駕車更能應付他人違規造成的突發狀況;另一方面,困境的根源在於不守規則的人類,而不是自駕車本身。我們常常覺得自駕車難以應付當前複雜的交通情況,是因為我們想像的情境,常常是一台自駕車在「目前的」交通環境中行駛,而這種交通環境充滿各式各樣不按規定行事的路人和駕駛。不難想像,如果路上的多數車輛都是自駕車,車與車的車禍一定會大幅降低。同樣地,如果有任何新創科技幫助行人不違規穿越馬路,車與人的車禍也會變得少之又少。再一次,問題多半在人類,而不是科技。只看到和挑剔科技的不完美,卻忽略人類犯下的各種錯誤與責任,其實無濟於事。
因為自駕車難以做出令人滿意的道德抉擇,所以拒絕或抗議自駕車的發展與上路,實際上見樹而不見林。只要自駕車能比人類犯下更少錯誤,我們就應該支持、採用、或者接受。指責自駕車造成傷亡(即便非常少數),或者糾結自駕車可能面對的道德困境,往往忽略這樣的指責或糾結本身很可能正是最大的倫理問題:捨棄足以大幅降地車禍死傷的科技方法,任由當前以人類駕駛為主的龐大肇事數量持續下去。
註:電車難題是倫理學的思想實驗,假設你看到煞車失靈的有軌電車,即將撞上前方軌道上的 5 名工人,而旁邊的分支上只有 1 名工人,如果你什麼都不做,5 人會被撞死。你也可以按下手邊按鈕,讓車電轉軌駛入分支,撞死 1 人。你是否應該犧牲 1 人拯救 5 人?此實驗主要探討功利主義與道德義務論的見解。
※本文(不含圖片)原刊登於《週刊編集》第 21 期,2019.03.10