跳到主要內容區

[110-2 訪談] AI在社會與倫理的應用

戴遠雄

受訪人:哲學研究所 戴遠雄教授
經歷:
比利時荷語天主教魯汶大學哲學博士
香港恒生大學社會系講師
國立中山大學哲學所約聘教授
專長:
現象學、政治哲學
 
訪問組別:第 11 組
訪問組員:
    鄭宗韜     B093040056
    蘇子菱     B073100001
    王賴均維    B073022044
    吳泓愷     B081030008

   訪談內容   

1. 這禮拜教授的人工智慧概論課程,將會向同學們分享哪些東西?

  這禮拜要介紹的是關於人工智慧的倫理,主要在探討現今在社會上應用人工智慧相關產品時,若出現了意外,究竟是誰要負責呢? 這個問題中有一個更重要的問題,那就是人工智慧是否需要被視為一個能被道德規範所束縛的一個對象。舉例來說,人類在開車的時候會自己注意四周的情況,就算出了意外也是開車的人負責。但是有了人工智慧的輔助,人類就會變得比較鬆懈,這時候若是不小心撞到了別人,肇事責任就會很難釐清,這時不只是消費者抑或是生產的公司,連同政府都須要有配套措施,才能夠讓這個社會不會因為人工智慧的普及而產生更多的問題。

 

2. 老師是因為什麼契機去用哲學與AI做結合來研究

  我是研究當代歐洲哲學特別在法國、德國,一直以來以技術和科技為核心主題,因為科技在十八、九世紀工業革命後比較主要的議題。我不懂在AI技術方面的研究,從哲學角度比較像是分析AI帶來的影響並從中評估他的影響是好是壞,若是負向的需要用什麼法律、措施、政策來避免、減輕其帶來的後果。從哲學角度比較是分析AI思考模式的特性以及帶來的影響。

 

3. 想知道教授對於AI做選擇後誰該負責任的問題的想法。

  我認為有負責任要分為3個層面。

    第一, 使用者,在AI應用上面使用者對於這個他所使用的AI系統的運作邏輯是否了解才能談他該不該負責。

    第二, 公司,把這個技術發行到大眾給大家使用的發行者或公司該負責。

    第三, 政府,有沒有一個機構、組織去監控這個技術是否已經成熟可以開放給大眾使用。

 

4. 若有一個行為模式無限接近於人類的AI,我們究竟會將它分類為人類還是機器人?

  我認為這個問題可以從人的定義去思考,真實的人是非常複雜的,那包含什麼樣的條件我們稱之為人。目前A I能做到的是將情感變成指數,然而仍無法自然地做出反饋的動作。例如有些和時間有關的情感,可能是內疚感或是羞愧的情緒,都是人工智慧人難以模仿的,頂多具備某些回憶或知識。舉例來說,有人在10年前騙了朋友一大筆錢,也許當時是為了應急,但隨著時間對朋友的愧疚感也會越來越深,如果後來知道這筆錢是朋友中樂透得到的,那我們會不會少一點愧疚感;又如果朋友因為被騙這筆錢而家道中落,是否會加深罪惡感,這些就是機器無法去判斷的,也不會產生的情感。因此我認為AI不會成為人,而是作為另外一種物體。就像是電影中的異形(alien)一樣,為什麼人類會傾向把它刻畫為形貌恐怖的外來物種,因為作為目前主載地球的人來說,地位是可能受到威脅的,基於這樣害怕的心態,我們才會存在這個是否會被取代的問題。

 

5. 請問教授對於電車難題(Trolley problem)在AI方面的看法。

  相信大部分同學都聽過這個東西但是不一定知道是什麼。簡單來說這問題就是一輛失控的列車在鐵軌上行駛。在列車正行進的軌道上,有五個人被綁起來,無法動彈。列車將要碾壓過他們。你站在改變列車軌道的操縱杆旁。如果拉動此杆,則列車將切換到另一條軌道上。但是,另一條軌道上也有一個人被綁著。你有兩種選擇:

 1. 什麼也不做,讓列車按照正常路線碾壓過這五個人。

 2. 拉下操縱杆,改變為另一條軌道,使列車壓過另一條軌道上的那個人。

因為近期自動駕駛技術逐漸成熟,所以這個問題也被放在自動駕駛汽車上的主要關注的哲學問題。 這個是一個假設出來的情境的題目是設計來讓人來通過這個問題來思考人命的價值。 如果是按照人數來衡量人命的價值的話,我們就該選擇犧牲5個人來救車上的很多人。這種思考方式被稱為效率主義。主張這種效率主義的人會認為人命是人數來決定的。 但是還有另外一種說法是所有人命的價值都是一樣的,不能說5個人的損失比較少500人的損失比較多因為每個人都有自己的無法替代性(irreplaceability)。舉一個簡單的例子來說,你對你的父母或你親近的人來說你不是一個人的人命價值這麼簡單而是他們的全世界所以不是數量的問題。所以不同立場的人或不同思考模式的人來說都會做不一樣的選擇因為每個人對人的價值的看法不一樣。 回到我們的主題如果這個問題放在AI身上它該做出什麼選擇。AI它是否會和人一樣明白人的價值然後在做出選擇。最後負責任的問題如果這種事情發生在AI上是誰該負起這個責任。 第一,AI有沒有能力理解這些倫理道德的難題背後的假設,背後合理的理由可以有多少種然後在對于這些的認識去做出選擇。簡單來說就是這個AI系統到底他有沒有人一樣的能力理解如何衡量人命的價值不同的模型不同的理由背後是什麼。其次它會怎麼做選擇它會怎麼解釋他的選擇和它會怎麼負責。我對AI要做出的選擇的想法是把大多數人會做的選擇的模型給AI所以他可能就會根據模型來做出選擇然後他會怎麼解釋,他有沒有愧疚感。他會如何把這個愧疚感或傷感推動他去做某一些行動。例如之前的普悠瑪事件所帶來的傷心或其他的感覺使人去立法監控的法律或之類的。

 

   與教授合影   


G11   

 

 

 

 

瀏覽數: