探求真理 發展學術 服務社會
        歡迎訪問深圳市社會科學網 今天是

        學術研究

        基于人工智能的道德判斷規則

         日期:2021-04-22   來源:中國社會科學網-中國社會科學報

          人工智能的蓬勃發展,不僅是國家戰略,也是生活實踐的需要。在傳染病流行時,如果醫療機器人能夠輔助治療,比如遠程問診、智能送藥等,那么它必能在傳染病防治中保護醫護人員并節約許多資源。但如果機器人并非輔助治療而是擔任主治,根據其深度學習的診斷標準誤判了病況,并致使患者死亡,我們應該向誰問責?醫院、醫生、患者、家屬、制造商、銷售商、開發者還是機器人本身?

          以備受矚目的無人駕駛汽車為例,如果其處于一種必須做出選擇的經典道德情境中,即面臨一種需要“殺一救五(多)”的情境,比如前面有五位或者多位行人穿行馬路,需要做出決策:要么自動駕駛汽車轉向讓車和毀掉司機以保護行人安全,要么保全自動駕駛汽車以保全司機。經典研究發現,如果確實為了保護行人車毀人亡的話,人們只會將很少的道德責任歸咎于這輛無人駕駛汽車。大多數人認為就應該這樣做,但諷刺的是,大多數人也表示如果這樣就不會去購買這輛汽車。這便存在一個悖論,即希望人工智能做出功利主義決策,但在實際生活中又不希望它發生在自己身上。

          其實,人類并不希望人工智能輔助決策,當然也包括道德決策。各種研究表明,人類會對人工智能做出的決策產生厭惡。人們不喜歡人工智能在自動駕駛、法律、醫療和軍事方面做出與生死相關的道德決策,哪怕這些決策最終被認為是正確的,結果是好的、積極的。事實上,人類對人工智能在某種意義上存在道德規范上的歧視。究其原因,這可能是人類在對待人工智能時使用了人類的道德規則。那么,如何消除這種歧視,是否可以形成一套穩固的、不同于人類的人工智能道德規范呢?

          我們的研究早已發現,中國人偏好做出道德相對主義判斷。這是因為中國人具有一種樸素的辯證思想,即認為正反兩面都對的道德原則。這種思維方式容忍矛盾互斥的觀點同時存在,能夠消除人們處于道德兩難困境中的焦慮和不安。辯證思維與道德相對主義二者都有一個關鍵的特性,即對矛盾的包容。道德判斷過程中認為正反兩面皆對,且會隨著關系、環境的變化而變化的辯證思維方式,正是道德相對主義的表現。

          對于人工智能而言,能否形成一種不同于人類的道德規則?雖然人工智能的道德規則可能與人類現有的道德規則相抵觸,但人類依然可用道德相對主義的眼光去看待它,以解決人工智能的倫理決策問題。這是一種解決問題之道,但卻相當困難。心理學研究表明,在人類認知中,人們傾向于將人工智能當作孩子(甚至是不足4歲的孩子)來看待。而兒童正處于道德刻板之時,這也可以部分解釋為什么人類不希望人工智能來做出道德判斷,因為人類也不太希望由孩子來輔助他做出道德決策。

          一方面,兒童沒有能力做出道德相對主義判斷。目前的實證研究證據表明,道德相對主義傾向會隨著年齡的增大而變強。相對于兒童,成人更加傾向于道德相對主義。學生從七年級到大學階段,道德相對主義程度會逐漸提高。這可能是由于學生在這個階段要離開家人,他們要學習新的知識,獨立地生活,思維也變得更加靈活。有研究考察了5歲、7歲和9歲的兒童在道德、品味、事實以及模棱兩可的事實四個領域中,對不同命題所表現出來的相對主義程度。在每個領域的任務中,均向兒童呈現A和B兩個人對某一命題的判斷結果,且這兩種觀點是相互矛盾的。然后,研究者讓兒童進行判斷(如:你覺得A和B的說法只有一個人是正確的,還是A和B的說法都是正確的?)。結果顯示,在道德與事實領域,兒童更傾向于做出客觀主義判斷;在模棱兩可的事實領域,他們的相對主義程度較高;而在品味領域,選擇相對主義答案的人最多,且兒童年齡越大越傾向于做出相對主義判斷。還有研究讓4歲至6歲的孩子對道德問題、美學問題和常識進行對錯判斷,這個年齡段的兒童對于道德問題的判斷與后兩種問題不同,他們對道德問題會更加傾向于做出客觀主義判斷。還有研究者讓大學生判斷來自不同文化的兩個人針對“打人”這一事件的不同看法,其中一個人認為打人是對的,而另一個人認為打人是錯的。研究者提供給被試三個選項,分別表述了認同前者是對的、認同后者是對的以及兩者可能都對。結果發現,大學生更傾向于認為兩者可能都對,也就是更多地做出道德相對主義判斷。這些研究都表明,兒童更加傾向于道德客觀主義,而成人則更加傾向于道德相對主義,說明道德相對主義傾向會隨著年齡的增長而增強。

          另一方面,人類并不希望兒童做出道德相對主義判斷。皮亞杰關注道德發展,認為9歲至11歲的兒童處于道德發展的他律階段,在這一階段,兒童表現出某種形式的道德絕對主義,而到了自律階段后,兒童才有做出道德相對主義判斷的可能。柯爾伯格完善了他律和自律的區分標準,認為只用這兩級水平來解釋兒童的道德發展是不全面的,于是他便提出了新的道德發展階段論,即前習俗水平(兒童會先依據一定的規范來做道德判斷,進而發展到依據事情是否有利來進行道德判斷)、習俗水平(包含人際協調以及維護權威或秩序兩個階段,開始重視社會規范的作用)、后習俗水平(從社會規范發展到更多參考經由內化而形成的道德信念來做出道德判斷)。柯爾伯格的道德發展理論已經隱含道德相對主義的概念。在習俗階段,人們接受的是一般性的、具體的道德原則,受到外界的道德規范的約束。而發展到最后一個階段,當道德規則具有自主性時,這樣的道德規則合適與否完全是由人們自己進行判斷的。如果對這一階段進行界定,理應對應道德相對主義,只是柯爾伯格并未明確提出這一概念與研究問題。柯爾伯格的理論在某種程度上是實然的,但其實也是應然的,即某種程度上它提示人們,到了某個階段時就應該有某種道德發展的可能。按照這樣的邏輯,人類實際上并不希望兒童會做出道德判斷。

          將針對兒童的研究結果放在人工智能的討論中,可以推斷人工智能(現階段)沒有能力做出道德相對主義判斷,且人類也不希望人工智能做出道德相對主義判斷。換句話說,人類在心理上不希望人工智能根據不同于人類世界的道德規則來進行道德決策,人類自身同時也不希望人工智能秉持一種完全不同于人類的獨特道德規則做出行為。

          (本文系教育部人文社科基金青年項目“文化混搭與道德相對主義”(17XJC190001)、教育部人文社科基金青年項目“理性行動的認知規范研究”(19YJC720006)階段性成果) 

          (作者單位:湖北經濟學院馬克思主義學院;西安交通大學哲學系)