【“三大體系”建設】人工智能的倫理挑戰(zhàn)與科學應對路徑
日期:2024-10-30 來源:中國社會科學網
自2022年以來,生成式人工智能(AIGC)大模型推動了人工智能(AI)產業(yè)的爆發(fā)式增長,人工智能技術正在深刻改變并重塑經濟、社會。隨之而來的是人們對人工智能帶來的機會和風險的爭論。事實上,爭論可以還原到人工智能研究的核心問題,即新一代人工智能是否具有自主意識和倫理主體性,而這進一步關涉到人工智能未來會不會發(fā)展出獨立于人的自主個體,人工智能在工具價值之外是否具有倫理價值,人工智能立法的監(jiān)管對象是人還是人工智能本身。
人工智能是否具有意識?
大衛(wèi)·查爾默斯(David Chalmers)在20世紀90年代提出了所謂的“意識難題”。他關注到為什么大腦中的物理過程會導致主觀體驗“意識”,試圖理解這些大腦中的物理過程為什么會伴隨主觀體驗。腦科學和神經科學可以幫助我們理解大腦特定的機制和功能,如感知、記憶和學習,因為它們可以用標準的科學方法和涉及物理過程的解釋來解決。雖然我們可以描述與不同的主觀體驗相關的大腦活動,但這并不能解釋為什么這些活動會引發(fā)任何主觀體驗。“意識難題”涉及主觀體驗的內在本質以及為什么物理過程會產生“質”的體驗。這里解釋大腦中的物理過程如何產生主觀體驗的困難被稱為“解釋鴻溝”,這一鴻溝表明我們當前的科學理解不足以完全解釋意識,可能需要新的理論或范式來彌合這一鴻溝。“意識難題”還重新點燃了二元論(認為心靈和身體是分離的)和物理主義(認為一切都是物理的)之間的爭論。
“意識難題”也對發(fā)展有意識的人工智能提出了挑戰(zhàn)。雖然我們可以創(chuàng)建模仿人腦神經元學習行為的神經網絡系統(tǒng),但神經網絡的學習機理并沒有被完全理解和掌握,進而新一代人工智能是否已經具有主觀體驗或如何才能產生主觀體驗也沒能得到科學的解釋。
事實上,意識是一個復雜的概念,一般而言,意識被理解為個體對自我和環(huán)境的感知和認知,涉及到主觀體驗、情感、思維等多個層面,意識問題貫徹整個哲學和科學的發(fā)展歷程,至今并未有清晰的定義,對意識產生的機理很難在短期有重大突破。近年來,意識的神經科學和腦科學研究方面取得了很多進展,并產生了諸如“意識的信息整合理論”等,以試圖解釋意識的機制。但是我們不得不承認,意識問題仍然沒有完善的理論描述或科學的解釋,因此,我們也無法科學地判斷人工智能有沒有自主意識。
人工智能是否具有倫理主體性?
在倫理學領域,主體通常指能夠進行道德判斷和承擔道德責任的個體。倫理主體性意味著個體不僅能夠做出行為選擇,還能夠對這些選擇進行反思,并承擔相應的責任。倫理主體性的前提條件是自主意識,即個體具有自我意識和獨立決策的能力。但是通過“意識難題”的討論,我們認為對于人工智能是否具有自主意識的問題,當前無法給出科學的解釋,那么對于人工智能是否具有倫理主體性,同樣無法給出科學的答案。
然而從當前的人工智能應用來看,有兩點值得注意:一是人工智能系統(tǒng)是具有倫理屬性的,特別是生成式人工智能大模型具有一種倫理和價值的傾向,并可以做出倫理判斷。人工智能時代之前的工具和技術是完全按照設計者或應用者的設定執(zhí)行特定行動的工具,但是新一代人工智能具有了倫理判斷的能力,會拒絕執(zhí)行違反大模型的倫理傾向的指令。雖然大模型進行倫理判斷的能力源自算法和訓練數據,但是大模型是基于對模型應用者輸入的自然語言指令進行解讀并主動做出回應的,因而大模型具有倫理判斷和價值選擇的能力。
二是人工智能的倫理屬性歸屬于何主體?顯然現階段,在人工智能的倫理主體性得到科學的答案之前,人工智能的倫理屬性首先應該歸屬于其設計者和應用者,即主體人(或機構)。但是在意識問題和主體性問題得到科學的解決之前,從哲學上我們是可以直觀地認為大模型具有了一定的自主意識和自主的倫理判斷,所以應該承擔一定的倫理主體性責任。也就是說,在科學和應用領域,我們認為人工智能的倫理行為仍然只是設計者或應用者主體人的工具行為;但是在哲學領域,我們認為人工智能的行為既具有工具屬性,又體現了一定程度的倫理主體性,所以我們應該具有前瞻性地進行人工智能倫理的主體和主體的倫理規(guī)范研究。
人工智能倫理的主體涉及到模型設計者、模型應用者和模型自身三方,但是鑒于人工智能倫理主體性理論的不完備和法律體系的現狀,模型設計者和模型應用者是明確的立法監(jiān)管對象,模型自身并不具備理論和現實上的合法的、可監(jiān)管的主體地位。所以當前人工智能監(jiān)管對策可以從以下方面開展:一是在模型應用階段,應立法以規(guī)范模型,只能是合法合規(guī)的應用模型,并明確違法的責任,其監(jiān)管的對象是模型應用者;二是在模型設計階段,應立法以規(guī)范模型設計者在算法、訓練數據、模型服務等各環(huán)節(jié)都能符合國家、地區(qū)和國際組織的法律法規(guī);三是在人工智能研究階段,針對潛在的“人工智能自主意識”帶來的倫理問題,需要在法律、倫理和技術層面采取多方面的對策,規(guī)范并促進對人工智能技術進行可控的前瞻性研究,對具有自主意識的人工智能系統(tǒng)的倫理主體性和倫理規(guī)范進行研究。前兩點關注的是在現有以人為主體的倫理和法律體系的范圍內對人工智能的設計和應用進行規(guī)范;最后一點關注的是進行人工智能倫理的主體性研究,并在此基礎上進行人與人工智能的關系研究,探討人工智能主體與當前以人為主體的倫理和法律體系的融合拓展路徑。
【本文得到西南民族大學中華民族共同體研究院資助(項目編號:2024GTT-WT01)】
(郭玉山,西南民族大學哲學學院,阿壩師范學院馬克思主義學院;段吉福,西南民族大學哲學學院院長、教授)