国产一区二区三区在线-国产一区二区三区在线观看免费-国产一区二区三区在线观看视频-国产一区二区三区在线看-国产一区二区三区在线免费

網站首頁 | 網站地圖

人民論壇網·國家治理網> 前沿理論> 正文

人工智能價值對齊困難及其實現路徑探析

摘 要:迅猛發展的人工智能技術正在快速融入當今社會生產與生活的眾多領域,進而催生了價值對齊難題。如何促進科技向善,確保人工智能技術與人類價值觀念、倫理原則和真實意圖相一致,是科技倫理治理的一個重要目標和前沿議題。人們價值觀念、現實需求以及所處地位境遇等方面的差異性和動態性,導致對待人工智能的態度和價值訴求不盡相同,這是實現價值完全對齊的困難之源;同時,眾多差異化價值訴求中也包含著諸多相同或相似的內容,又存在達成“妥協”的可能,這是實現價值部分對齊的現實基礎。人工智能價值對齊是一個包含“一次對齊”和“二次對齊”,從“部分對齊”趨向“完全對齊”的演進過程,也是當今科技倫理治理的重要戰線,離不開政府、產業界、科技界、理論界乃至社會各界的互動協同和相向而行。

關鍵詞:人工智能 價值對齊 科技倫理治理 實現路徑

【中圖分類號】G206.2 【文獻標識碼】A

作為人工智能(Artificial Intelligence,簡稱AI)技術的核心,大模型強大的數據處理和學習能力引發了當今諸多社會領域的變革,通用人工智能(Artificial General Intelligence,簡稱AGI)曙光初現,將人類帶入了數智化時代。以DeepSeek、ChatGPT為代表的生成式人工智能迅速崛起并得到推廣應用,它不僅遵循“智能邏輯”,對社會生產、生活帶來顛覆性和革命性的影響,而且從根本上重塑人本身。[1]如何確保人工智能系統行為與人類價值觀念、倫理原則和真實意圖相一致,避免產生有害或誤導性輸出,即實現與人類的價值對齊,已成為政策制定者和學術界、產業界關注的焦點和亟待解決的問題。價值對齊既是技術進步的內在要求,也是確保人工智能技術安全、可靠、可控的關鍵所在。本文擬就人工智能價值對齊的哲學淵源、面臨的困難及其實現路徑展開初步探討,為人工智能的持續健康發展提供有益思考。

價值對齊概念及其演變

盡管“價值對齊”是一個新概念和新議題,但對于機器人威脅、機器人要符合人類價值導向等問題的探究已有較長歷史。艾薩克·阿西莫夫(Isaac Asimov)1942年提出的“機器人三定律”,[2]可視為最早的人工智能價值原則,在一定程度上體現了“人工智能要符合人類價值觀”這一基本導向。1960年,“控制論之父”諾伯特·維納(Norbert Wiener)討論了限制機器固有目的的必要性,強調機器的發展需要與其性能發展同步。他指出,“我們最好確保機器的用途是我們真正想要的用途”[3],確保機器執行的目標符合人類的真正需求。這被認為是對價值一致性的最早描述之一,標志著機器倫理和風險防范正式進入科學家視野,并在多學科領域蓬勃發展。[4]

2016年,哈德菲里德·邁內爾(Hadfield-Menell)等人明確提出了“價值對齊”(Value Alignment)的概念和問題,即“確保人工智能系統在追求其特定目標的過程中,能夠最大限度地符合人類用戶的真實意圖。”[5]此后,價值對齊問題逐漸成為人工智能領域的重要議題,特別是隨著生成式人工智能的快速發展,大模型經常輸出與用戶意圖及人類價值觀相悖的內容,甚至對人類核心價值觀帶來影響和沖擊。在此背景下,確保人工智能模型能夠輸出符合人類價值體系的“人工智能價值對齊”問題成為當下人工智能領域的關注焦點。2017年,由生命未來研究所(Future of Life Institute,FLI)協調制定的具有廣泛影響力的阿西洛馬人工智能原則(Asilomar AI Principles),明確將“價值對齊”作為原則之一,提出“對于高度自主人工智能系統的設計,應確保其目標和行為在整個運行過程中與人類價值觀相一致。”迪格納姆(Dignum)也明確提出,“人工智能應該以人類福祉為中心,并與社會價值觀和倫理原則保持一致。”[6]拉塞爾(Russell)和諾維格(Norvig)強調,“我們需要發展可證明符合人類價值觀的智能,而不僅僅是追求純粹的智能。”[7]產生這一問題的根源在于:雖然人工智能系統能夠按照人們給定的目標行事,并大幅提升生產效率,但很難同步準確遵循人類重視和關心的安全性或道德約束等社會文化規范,時常出現不符合人類主流價值觀甚至危害人類生產與發展的多種情況。人工智能與其他任何“屬人的”科學技術一樣,都植根于人類實踐活動的需要,都要服務于人的解放、自由全面發展的價值目標[8],也必須與人類的價值觀對齊。這就像人類幼童經歷的社會化過程一樣,不同幼童的成長和輸出機理猶如一個“黑箱”,家長和老師只能通過結果來判斷教育是否有效和妥當。幼童是否應與成人社會主流價值對齊?是否能夠對齊?這在本質上雖然與人工智能價值對齊是同一命題,但人類的答案天然是肯定的——盡管個體社會化的結果千差萬別,但無論是知識還是價值觀,對齊都是現實的選擇。

同樣,從技術視角來看,基于人類反饋的強化學習(RLHF)、“憲法性人工智能”模式、對訓練數據的有效干預以及對抗測試等技術,在實現價值對齊過程中發揮了一定作用,但人工智能系統的運行和內容生成過程仍屬于“黑箱”。人類社會對人工智能系統的底層邏輯和運作機理仍缺乏深入而充分的認識,以大數據和深度學習為基礎的人工智能系統出現了不可解釋和不可理解難題,甚至還出現神來之筆的“幻覺”。這就導致從技術層面實現價值對齊的諸多努力往往低效和存在局限。

追根溯源,這些技術路徑都離不開設計人員、研發人員和使用人員的認知和價值評判。面對人工智能技術不可解釋和不可理解難題的困擾,從技術上實現價值對齊路徑的實際效果有限,有“治標不治本”之嫌。這里需要指出的是,從表面上看,雖然實現價值對齊最終都可以歸約為一個“如何做”的技術問題或策略問題,但從本質上講首先需要澄清“是什么”和“為什么”的價值論問題,勢必關涉人們對人工智能價值本身及其對齊訴求的理解與追溯。只有在澄清價值對齊本質的基礎上,才能更好地探尋實現價值對齊的路徑與方法。事實上,從語義學視角來看,“價值對齊”中的“價值”意指人們的價值觀、價值判斷和價值標準等。所謂“對齊”就是要求內置或固化于人工智能系統中的價值意向、代碼及其標準等始終與人類保持一致, 人工智能系統生成內容的價值觀與人類價值觀相一致。[9]這里我們需要追問的是:人類的價值觀、價值判斷或價值標準本身是否就是一致的和穩定的?如果人類的價值觀、價值判斷或價值標準本身就不一致或是處在頻繁變動中,那么所謂的“價值對齊”是與哪些人或哪個階段的價值觀、價值判斷或價值標準對齊呢?這種對齊又是何種意義上或程度上的對齊?其合理性、合法性何在?

價值論研究表明,價值性是人的基本屬性,具有較強的主觀性、動態性、差異性和復雜性,受到歷史、地域、文化、族群、階層、教育程度、工作崗位、問題情境等多重因素的復雜影響。在社會實踐活動中,不同語境下人們的訴求或意愿不同,他們的價值觀念、價值判斷、價值標準和行為方式也往往各不相同,甚至同一個人在不同時空場景下對于同一個事物的價值判斷也是有差異的,從而演變為催生眾多社會矛盾或沖突的價值論根源。同樣,人們在人工智能系統的目標、功能、算法等方面的訴求及其程度也各不相同,因而在價值判斷和價值標準問題上往往難于達成共識,所謂的“價值完全(或絕對)對齊”訴求難以順利實現。這就是由人們價值觀上的分歧或對立而引發的對齊困難。

技術的價值負載

技術就是為了滿足人們的種種需要而創造的工具、方法、流程及其知識體系,可理解為圍繞“如何有效地實現目的”的現實課題,人們后天不斷創造和應用的目的性活動序列、方式或機制。從石器時代的簡單工具到現代社會的空間站、互聯網、人工智能等復雜工具,技術上的每一次飛躍都是人類智慧與創造力的結晶。技術是價值中立的嗎?這是科學技術哲學中被經常提及的一個重要話題,受到廣泛關注和討論。筆者持價值負載論立場,因為技術是人類意向性的產物,它的創造與應用并非孤立于社會之外,必然會受到特定歷史時期的社會文化、經濟制度、政治環境等多重因素的影響,從而被注入研發者、使用者等多方的價值觀念或意識形態訴求,承載著豐富的價值內涵,深刻地影響著人類社會的倫理觀念、經濟結構、文化形態乃至政治格局。

在價值負載論看來,技術性與價值性是人的基本屬性,技術并非價值中立,而是負載著倫理、道德、文化、經濟等多重價值,體現在技術的設計、研發、應用及其后果等各個環節。例如,一項旨在提高人類健康水平的醫療技術發明,其高昂的成本可能加劇社會不公平,還會加快老齡社會的來臨等;一項有助于環境保護的綠色技術的推廣應用,可能引發就業結構的變化和社會經濟利益的重新分配等。因此,技術的價值負載是技術與社會互動建構的結果,可以從多個維度展開分析。

從倫理維度來看,技術是聯系研發者、生產者及其產業上下游、使用者、生態環境等多方的紐帶,其倫理價值負載最為直觀且引人關注。僅就當代生物技術、基因編輯、人工智能等高新技術的快速發展而言,就催生了一系列復雜的倫理難題。例如,克隆人技術的倫理爭議、基因編輯嬰兒的道德邊界、自動駕駛汽車交通事故的責任厘清等問題,都迫使人們必須重新審視技術的倫理界限。要求技術的發展應當尊重生命、維護人權、促進公平正義,避免成為侵犯人權、加劇社會不公的工具。

從經濟維度來看,技術是推動經濟發展的重要動力,其價值負載也體現在對經濟結構的重塑和利益分配的影響上。一方面,技術創新能夠創造新的經濟增長點,提高生產效率,促進產業升級。例如,綠色技術創新能夠促進產業的生態化改造,節能降耗,推進生態文明建設。另一方面,技術變革也可能導致傳統產業的衰落,引發失業潮,加劇貧富差距乃至社會動蕩。因此,在推動產業技術革新的同時,還必須關注其經濟社會影響,并及時采取有效措施,消解技術變革帶來的負面效應,實現經濟社會乃至生態環境的持續健康發展。

從文化維度來看,技術既是物質文明的產物,也是精神文化生活的重要載體。隨著互聯網、人工智能等高新技術的普及和全球化進程的加快,技術正在以前所未有的速度重塑人們的思維方式、生產方式、生活方式和交往方式,進而對傳統文化產生了深遠影響。一方面,技術為文化傳播提供了更加便捷、高效的渠道,促進了不同文化之間的交流與融合,展現出越來越強大的文化紐帶功能。另一方面,技術也可能導致文化同質化、娛樂化以及文化沖突等新問題,威脅到文化的多樣性和獨特性。因此,在技術創新過程中,應尊重和保護文化的多樣性,促進文化的協調健康發展。

從政治維度來看,技術還負載著政治價值訴求,扮演著意識形態角色。在智能化時代,技術已成為國家競爭力的重要體現,掌握核心技術是維護國家安全的關鍵環節。同時,技術也成為政治斗爭的重要工具或手段,網絡攻擊、科技戰、信息戰、輿論戰、認知戰等新型安全威脅,無一不是以新技術為載體或內容的。因此,技術創新必須堅持總體國家安全觀,服務于國家利益和人民福祉,加強技術創新和安全管理是維護國家安全和社會穩定的重要基石。

以ChatGPT為例,自它推出以來,就不斷有靈魂拷問——ChatGPT是價值中立的嗎?雖然它標榜中立,但大量研究和證據表明,ChatGPT的意識形態傾向和政治立場極其鮮明。事實上,不僅是ChatGPT,很多類似的大模型都存在較強的價值偏見。美國華盛頓大學和卡內基梅隆大學研究團隊的測試表明:人工智能語言模型包含不同的政治偏見,ChatGPT和GPT-4是最左翼的自由主義者,而Meta的LLaMA是最右翼的威權主義者;與GPT系列相比,谷歌發布的BERT及其變體模型在社交方面更為保守。此外,預訓練語言模型中確實存在著強化預訓練語料中的政治極化偏見,并將社會偏見傳播到仇恨言論預測和誤導信息檢測之中。[10]其實,追求“中立”或“多樣性”本身也是一種價值對齊行為。概言之,承認技術尤其是人工智能技術負載多重價值,既是實現價值對齊的基礎與前提,也是一個無法回避的現實問題。為此,應具體分析不同人工智能大模型、用戶群體和應用場景等條件下的復雜價值關系,在有關各方之間求取現階段的價值共識,即最大的價值公約數,進而為實現價值部分(或相對)對齊創造條件。

實現價值對齊的技術路徑與社會機制

在人工智能研發實踐中,通過基于人類反饋的強化學習(RLHF)、有效干預訓練數據和對抗測試等技術方法,可實現人工智能價值的部分對齊。[11]這些方法在模型訓練和優化中扮演著不同的角色,有助于模型的行為與人類價值觀和期望保持一致。其中,基于人類反饋的強化學習(RLHF)的基本思想是通過收集人類對模型輸出內容的種種反饋,并以此構建獎勵信號來改進和優化人工智能模型的性能[12],有利于減少模型的偏見,增強其安全性,并顯著減少人工智能模型將來產生有害內容的可能性。[13] “憲法性人工智能”模式由Anthropic團隊提出,是在無人類反饋條件下完全基于模型訓練途徑實現人工智能大模型的價值對齊。其基本思想是通過研發一個從屬的人工智能模型來評估主模型的輸出是否符合特定的原則或規范,并將評估結果用于優化主模型,旨在將價值對齊從低效的“人類監督”轉向更高效的“規模化自動監督”。鑒于人工智能大模型的很多問題(如虛假回答、偽造內容、偏見、算法歧視等)來源于訓練數據,因此對訓練數據進行有效干預也是實現價值對齊的一條重要路徑。主要包括對訓練數據進行記錄以識別問題,通過人工或自動化方式篩選、檢測以識別和消除有害偏見,構建價值對齊的專門高質量數據集等。“對抗測試(或紅隊測試)”是指在大模型發布之前,邀請內部和外部的專業人員對該模型進行多種多樣的全方位對抗性攻擊,以發現潛在問題并加以解決,以便在該模型推廣應用之前彌補可能的缺陷或短板等。

盡管這些技術方法在實現人工智能價值對齊過程中存在著許多缺陷,但不可否認的是他們確實也發揮了一定的積極作用。此外,社會機制的設計與建構也同樣重要,使社會機制與技術手段匹配和協調,將不斷提高對齊程度。在現實生活中,人們總是會遇到各種各樣的矛盾,求同存異、和而不同是社會發展的一種正常狀態。在人工智能系統評價上的種種分歧或矛盾也是類似的,既有對立性也有同一性。人們在人工智能系統價值訴求上的分歧,并不能抹殺和掩蓋其中所包含的諸多共識或共同的利益訴求,后者正是實現“價值部分(或相對)對齊”的基本前提和現實基礎。這也是學界廣泛討論和追求的普世價值、共識價值、共同價值、全球倫理的具體表現。[14]

從科技倫理治理實踐看,人工智能的價值對齊主要是在兩個層面或分兩個階段推進的,即人工智能技術研發層面或階段和人工智能用戶層面或推廣應用階段。在人工智能技術研發層面或階段,由于研發者對人工智能技術本身及其危害的認識或預見比較深入細致,更容易快速達成共識,可稱為內部共識。這也是近年來人工智能領域之所以率先出臺人工智能技術標準、行業倫理規范的原因。[15] 然而,在人工智能用戶層面或推廣應用階段,受人工智能技術門檻和社會分工的限制,社會大眾對人工智能技術本身及其危害知之甚少,往往需要經歷一個較為漫長的認識過程才能形成共識,且彼此之間的認知差異較大,可稱為外部共識。這就是人工智能價值判斷上的差異性。

一是研發階段的“一次對齊”。不難理解,在人工智能技術研發層面或階段,以人工智能系統的新功能和高效率為主要目標,以人工智能技術系統的設計和研制為核心任務,技術人員之間彼此協作、頻繁互動。這一階段的價值對齊以內部共識為基礎,以研發者認同的法律和公序良俗為底線,以倫理秩序或道德原則為努力方向,賦予人工智能技術系統相關價值規范或評價標準,可稱為“一次對齊”。該過程受制于人工智能技術的研發進程。荷蘭學派的道德物化理論正是在這個意義上展開的。[16]在“一次對齊”階段,盡管研發者考慮了多種可能的使用場景及其用戶需求,但多屬理想化、類型化的虛擬情境,與實際應用情況差距明顯,難免百密一疏,加之,研發者本身的認知水平和價值訴求存在偏差,不可能包辦或完滿實現價值對齊任務。

二是應用階段的“二次對齊”。在人工智能用戶層面或推廣應用階段,多種多樣的使用場景及其千差萬別的用戶類型和需求,促使人工智能系統的局限性、消極影響以及潛在風險充分顯現。廣大用戶的切身感受和迫切期望有助于人工智能技術改進以及應用規范的建構,可稱為“二次對齊”。該過程受制于人工智能技術推廣應用進程以及廣大用戶的認識過程。在此,“二次對齊”主要有兩條實現路徑:一是通過向研發者反饋意見的方式,將用戶的感受與建議轉化為新的技術設計或改進方案,重塑價值標準或評判規則,推動人工智能技術改進和迭代升級,可稱為“內化”途徑;二是通過與科技界、產業界、政府機構等部門之間的廣泛交流、反復磋商,為人工智能技術的推廣應用制訂社會規范或守則,促使人工智能技術向善,可稱為“外化”途徑。當然,這里的價值對齊過程是開放的,需要學習和借鑒國內外乃至其他行業的先進經驗,不斷創新和改進價值對齊的機制和模式;同時,價值對齊也不是一次就能完成的,而是伴隨著人工智能技術發展和社會變遷分階段持續推進的,不同國家、地區或行業的對齊進程各有特色,總體上展現為滾動遞進的進化態勢。

這里需要強調的是,在現實生活中,人工智能技術的價值對齊是在時代、資本、權力、欲望、競爭和文化等多重社會因素的影響下展開的,既是多方共識的形成和實現過程,也是多方訴求與力量的博弈過程,從而使價值對齊進程曲折而復雜多變。概而言之,整體劃一的價值完全(或絕對)對齊只是一種理想化狀態,可望而不可及;現實生活中的對齊都是分階段逐步實現的價值部分(或相對)對齊過程,展現為趨向價值完全(或絕對)對齊的進程或趨勢,永遠在路上。

人工智能技術價值對齊的可行路徑

面對人工智能技術的快速發展和價值體系紊亂的現實,我們不能簡單地回避或否定價值對齊困難,而應當積極探尋價值對齊的可行路徑。在現實生活中,由于人工智能等高新技術的規范尚未進入法律視野或立法程序,因而科技倫理治理就成為阻遏技術負效應蔓延的唯一一道防線,肩負著重要的社會歷史使命,[17] 人工智能技術倫理治理是人類積極應對人工智能倫理風險和治理難題的應然選擇。[18]中辦和國辦聯合發布的《關于加強科技倫理治理的意見》、科技部制定的《科技倫理審查辦法(試行)》等文件,就是在這一時代背景下出臺的。筆者從技術倫理治理視角出發,結合人工智能技術特征尤其是價值對齊困難,從“價值”“制度”“技術”“生態”和“迭代”等維度,提出推進人工智能技術健康發展的五項治理對策與建議。

一是價值導引:明確人工智能倫理道德原則和價值觀。從全球來看,一些國家和組織發布了相關政策文件,明確人工智能系統在設計時應遵循的道德原則。例如,歐盟確定了使用人工智能的四項道德原則:不惡意、尊重自主、算法公平和透明。安娜·喬賓(Anna Jobin)等人基于對84份政策文件的梳理發現,各國人工智能指南中確定的倫理原則主要包括透明度、公平正義等11個方面;全球將圍繞其中的5項倫理原則不斷融合:透明度、公正公平、不惡意、責任和隱私。[19]黨的十八大以來,黨中央高度重視科技倫理治理,組建國家科技倫理委員會,完善治理體制機制,推動科技倫理治理取得積極進展。《關于加強科技倫理治理的意見》明確提出了“倫理先行、依法依規、敏捷治理、立足國情和開放合作”的治理要求,并制定了科技倫理治理的五項原則:增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明。《科技倫理審查辦法(試行)》對科技倫理審查的總則、審查主體、審查程序、監督管理等都作出了明確要求。《新一代人工智能發展規劃》《新一代人工智能治理原則——發展負責任的人工智能》《新一代人工智能倫理規范》《生成式人工智能服務管理暫行辦法》等一系列文件的出臺,進一步明確了對人工智能技術的倫理規約和價值引導。未來需要在既有工作的基礎上進一步深入和細化,前瞻性地確立人工智能發展的價值原則,其中最為核心的是要堅持人是目的或人本的原則[20],并明確人工智能全生命周期的倫理道德原則和價值導向;廣泛開展宣傳和培訓,并與基礎性教育、專業化培訓等相結合,提高其社會知曉度、認可度和遵從度。還需要建立監督和考核評價機制,定期或不定期評估人工智能系統是否符合倫理道德要求和價值導向;并鼓勵社會大眾積極參與,及時反饋意見和建議,提高人工智能治理的透明度和公正性。

二是制度規約:構建多層次的人工智能發展制度規范體系。堅持發展與安全并重,一方面通過政策引導和資金投入,大力推進人工智能發展。例如,加強基礎研究與技術創新,增加對人工智能基礎研究的財政投入,支持高校、研究機構和企業實驗室探索前沿技術。創建人工智能教育與培訓體系,特別是在深度學習、自然語言處理等人工智能內核領域,培養高水平科研人才。促進國內外學術交流與合作,共享研究成果,加速技術升級迭代。鼓勵人工智能與制造業、醫療健康、文化創意等產業深度融合,創造新型應用場景。出臺專項政策,支持人工智能技術在中小企業中的推廣應用,加速產業化進程。加強國際交流與合作,積極參與國際人工智能標準和規則的制定,提升國際影響力。另一方面,也要通過制度化安排強化安全監管。例如,創建完善的人工智能倫理框架,確保生成內容的合法性、真實性和倫理性;制定人工智能技術與應用的行業標準,確保技術安全與規范運行,制定相關倫理準則。建立語料數據保護法規,制定或修訂數據保護法律,強化個人數據的保護,明確數據獲取渠道,禁止非法或未經許可的數據使用,確保數據收集和處理遵循最小必要原則;保護用戶數據的安全與隱私,創建嚴格的數據處理標準,確保個人隱私在人工智能訓練過程中的安全。完善監管機制,建立適應新技術特點的監管機制,防止技術濫用,保障人工智能技術健康發展。人工智能的未來在于平衡創新與責任,通過多層次制度規范體系,構建一個既鼓勵技術進步又注重價值導向的環境,這就離不開政府的前瞻性政策、產業界的自我規范、學術界的深入研究以及公眾的廣泛參與。

三是協同治理:構建共治共享的人工智能治理體系。人工智能發展和應用過程涉及一系列治理主體,不僅包括政府,還有人工智能技術研發者、應用型企業、科研機構、非政府組織和廣大用戶等。這些不同類型的主體具有不同的特點、訴求、視角和期望,甚至彼此之間還會發生沖突,這無疑增加了治理的難度。因此,要實現有效的人工智能治理,就必須在政府、企業、學界和公眾等主體之間建立協同共治機制,共同研究和解決人工智能治理中的一系列復雜問題,推動人工智能健康發展。與傳統的統治、管制理念不同,治理是新公共管理理論提出的一個新理念。它是一種由共同目標支持的管理活動,參與此類活動的主體較多,展現為一個促使相互沖突或不同利益訴求的調和,彼此互動博弈、協同合作、聯合行動的持續改進過程。因此,將科技倫理治理理念和架構貫徹到人工智能技術研發與推廣應用過程各環節,有助于調動社會各方的積極性,推進價值對齊進程,促進人工智能技術的持續健康發展。要實現多方主體的高效協同,還需建立健全協同機制,需要整合各方的資源和優勢;建立多方參與的協同平臺,制定協同治理的規則和程序,建立信息共享機制和激勵相容機制以及明確的職責分工體系,有效調動多方主體共治的積極性。

四是技術突破:打造安全可控的人工智能技術體系。人工智能具有很強的技術復雜性,需要加強技術治理,打造安全可控的技術體系。必須加強關鍵技術攻關與自主可控,如算法創新、模型優化、計算能力提升等,減少對外部技術的依賴,增強安全性和可靠性。應加大對關鍵技術的研發投入,支持高校、研究機構和企業進行集中技術攻關,鼓勵企業通過政產學研合作,加速技術創新和成果轉化。利用隱私計算、聯邦計算、數據加密、數據分級分類等技術手段,確保數據的安全可控。采用多樣化的數據集進行算法訓練,以減少算法偏見;建立算法審計機制,定期對人工智能系統進行審計,及時發現和糾正潛在的價值偏見。建立人工智能系統的解釋性標準,要求人工智能系統在設計時就考慮其解釋性,并加強對人工智能系統解釋性的監管,確保其符合相關規范和標準。建立持續跟蹤監控機制,建立監控平臺,實時監控人工智能系統的運行狀態和輸出結果,及時發現問題和潛在風險,并能夠迅速采取有效干預和調控措施。

五是敏捷治理:建立快速響應和迭代優化機制。傳統治理模式具有滯后性、靜態性、單向性和事后性等特點,多基于過往經驗和現實情況制定相關策略,難以適應人工智能技術快速發展的需求。而敏捷治理具有靈活性、適應性、合作性和前瞻性等特點,能夠較好地適應人工智能技術快速發展趨勢。具體來看,敏捷治理強調治理體系的靈活性,能夠快速適應不斷變化的技術環境;能夠根據技術發展的需要及時調整治理策略和措施;鼓勵多方參與,形成合作共治的局面,以提高治理的效率和效果;注重預測未來可能出現的問題,并提前制定應對策略。通過敏捷治理方式,并結合試驗方法,能夠有效提升識別人工智能倫理風險、評估倫理治理框架、化解倫理治理沖突的效能[21],從而快速適應、靈活應對人工智能帶來的挑戰。敏捷治理不僅是一種理念,還需要有配套的具體手段和措施,其核心要素包括人工智能發展與應用的動態監測和風險評估、靈活的政策舉措、多方參與和合作。通過動態跟蹤和評估,建立快速響應機制,及時調整治理措施,制定靈活的政策法規,以適應快速變化的人工智能治理場景。

總體來看,人工智能技術的加速發展沖擊著傳統社會秩序和價值體系。在推動人工智能技術發展的同時,我們必須清醒地意識到人工智能技術的價值負載及其可能帶來的風險與挑戰。通過價值引導、制度規約、協同治理、技術突破和敏捷治理等途徑和措施,更有效地應對人工智能技術加速發展沖擊及其價值對齊困難,推動人工智能技術的健康發展和社會福祉的最大化。

結語

綜上所述,人工智能價值對齊涉及社會倫理、法律、經濟、文化、政治等多個維度,既是一個復雜的價值論問題,也是一個關涉社會多方利益的實踐問題;既關涉社會多方訴求或意向的解讀和還原,也需要探尋其中的共同價值訴求及其實現方式。不難理解,這是一個處于快速演化之中的開放的“問題群”,值得全社會關注、警惕、探究和應對。

技術負載著價值,人工智能承載著研發者、訓練者、使用者等多方主體的意志或價值訴求,這是價值對齊的基礎和前提,也是人工智能具備弱意識形態傾向或功能的證據;可視為印證法蘭克福學派有關科學技術的意識形態功能等論述的新情況、新證據[22],是一個值得關注和探討的重要理論問題。價值對齊是一個社會多方協同、持續演進的復雜過程,不可能一蹴而就,是進行時態而不是完成時態。前述的一次對齊和二次對齊只是對人工智能價值對齊機制與過程的一種簡單化處理,其中的許多細節和環節尚未得到具體分析和充分討論。這將是后續研究深化和努力的一個方向。

以價值對齊為目標的人工智能倫理治理是當今科技倫理治理的前沿領域,面臨著認識與實踐的雙重挑戰:一方面,人工智能技術研發及其應用過程中派生的一系列新問題還需要深入認識和評估;另一方面,如何在價值觀、價值判斷、現實需求和認識水平存在差異的不同群體之間進行充分溝通和交流,求取價值對齊的最大公約數,也是一個考驗人類智慧的實踐難題。本文對人工智能價值對齊困難及其實現路徑等問題的初步分析和討論,廣度與深度都有待加強,錯訛之處也有待學術批評,希望能借此引發學界的關注和討論,集思廣益,為人工智能治理問題出謀劃策,促進人工智能的持續健康發展,造福人類社會。

【本文作者為 中國人民大學哲學院教授 王伯魯;中國人民大學哲學院博士研究生 史少春。本文系國家社會科學基金(高校思政課研究專項)項目“馬克思主義科技觀的當代內涵及其教學應用研究”(項目編號:20VSZ126)的階段性成果】

注釋略

責編:馮一帆/美編:王嘉騏

責任編輯:張宏莉
主站蜘蛛池模板: 偷拍清纯高清视频在线 | 久久人人青草97香蕉 | 国产成人综合在线观看网站 | 免费观看情趣v视频网站 | 怡红院男人天堂 | 亚洲视频免费在线 | 色婷婷在线观看视频 | 操比大片 | 日本大片在线观看免费视频 | 日韩在线播放视频 | 麻豆免费永久网址入口网址 | 免费看一级毛片欧美 | 国产视频在线免费观看 | 黄色香蕉视频 | 免费能看的黄色网址 | 国产精品高清全国免费观看 | 久青草国产在线 | 欧美精品亚洲精品日韩经典 | 国产精品综合视频 | 欧美亚洲国产精品久久久久 | 久久机热综合久久国产 | 日本香蕉一区二区在线观看 | 国产在线h视频 | 国产精品日本一区二区在线播放 | 国产一级a毛片 | 亚洲国产精品线播放 | 欧美一级毛片免费播放aa | xvideos国产在线视频 | 亚洲大片在线观看 | 亚洲一区播放 | 欧美色频 | 久久久精品久久久久久久久久久 | 91九九 | 亚洲第一a亚洲 | 伊人网综合在线 | 99久久精品国产一区二区 | mm1313亚洲国产精品无 | 成人免费真人毛片视频 | 欧美日韩免费一区二区在线观看 | 亚洲精品一区二区三区四区手机版 | 青青青亚洲精品国产 |