姜育剛
習近平總書記在二十屆中央政治局第二十次集體學習時強調,“全面推進人工智能科技創新、產業發展和賦能應用,完善人工智能監管體制機制,牢牢掌握人工智能發展和治理主動權”。國家網信辦發布的《全球人工智能治理倡議》明確提出,積極發展用于人工智能治理的相關技術開發與應用,支持以人工智能技術防范人工智能風險,提高人工智能治理的技術能力。這不僅需要加快完善人工智能治理的法律法規、政策制度、應用規范和倫理準則,同時應高度重視數據可信治理、模型內生可信、安全風險測評、應用全鏈路可追溯等人工智能治理技術的自主創新,構建“規則+技術”雙輪驅動機制,積極應對人工智能技術快速發展帶來的風險挑戰,牢牢掌握人工智能治理主動權。
深刻認識人工智能治理的重要性和緊迫性
人工智能在賦能經濟高質量發展、提升國家治理效能、改善民生福祉的同時,也催生了算法偏見、技術濫用、認知倫理等新型安全風險,這些風險不僅關乎個體權益、社會公平,更涉及國家安全、數字主權乃至人類文明走向。因此,加強人工智能治理已成為掌握未來發展主動權的重大戰略議題。
當前,人工智能技術迭代持續加速,從大語言模型向多模態模型演進,從簡單推理邁向深度思考,其應用已廣泛融入經濟社會各領域,深刻改變人類生產生活方式,更加速從數字空間延伸至物理世界,具身智能成為全球科技競爭的戰略高地。通過自動駕駛、智能機器人等載體,人工智能將主動、直接作用于現實環境,其決策與行為將對人身安全、公共秩序乃至國家安全產生實質性影響,加強治理顯得尤為緊迫。
堅持“以人為本、智能向善”的治理理念
習近平總書記提出要“堅持以人為本、智能向善,在聯合國框架內加強人工智能規則治理”。這一重要論述深刻揭示了人工智能發展的價值導向與治理邏輯,強調技術進步必須始終服務于社會整體福祉和人類發展進步。
堅持以人為本,就是要以增進人類共同福祉為目標,以保障社會安全、尊重人類權益為前提,確保人工智能始終朝著有利于人類文明進步的方向發展。這要求在技術發展過程中,要強化對個人數據的保護,推動算法的透明化和可解釋性,讓不同人群都能公平享有智能技術帶來的便利,確保技術應用不偏離服務人民的初心。
堅持智能向善,要求人工智能的發展應符合和平、發展、公平、正義、民主、自由的全人類共同價值,共同防范人工智能技術的惡用濫用。這不僅包括防范人工智能被用于深度偽造、網絡攻擊等惡意用途,同時也強調應主動發揮其在應對氣候變化、公共衛生危機、能源轉型、災害預警等全球性挑戰中的積極作用,推動人工智能技術真正成為促進包容、平等與可持續發展的力量。
構建規則、技術雙輪驅動機制
面對當前人工智能加速演進的態勢,國家互聯網應急中心牽頭組織制定的《人工智能安全治理框架》2.0版中提出要“構建技術與管理相結合、監管與治理相銜接、國內與國際相協同、社會各方積極參與且有效互動的治理機制”。這一治理構想的關鍵在于“規則+技術”雙輪驅動的創新機制。通過二者的協同演進、雙向賦能,可以更好地支撐我們牢牢掌握人工智能治理的主動權。
一方面,要加快完善人工智能治理規則體系。這既是應對技術快速迭代與風險加速演化的迫切要求,更是掌握發展主動權的戰略舉措。具體而言,應統籌推進覆蓋人工智能研發全鏈條的法律法規與規章制度建設;同步建立科學、動態、可操作的風險分級分類測試標準體系,實現對不同應用場景的精準化、差異化監管;持續健全人工智能倫理準則與行業規范,推動倫理要求制度化、落地化。
另一方面,要大力推動人工智能治理技術的自主創新。人工智能治理的核心在于培育安全、可靠、公平、透明的人工智能技術研發和應用生態,從數據源頭強化隱私保護和偏見防控,在模型算法層面引入價值觀對齊等機制,系統提升人工智能的算法可解釋性、模型可測評性、決策可追溯性、運行可監測性等能力。通過人工智能治理技術的體系化創新,支撐治理理念與規則在應用與實踐層面落地。
積極推進人工智能治理技術體系化自主創新
加強人工智能治理技術的自主創新,是牢牢掌握人工智能治理主動權的關鍵所在。當前人工智能技術仍面臨數據分布復雜、模型可控性不足、系統測評體系不完善、推理過程不透明等突出問題,亟須在多個核心技術方向上持續攻關。
強化訓練語料數據可信治理技術。高質量、可信的訓練語料數據是保障人工智能系統可信的基礎。應建立覆蓋數據采集、清洗、標注、更新全流程的可信治理機制,構建統一的數據質量與安全評估體系,確保訓練語料的真實性、合法性與代表性。同時,加強數據溯源與追蹤技術研發,完善數據脫敏與隱私保護機制,防止數據污染與惡意注入,從源頭提升模型訓練的可信性。
加強人工智能模型內生可信機制。內生可信機制是實現人工智能系統安全可控的核心技術。應重點圍繞模型可解釋性、決策可驗證性等方向開展研究,推動人工智能模型與法律法規、政策制度和倫理準則的對齊,從設計之初就嵌入安全與倫理約束,實現算法與模型層面的風險識別、異常防御與動態修正,構建具備自我診斷、自我校正能力的內生可信機制,確保人工智能模型在復雜環境下的可信運行和可控演化。
完善人工智能安全風險測評體系。當前,人工智能測評體系尚缺乏統一標準與系統性框架,測評指標不完善、測評過程透明度不足,難以全面反映系統在法規、政策以及倫理一致性方面的真實表現。應堅持規則與技術雙輪驅動,以制度建設引領測評方向,以技術創新提升測評能力,實現對政策規則、倫理準則和安全邊界的自動識別、響應與校準能力,形成全生命周期的人工智能安全測評體系。
重視人工智能應用全鏈路可追溯技術。可審核、可監督、可追溯,是保障人工智能應用責任可控的關鍵。人工智能應用鏈條長、環節多,涵蓋數據采集、模型訓練、模型測試、系統部署、用戶使用等多個階段,任何環節的失范都可能引發重大風險。應以可審計為原則,構建推理過程的證據關聯,完善訓練、推理、輸出的全程記錄,健全運行期的在線監測、異常定位與責任追蹤,為人工智能系統的安全審計、合規監管與失范追責提供支撐。
通過強化數據可信治理、模型內生可信、安全風險測評、應用全鏈路可追溯等環節,加快形成自主可控的人工智能治理技術底座,為我國在全球人工智能競爭中掌握主動權提供技術保障與支撐。
(作者系復旦大學黨委常委、副校長)
【未經授權,嚴禁轉載!聯系電話028-86968276】
