衛子豪
黨的二十屆四中全會通過的《中共中央關于制定國民經濟和社會發展第十五個五年規劃的建議》明確要求:“深化網絡空間安全綜合治理,加強個人信息保護。”個人信息權益作為數字社會運行的基石,直接關系到每個公民的尊嚴、自由與福祉。盡管個人信息保護法已為此奠定了法律基礎,但技術的迭代速度正不斷考驗著現有保護框架的韌性。生成式人工智能(基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的人工智能技術分支)應用的爆發式增長,標志著AI從分析決策邁向了自主創造的新紀元,然而其依賴海量數據訓練、生成內容不可控等特性,也在個人信息收集、使用與泄露環節引發了全新風險。如何在生成式人工智能浪潮中,通過構建動態、安全且可控的數據治理體系來筑牢個人信息保護防線,已成為推動數字時代健康發展必須直面和解決的關鍵命題。
構建分級分類保護路徑
生成式人工智能技術的廣泛運用,對個人信息權益保護提出新要求。傳統統一規則主導的保護模式在應對模型訓練、數據生成及跨場景應用等動態處理活動時存在不足,需探索基于風險分類、處理階段差異化調整的保護路徑,以契合技術實際,平衡保護與發展關系。保護措施需考量適當性與實效性,具體如下:
強化數據收集環節的目的約束與范圍管控。生成式人工智能開發依托大規模數據收集,易出現收集范圍不明確或超限情況,如部分大型語言模型訓練數據含未充分去標識化的個人文本信息。應堅持并細化目的明確與最小必要原則,要求運營者披露數據收集類型與用途,建立獨立機構定期評估機制審查收集相關性,依法糾正無關或冗余收集行為。
依據信息敏感度與使用場景實施差異化保護。個人信息風險隨內容、上下文及處理方式動態變化,當前法律分類可進一步細化以應對生成式人工智能組合信息生成新內容的情況。例如醫療健康領域生成診斷建議時,個人健康數據應適用更嚴格標準,包括單獨明確同意、高級別加密,算法設計嵌入數據脫敏或本地化處理等隱私增強技術。
重點規范與持續監督高風險處理活動。針對生成式人工智能常見的大規模、自動化及可能跨境的數據處理活動,法律應設置具體要求:模型運行中監控輸出是否泄露訓練數據特征或產生有偏結果;為個人提供質疑自動化決策、申請人工復查的渠道。監管需從單一事后處置拓展至全流程常態關注。
上述措施構建的分級分類保護路徑有助于集中資源,提升高風險環節的保護針對性,既應對生成式人工智能新問題,也為技術在法律框架內有序發展提供指引,平衡個人信息權益保護與技術創新。
以技術手段“賦能”個人信息保護機制
生成式人工智能運行具有一定自主性與不透明性,傳統以事后追責為主的法律規制模式,在應對其快速迭代及內部“黑箱”特性時,或難以實施及時有效的干預。因此,個人信息權益保護需向前端延伸,探索通過技術性手段將法律保護目標轉化為人工智能系統運行的內在約束。
其一,模型開發階段倡導并規范“通過設計保護隱私”原則,在系統初始架構設計時即考量隱私保護要求,推動采用聯邦學習、差分隱私、同態加密等隱私增強技術,例如利用差分隱私技術在數據訓練中添加噪聲以降低信息泄露風險,通過技術標準制定使隱私保護成為系統開發默認選項。
其二,數據處理與生成階段探索部署可審計的技術性約束機制,集成敏感信息過濾工具、模型決策解釋技術,為用戶提供關鍵詞屏蔽、數據禁用范圍設置等控制接口。
其三,系統運行全周期鼓勵采用自動化合規監測工具,對數據處理行為持續追蹤記錄并與法律規則比對,識別潛在風險點并生成合規報告,提升監管及時性與覆蓋范圍。
將法律要求轉化為系統內在運行邏輯,是使保護措施貼合技術特性的方式,為法律落實提供直接穩定的實現路徑,有助于在技術發展背景下持續保障個人信息權益。
形成政府、企業、社會多元協同規范體系
生成式人工智能的應用可能擴大個體與信息處理者的能力差距。技術復雜性下,個體對個人信息的控制與理解能力或趨弱化,而開發者與運營者憑借模型和數據流掌控具有一定影響力。單一主體規制模式存在局限,宜構建政府、企業、社會多方參與、各負其責的規范實施框架,形成穩定有效的治理格局。
構建該框架旨在整合主體優勢與責任,推動個人信息保護法律規范充分轉化為實踐,其有效運行依賴多層面協同。
明確政府規則供給與監管執行的核心職能。政府需設定清晰底線規則,提供穩定監管預期,針對生成式人工智能技術特性細化個人信息收集、訓練、生成等環節的合法性基礎與透明度要求;監管方式可依據模型用戶規模、信息敏感程度及場景風險等級實施分類分級管理,集中資源于高風險活動,提升監管精準度。
推動企業完善內部治理機制。企業作為技術開發者與應用者,需設立倫理或合規評估程序,在產品開發部署前識別評估個人信息影響;融入隱私設計理念,建立便捷的用戶行權與投訴反饋渠道。
引導專業社會力量發揮監督作用。學術機構與行業組織可開展風險研究、制定倫理指南或實踐標準;技術成熟時,第三方機構可探索算法影響評估或數據保護認證;普及知識提升公眾數字素養與權利意識,營造理性監督環境。
通過明確政府監管邊界與重點、落實企業內控責任、吸納社會力量參與,形成多元協同規范實施路徑,有助于縮小法律與技術實踐差距。在生成式人工智能時代,應尋求技術發展與權利保護之間的動態平衡。唯有在個人信息保護的范圍、邊界和實現路徑上形成更加清晰的制度安排和廣泛共識,才能更好應對新業態發展帶來的新情況新問題,推動數字經濟健康有序發展,為人工智能時代個人信息權益提供堅實保障。
(作者:衛子豪,系清華大學國家治理研究院研究員)
【未經授權,嚴禁轉載!聯系電話028-86968276】
