人工智能數(shù)字空間秩序的法律構(gòu)建
【析理論道】
人工智能驅(qū)動的數(shù)字空間是由算法與數(shù)據(jù)融合建構(gòu)的智能環(huán)境,通過感知、決策與交互實現(xiàn)虛實共生,這一新型空間同樣需要構(gòu)建有效治理體系。習近平總書記指出:“要把依法治網(wǎng)作為基礎(chǔ)性手段,繼續(xù)加快制定完善互聯(lián)網(wǎng)領(lǐng)域法律法規(guī),推動依法管網(wǎng)、依法辦網(wǎng)、依法上網(wǎng),確?;ヂ?lián)網(wǎng)在法治軌道上健康運行?!苯陙?,我國對人工智能治理與高質(zhì)量發(fā)展立法模式的探索,本質(zhì)上就是通過規(guī)則供給重塑數(shù)字空間秩序的過程。國家網(wǎng)信辦等七部門聯(lián)合印發(fā)的《生成式人工智能服務(wù)管理暫行辦法》將“生成式人工智能服務(wù)提供者”明確為維護網(wǎng)絡(luò)安全法律責任主體,設(shè)定了生成內(nèi)容標識等具體義務(wù);2026年1月1日,新修訂的網(wǎng)絡(luò)安全法正式生效,將總體國家安全觀、數(shù)字中國與法治中國建設(shè)目標內(nèi)嵌于人工智能治理的規(guī)范框架。面向未來,以法律方式實現(xiàn)人工智能數(shù)字空間實時響應(yīng)、算法正義、數(shù)據(jù)可信與倫理共識等新的秩序要求,還需進一步明確法律關(guān)系、基本原則與可行路徑。
數(shù)字空間秩序關(guān)涉的法律關(guān)系
人工智能治理的規(guī)則本質(zhì)上是回應(yīng)技術(shù)發(fā)展的產(chǎn)物,其沒有顛覆法律規(guī)范中“主體—客體”的基本邏輯,而是通過功能性擬制、范疇性拓展、風險性預(yù)防,建立起一套適應(yīng)數(shù)字空間的規(guī)范體系。這套規(guī)則超越了單純用法律術(shù)語重新命名數(shù)字存在,而是在技術(shù)帶來的混沌中,創(chuàng)造出一種可以被清晰描述、表達和治理的秩序。
功能性主體的創(chuàng)設(shè)。傳統(tǒng)法律主體理論建立在“意志”與“責任能力”基礎(chǔ)之上,并以意志作為責任能力的前提。然而,人工智能具有自主學習和決策能力,不同于自然人的生物意志或法人的擬制意志,因此對其治理的重點并非糾結(jié)于其是否具有法律主體地位,而在于如何在功能與關(guān)系中對其進行法律建構(gòu)。我國立法設(shè)定“生成式人工智能服務(wù)提供者”這一新型法律主體身份,目的并非承認人工智能具有獨立人格,而是以“責任者身份”先于“人格者身份”的法律設(shè)定邏輯,以“誰能夠”作為“誰應(yīng)當”的主要依據(jù)。這標志著法律關(guān)系的中心從過去由外向內(nèi)的意志性還原,轉(zhuǎn)向由內(nèi)向外關(guān)注行為控制的功能性考量。
系統(tǒng)化數(shù)字存在的拓展。人工智能技術(shù)所依賴的數(shù)據(jù)流、大模型與系統(tǒng)行為,具有無形、可復制和動態(tài)演化的特征,較之于傳統(tǒng)客體相對明確的物理形態(tài)和邊界,更強調(diào)系統(tǒng)性:數(shù)據(jù)價值取決于在模型中的處理以及在平臺中的適用;算法輸出由用戶行為、平臺規(guī)則、訓練模型等共同構(gòu)成;數(shù)字身份在不同平臺、場景交互中持續(xù)構(gòu)建和確認。相應(yīng)地,法律規(guī)制也呈現(xiàn)出系統(tǒng)性拓展的特點。例如,在涉及關(guān)鍵性基礎(chǔ)設(shè)施的重要數(shù)據(jù)、核心數(shù)據(jù)時,法律規(guī)制超越靜態(tài)資源價值,也指向國家安全和公共屬性;在對算法進行安全評估、備案與透明性解釋時,法律審查對象不是表達形式,而是其作為獨立表達系統(tǒng)的功能和效果;在規(guī)制系統(tǒng)性行為時,法律不限于追究背后自然人或法人的意圖,而是更直接著眼于對行為模式的預(yù)防,如通過對“深度合成”“自動決策”等場景設(shè)定場景標識與合規(guī)義務(wù),防止虛假信息傳播,為法律客體的行為化和場景化拓展提供規(guī)范依據(jù)。
以關(guān)系型網(wǎng)絡(luò)實現(xiàn)系統(tǒng)性風險的控制。無論是法律主體的功能性轉(zhuǎn)向,還是法律客體的數(shù)字化系統(tǒng)存在,都從強調(diào)個體性與靜態(tài)性,轉(zhuǎn)向?qū)碗s關(guān)系網(wǎng)絡(luò)與系統(tǒng)性風險的調(diào)控。這既是對法律框架的拓展,也是對關(guān)鍵治理要素的回歸,更加關(guān)注法律關(guān)系的構(gòu)造效果。法律關(guān)系需要應(yīng)對法律事件在時間上并發(fā)與循環(huán),因果關(guān)系不再單一線性發(fā)展而呈網(wǎng)絡(luò)涌現(xiàn),法律行為自主生成且與環(huán)境交互,法律價值與風險同時出現(xiàn)分層。例如,在人工智能運行所涉及的技術(shù)開發(fā)者、部署者、平臺、用戶等多方主體構(gòu)成的網(wǎng)絡(luò)中,法律既尊重既有的權(quán)責關(guān)系,又明確“生成式人工智能服務(wù)提供者”這一關(guān)鍵節(jié)點,實現(xiàn)通過節(jié)點治理網(wǎng)絡(luò)的治理策略。同時,通過安全可控、防范歧視、保障公平等原則,法律為整個治理網(wǎng)絡(luò)設(shè)定了清晰的價值錨點,引導各方在技術(shù)創(chuàng)新與風險防控之間實現(xiàn)動態(tài)平衡。
數(shù)字空間秩序法律構(gòu)建的基本原則
在人工智能數(shù)字空間秩序的法律構(gòu)建中,安全與發(fā)展、權(quán)力與透明、責任配置三組規(guī)范關(guān)系應(yīng)當遵循何種基本原則,構(gòu)成了制度設(shè)計的重點和難點。
在安全與發(fā)展的關(guān)系上,以“安全可控”為原則。長期以來,安全與發(fā)展的關(guān)系被置于科技倫理與技術(shù)治理的對立框架之中:發(fā)展側(cè)重效率、創(chuàng)新與競爭優(yōu)勢,體現(xiàn)技術(shù)理性;安全側(cè)重風險防控、權(quán)利保護與社會穩(wěn)定,體現(xiàn)規(guī)范理性。但在治理實踐中,偏重任何一端都將引發(fā)系統(tǒng)性失衡。確立“安全可控”作為元價值,本質(zhì)是通過構(gòu)建風險可預(yù)測、責任可追溯、權(quán)利可救濟的制度體系,為技術(shù)發(fā)展提供可持續(xù)的合法性基礎(chǔ),使發(fā)展目標能夠在安全邊界內(nèi)運行。
在權(quán)力與透明的平衡中,以“對算法黑箱進行認知性規(guī)制”為原則。算法黑箱造成的知識不對稱與權(quán)力集中,導致決策難以解釋、責任難以認定、權(quán)利難以救濟等問題。認知性規(guī)制并非簡單的信息披露義務(wù)擴張,而是通過設(shè)定可解釋性標準、建立審計機制、推動技術(shù)接口治理等方式,重塑算法權(quán)力的可見性與可問責邊界,使公共權(quán)力與平臺權(quán)力在透明框架下接受法治約束,從而避免技術(shù)理性對程序正義與實體正義的侵蝕。
在責任配置方面,以“網(wǎng)絡(luò)性適配”為原則。人工智能系統(tǒng)的分布式行動特征,使傳統(tǒng)以單一主體為中心的責任模式面臨失配風險。責任的網(wǎng)絡(luò)性適配要求將研發(fā)者、部署者、運營者、數(shù)據(jù)提供者以及平臺治理者等共同納入?yún)f(xié)同責任結(jié)構(gòu),并借助過錯推定、風險責任、合規(guī)免責、保險機制等制度工具,實現(xiàn)責任在技術(shù)鏈條中的合理分配與動態(tài)調(diào)整。這種模式并非弱化責任,而是通過網(wǎng)絡(luò)化配置提升治理的整體穩(wěn)定性與激勵相容性。
數(shù)字空間秩序法律構(gòu)建中的張力彌合
在構(gòu)建人工智能數(shù)字空間的法治秩序時,不僅需要準確把握法律關(guān)系的關(guān)鍵要素,確立穩(wěn)固的基本原則,還必須有效化解多對結(jié)構(gòu)性張力,推動數(shù)字空間實現(xiàn)持續(xù)健康的發(fā)展。
權(quán)威規(guī)范與動態(tài)技術(shù)之間的張力。傳統(tǒng)法律規(guī)范以既往經(jīng)驗為基礎(chǔ),追求穩(wěn)定和可預(yù)期;而技術(shù)發(fā)展則以突破為導向,不斷推陳出新、快速迭代。為化解這一張力,數(shù)字空間治理在注重實體規(guī)則完備的同時,也應(yīng)追求程序機制的敏捷性與適應(yīng)性。當前,“實驗性治理”與“學習型法律”已經(jīng)通過監(jiān)管沙盒、標準動態(tài)更新、年度影響評估等報告工具得到一定程度的實施。過去人們常用“軟法”或者“硬法”來形容和區(qū)分治理規(guī)則的效力,這是一種平面化或者靜態(tài)意義上的評價,當下我國人工智能治理規(guī)則正通過框架立法、動態(tài)標準和持續(xù)反饋機制,推動規(guī)則體系向具備感知、學習與適應(yīng)能力的“智能規(guī)則體”演進。
主權(quán)邊界與全球網(wǎng)絡(luò)之間的張力。人工智能治理規(guī)則的域外適用,反映了國家主權(quán)在數(shù)字領(lǐng)域的延伸,這是主權(quán)國家對管轄范圍內(nèi)數(shù)字活動行使最高權(quán)威的體現(xiàn)。與此同時,服務(wù)器域外部署、開發(fā)者身份匿名、分布式網(wǎng)絡(luò)服務(wù)的存在,對以地域管轄權(quán)為基礎(chǔ)的規(guī)則、司法與執(zhí)行提出新的挑戰(zhàn)。國家主權(quán)在傳統(tǒng)領(lǐng)域強調(diào)絕對控制,在數(shù)字領(lǐng)域強調(diào)規(guī)范競爭與協(xié)調(diào)能力。正如中國通過巨大的數(shù)字經(jīng)濟市場吸引跨國企業(yè)主動遵循治理規(guī)則,促進人工智能監(jiān)管標準域外拓展,不斷擴大合作性共識,逐步推動先進的治理理念轉(zhuǎn)化為普遍標準,并為條約化進行準備,為全球治理提供有效經(jīng)驗。
統(tǒng)一規(guī)范與場景多元之間的張力。法律作為公共產(chǎn)品,必須為社會確立基本的行為預(yù)期與價值共識。然而,人工智能在不同應(yīng)用場景中的風險性質(zhì)、倫理關(guān)切與社會影響差異顯著。例如,自動駕駛直接關(guān)涉生命安全,需應(yīng)對瞬息萬變的物理環(huán)境;而生成式人工智能則更聚焦于知識產(chǎn)權(quán)、隱私與意識形態(tài)風險。因此,基于場景的差異化規(guī)制成為必然選擇。調(diào)和統(tǒng)一規(guī)范與多元場景這對張力,要求治理體系建立一種架構(gòu)性分層機制,授權(quán)監(jiān)管機構(gòu)與行業(yè)組織根據(jù)不同場景的技術(shù)邏輯、風險譜系與倫理敏感度,制定相適應(yīng)的標準、工具與合規(guī)路徑,在統(tǒng)一法治框架下實現(xiàn)精準、靈活的制度供給。
以網(wǎng)絡(luò)安全法的修訂為代表的一系列數(shù)字空間立法舉措,為我國數(shù)字空間治理確立了初步的規(guī)范基準與制度框架。這些立法并不旨在構(gòu)建一套封閉的治理體系,而是在堅守安全可控底線的基礎(chǔ)上,以足夠的制度智慧、倫理自覺與協(xié)作精神,推動兼具韌性、公正與活力的數(shù)字文明秩序的長期健康發(fā)展。
(作者:陳姿含,系北京市習近平新時代中國特色社會主義思想研究中心研究員、北京理工大學法學院副教授)








