2021年12月底,四部門聯名簽署對外公布《互聯網信息服務算法推薦管理規定》(簡稱“《算法推薦規定》”),并已于2022年3月1日正式實施。基于此,有必要進一步厘清算法治理的基礎內核,探究算法時代治理新路徑。
一、當前我國算法治理的法律體系
當前我國算法治理的立法體系已初步建成,構建起立法層級廣、多部門聯動、快速擴張的法律體系。立法監管由此前聚焦在網絡安全、數據信息保護轉變為當前深度的治理,即人工智能時代的算法治理。
在頂層設計方面,《法治社會建設實施綱要(2020-2025年)》就提出健全算法推薦、深度偽造等新技術應用的規范管理辦法。另外,《“十四五”數字經濟發展規劃》指出加快構建算力、算法、數據、應用資源協同的全國一體化大數據中心體系。
在法律法規依據方面,《民法典》《網絡安全法》《數據安全法》《個人信息保護法》《互聯網信息服務管理辦法》分別從人格權、網絡安全、數據安全、信息保護利用、互聯網服務等角度進行了統籌性的規范。
在算法的專門性規范方向,有2021年9月發布的部門規范性文件《關于加強互聯網信息服務算法綜合治理的指導意見》和2022年《算法管理規定》對算法相關規范進行了全面細致的規范。
在其他規范性文件或國家標準方面,多部門對機器學習、人工智能倫理、信息合成、平臺監管等多方面有間接性的規范,如《國務院反壟斷委員會關于平臺經濟領域的反壟斷指南》《國家市場監督管理總局、國家網信辦、國家發展改革委、公安部、人力資源社會保障部、商務部、中華全國總工會關于落實網絡餐飲平臺責任切實維護外賣送餐員權益的指導意見》《新一代人工智能倫理規范》《互聯網信息服務深度合成管理規定(征求意見稿)》《信息安全技術 機器學習算法安全評估規范(征求意見稿)》《信息安全技術個?信息安全規范》等。
雖然我們已經在多個層面進行立法,但是當前算法相關立法體系還存在問題。一是立法層級分散,主要聚焦在部門規范性文件。法律法規的制定時間成本明顯高于部門規章和各類規范性文件,這就導致目前針對算法這一新興問題主要在部門規范性文件及國家標準中,容易出現強制性不夠、執法監管效果打折扣、部門職責劃分不清等問題。同時多部門的規范性文件給平臺企業也造成無法適從、標準不統一、專項行動式的緊急應對等情形發生。二是對平臺的監管主要在事后被動監管,缺乏精細化的平臺監管規范。對平臺的監管主要根據平臺的過錯、行為、責任采取行政處罰措施,而此種監管模式在于缺乏事前的過程性監管,即便現在有算法備案制度,也是主要停留在特定重要領域的算法備案,再者對于備案的算法審查邏輯和標準也需要根據算法分級分類制度及時調整。三是對算法的技術性規范監管較少,立法缺少回歸算法本源。算法是一個技術概念,是“計算的方法”或“處理數據的方法”,同時算法也是具備一定的學習能力的,能夠根據現有的算法基礎和數據不斷演變。對于這些計算機指令的技術規范當前仍缺乏立法上的規范,目前主要規范是從網絡安全、法律風險等角度來規制的。
二、算法治理的內核、路徑與體系建設
為了促進算法相關立法體系的完善,實現算法的精準治理,筆者認為算法治理的內核在于數據信息安全。一方面算法是在自然語言基礎上建構起來的一系列程序邏輯,本質上就是且、或、非的邏輯運算。但無論算法多么復雜,其本質也是“用數據訓練的模型”,也就是通過不斷投喂數據來實現算法的不斷運行和進化。算法離不開數據的支持,當數據的處理活動出問題,那算法必然就出問題。因此關注算法的治理,本質就是數據的安全和合理處理。
另一方面自動化決策算法引發的“大數據殺熟”等法律風險已引起越來越多的社會關注,這說明算法治理的本質還在于信息的合理利用。此外,算法的靈魂在于其正向的價值觀。數據信息的利用處分需要追求正向價值觀,逐步實現算法的可驗證、可審核、可監督、可追溯、可預測、可信賴,同時具備普惠性、公平性和非歧視性。
需要說明的是,數據信息安全包括數據安全和信息安全兩大塊,數據安全就是規范數據處理活動,保障數據安全,維護各方利益,保障數據開發利用和產業發展;信息安全就是以《個人信息保護法》為主體,規范個人信息處理活動,促進個人信息合理利用,從嚴保護個人隱私。
明晰了算法治理的內核,才能聚焦立法規范和監管的重點,對于當前實踐中算法治理的困境問題有新的解決方案。人工智能乃至整個經濟社會的發展離不開海量數據和個人信息的填充,自動化決策算法充分利用數據信息發揮更大的經濟和社會價值。因此,筆者認為應當構建算法治理的“兩內在一外延”保障路徑,兩個內在要素是強化隱私保護和拓寬數據的廣度、深度和精度,一個外延保障是算法安全保障機制。
一是強化隱私保護。《民法典》對于隱私權的保護是在人格權編中的,足以顯示隱私保護的重要性。當下各大平臺的隱私政策都在調整更新,而這一輪的更新勢必會對相關平臺的算法無序發展帶來更多的限制。隱私保護與算法發展是相對的,強化隱私保護勢必會阻礙算法的更多元化發展,但正是基于隱私保護的重要性,避免算法侵害他人合法權益。強化隱私保護可以從以下幾點著手:
其一,強化隱私保護體現在立法內容、算法設計和應用、備案審查、執法監管重點、法律責任承擔等方面,這是算法治理的基本理念也是底線原則。
其二,強化重點人群的隱私保護,特別是不滿十四周歲的未成年人、老年人隱私保護,勞動者和消費者等群體也十分重要。按照《民法典》隱私權保護相關規定和《個人信息保護法》中敏感個人信息的相關規定進行信息保護與數據處理。個人信息處理活動滿足個人信息處理的五項重要原則,還有遵照“告知-知情-同意”的核心個人信息處理規則。
其三,有關隱私保護的糾紛主要是通過私法救濟的方式解決,而算法治理中涉及到的隱私保護問題就必然需要結合更多公法救濟的渠道,因此更多公法治理算法時需要關注隱私保護的傳統屬性與公私法治理的融合問題。
二是拓寬數據的廣度、深度和精度。算法治理絕不是過度強調監管懲罰,而是要強調事前的統籌管理。類似深度學習等自動化決策是需要海量數據的投喂,缺乏數據量基礎、數據不精準都會導致算法算到錯誤的方向。如企業在進行“用戶畫像”的時候,當用戶數據基數少或某一維度數據缺失的時候,就無法精準推送相關信息或提供相應服務。而在拓寬數據的廣度、深度和精度的時候,必然要受到數據合法處理活動的限制,處理該問題的要點如下:
其一,拓寬數據的過程首要是保障數據安全,數據安全才能確保算法的安全穩定,此為數據處理的基石。
其二,建立重要數據和數據分級分類管理制度。大量數據的涌入可能會打亂算法的基本秩序,因而對數據進行分級分類是各大平臺,尤其是超大型平臺需要規范的。
其三,建立算法中的驗證糾錯機制,即對數據的質量進行驗證,如抽檢機制、結果預警等發現數據的缺陷,以便及時糾偏。
三是算法安全保障機制。有了前兩者隱私保護和數據的基礎,接下來健全算法安全保障機制就尤其重要。安全保障機制包括科技倫理審查、立法保障、安全評估監測與安全事件應急處置等多方面,形成技術、法律、管理的多重保障。具體措施包括如下:
其一,算法向善。算法備案審查的基礎性要點在于科技倫理審查,此項審查的難點在于算法的不可預判性,即便當下算法規則審查合理,但隨著算法本身外延式的延伸,就會導致算法的結果存在不確定性。因此,應當建立類似算法倫理工作小組的專門性組織,由科技、法律等領域專家及監管部門和第三方行業代表等共同組成,加強定期審查與跟蹤監督,嚴防算法價值觀問題。
其二,立法保障方面。當前有關算法治理的立法頂層設計已逐步完成,接下來除了算法推薦管理外的其他算法活動需要加以重視,如算法的技術研發、數據挖掘、規則內容、運營支持、人員管理等多角度構建起算法治理新格局。
其三,健全安全評估監測、安全事件應急處置等管理制度和技術措施。對企業來說,要落實算法安全主體責任,守住算法安全的第一道防線,建立健全算法機制機理審核。對監管部門和行業組織來說,制定算法安全行業標準體系,宣揚算法安全基本理念,形成全社會多渠道監督合力。
算法化的時代給各行各業帶來了深刻的影響,也導致現在的組織形態發生新的動態變化。算法濫用所導致的問題可能是行業巨大的,算法治理需要跟算法開發同步開展,有效構建算法治理的“兩內在一外延”保障路徑,建立良好的數字營商環境,促進數字經濟社會的穩步健康發展。