點擊右上角微信好友
朋友圈
請使用瀏覽器分享功能進行分享
作者:湯志偉(電子科技大學公共管理學院教授、博士生導師,電子科技大學(深圳)高等研究院執行院長)
10月18日,中央網信辦發布《全球人工智能治理倡議》(下稱《倡議》),圍繞人工智能發展、安全、治理三方面系統闡述了人工智能治理的中國方案。《倡議》就各方普遍關切的人工智能發展與治理問題提出了建設性解決思路,在人工智能倫理治理方面,提出:“堅持倫理先行,建立并完善人工智能倫理準則、規范及問責機制,形成人工智能倫理指南,建立科技倫理審查和監管制度,明確人工智能相關主體的責任和權力邊界,充分尊重并保障各群體合法權益,及時回應國內和國際相關倫理關切。”
人工智能是人類發展的新領域。人工智能技術被視作第四次科技革命的核心驅動力,在全球掀起了新一輪產業變革浪潮,對經濟社會發展和人類文明進步產生深遠影響。根據中國信息通信研究院測算,2022年我國人工智能核心產業規模達到了5080億元,同比增長18%,企業數量近4000家,國內人工智能已形成完整的體系,成為新的增長引擎。
人工智能技術給經濟社會發展帶來巨大福利,也帶來難以預知的各種風險和復雜挑戰。人工智能技術發展的不確定性、技術應用的數據依賴性以及算法可解釋性可能導致技術失控、隱私失密、公平失衡等問題,沖擊著倫理規范。推動人工智能的健康發展必須重視其對社會倫理的影響,防范和治理其潛在倫理風險。對此,《倡議》也提到:“研發主體不斷提高人工智能可解釋性和可預測性,提升數據真實性和準確性,確保人工智能始終處于人類控制之下,打造可審核、可監督、可追溯、可信賴的人工智能技術。”
習近平總書記強調;“科技是發展的利器,也可能成為風險的源頭。要前瞻研判科技發展帶來的規則沖突、社會風險、倫理挑戰,完善相關法律法規、倫理審查規則及監管框架。”2017年,國務院發布《新一代人工智能發展規劃》,指出到2025年初步建立人工智能法律法規、倫理規范和政策體系。2019年,《新一代人工智能治理原則——發展負責任的人工智能》發布,提出和諧友好、公平公正、敏捷治理等在內的八條原則。2020年,國家科技倫理委員會正式成立,是新時代國家科技倫理治理的重大戰略決策。2021年,《新一代人工智能倫理規范》發布,分別闡述了人工智能的管理規范、研發規范、供應規范和使用規范。2022年,《關于加強科技倫理治理的意見》發布,提出五項基本要求與五項科技倫理原則,部署四大重點任務,為進一步完善科技倫理治理體系作出指導。2023年,《生成式人工智能服務管理暫行辦法》發布,成為我國人工智能產業首份監管文件。種種舉措表明,我國在人工智能倫理治理上持續發力。基于《倡議》內容,我們未來仍需要繼續堅持倫理先行,做好風險防范,形成具有廣泛共識的人工智能治理框架和標準規范。
一、研判人工智能倫理風險
人工智能的可控性風險。這種風險來源于對技術失控的擔憂,指的是人工智能技術的發展超出人類控制范圍而產生的風險。人工智能技術的發展日新月異,人工智能算法已經融入自主性、情感性、意向性等人格要素,理論上存在著從弱人工智能發展到強人工智能、超人工智能的可能性。以智能機器人為代表的“人工生命”普遍出現,使人類較以往更擔心技術脫離控制,但從現有人工智能成果的技術條件來說,人工智能技術只能應用于強力法封閉原則與訓練法封閉原則下的場景,出現不可控技術仍屬于“遠慮”。
人工智能的使用性風險。這種風險指應用人工智能而存在的風險,主要源于人工智能技術的非正當使用,比如技術濫用與技術誤用。以人臉識別技術為例,人臉識別算法可以幫助警方搜尋在逃罪犯,但人臉識別技術是否完全可靠,結果是否百分百準確,在現階段并不能保證。美國紐約、新澤西兩大州的調查人員,通過面部識別軟件,找到與嫌疑人照片高度匹配的人,但是最終卻抓錯并將“罪犯”關押十天。還有研究團隊利用唇曲率、眼內角距以及口鼻角度等面部識別系統預測某些人具有犯罪傾向,得出黑人的犯罪概率遠遠高于其他人,引起極大爭議,以機器學習相面極有可能得到“可能的假象”與“客觀的謬誤”。此外,“換臉”等深度偽造問題層出不窮,而面部信息關系到個人隱私與財產安全,人臉識別技術何時、何處、該在何種程度使用都還需要進一步規范。
人工智能的社會效應風險。這種風險來自于與人工智能治理相關的重大社會問題,是人工智能技術對社會產生的負面效應。人工智能廣泛的商業化應用帶來一系列的產業變革,當負效應超過正效應后,將對社會產生巨大影響。比如在經濟就業方面,取代大量勞動力、導致失業浪潮、產生“無用階層”;在國家治理方面,利用人工智能技術優勢操縱輿論,網絡竊密、網絡勾連威脅政治安全;在文化藝術方面,人工智能寫作、繪畫等技術形成的作品多處拼湊抄襲,看似降低“創作”門檻背后,卻可能讓藝術的創新探索止步不前;在生態環境方面,人工智能技術下的數據作為生產要素,可以減少自然資源和資本等傳統要素的依賴,但是人工智能發展依賴的基礎設施消耗并未減少。
二、優化人工智能倫理治理
健全人工智能倫理風險評估機制,增強風險防范能力。當前人工智能技術已經產生或即將產生各類倫理風險,需要得到正視與重視。一方面,正視倫理風險的客觀性,正確認識人工智能技術帶來的倫理風險,不盲目地悲觀或者片面地樂觀,引導理性認知,加強人工智能倫理風險教育,客觀全面地評估人工智能倫理風險。
另一方面,建立倫理風險評估機制,梳理風險源頭、風險類型、風險強度,思考風險產生原因、風險解決措施,防范未發生的風險,對人工智能應用的負面影響開展預見性風險評估,提前做好風險預案。面對人工智能技術的不確定性,優化人工智能倫理風險評估機制,需要集合多方力量、采用多種方法,科學開展風險評估工作。政府、高校、研究院所等機構可以聯合起來,建立風險評估指標,為人工智能技術應用劃定風險等級,針對不同風險等級使用不同的安防策略和技術。開展人工智能倫理風險防范的前瞻性研究,可以采用“技術制約技術”的方式,建立對抗性學習算法研究,建立人工智能倫理風險防控系統,預防人工智能技術在應用場景中的潛在倫理風險。
打造人工智能倫理風險治理群落,促進多方協同共治。人工智能的倫理風險涉及面廣,復雜程度高,風險治理涉及智能技術、倫理哲學、公共管理等多領域,需要政府、企業、高校、行業組織、公眾等多主體搭建多方協同共治的組織網絡,明確不同主體的權責義務,建構多主體合作治理的緊密關系,形成集群治理效應。
政府作為管理部門需要發揮政策引導與監督審查作用,比如政策制定者在制定人工智能倫理治理的相關政策時可以面向社會公眾、企業、科研團體等其他主體,開展聽證、征詢和協商活動,提高其他主體在政策制定過程的參與度。人工智能企業作為技術前線需要提高自律自治能力,增強風險意識與責任意識,在企業內部設立人工智能倫理委員會,培養人工智能倫理研究員,開展倫理風險自查,落實人工智能技術可信可靠要求。人工智能行業組織需要針對行業發展情況建立行業倫理規范,在政府引導下制定相關技術標準,促進企業落實主體責任。高校、科研院所等科研共同體可以積極參與倫理規范制定,研究人工智能倫理風險治理的算法工具,還可以發揮教育作用,開展人工智能倫理教育以及人工智能技術的科普活動。
完善人工智能倫理風險治理體系,推動敏捷治理。除《倡議》外,《新一代人工智能治理原則》《新一代人工智能倫理規范》與《關于加強科技倫理治理的意見》的治理要求中都提到了“敏捷治理”。推動“敏捷治理”,要尊重人工智能發展規律,持續優化管理機制、完善治理體系。一方面,完善人工智能倫理風險監管機制,將倫理風險監管融入人工智能全生命周期,實現全流程全鏈條監管,建立問責機制,明確問題責任人;另一方面,將人工智能倫理風險治理標準化、規范化,形成多級制度配套體系,以具體的標準將寬泛的治理原則可操作化。
此外,還需要根據人工智能技術發展,動態調整倫理風險處理方式,針對人工智能商業化應用的新興問題,及時制定倫理風險治理辦法。歐盟在2021年提出了《人工智能法》提案,促使人工智能治理從軟性約束向實質硬性要求轉變。目前我國出臺了《中華人民共和國個人信息保護法》《中華人民共和國數據安全法》等數字技術領域的專門立法,為個人隱私安全風險治理填補立法空白,但相關立法較為零散,并且具有滯后性。因此,還需要推動人工智能倫理風險治理的法治化進程,增強立法前瞻性,建立一套規范的法律體系。
(電子科技大學智慧治理研究院研究員葉昶秀、龔澤鵬對此文亦有貢獻。本文系國家社會科學基金重點項目“人工智能商業化應用的社會影響與治理體系研究”(22AZD135)的階段性成果。)