點擊右上角微信好友
朋友圈
請使用瀏覽器分享功能進行分享
作者:張靜(北京郵電大學馬克思主義學院副教授、北京市習近平新時代中國特色社會主義思想研究中心特約研究員)
黨的二十屆三中全會通過的《中共中央關于進一步全面深化改革、推進中國式現代化的決定》指出,“加強網絡安全體制建設,建立人工智能安全監管制度”。當前,新一輪科技革命和產業變革蓬勃發展,人工智能、生物技術、新能源等前沿技術方興未艾。其中,以DeepSeek、ChatGPT等為代表的生成式人工智能熱潮席卷全球,成為現象級話題。生成式人工智能技術在重塑全球科技創新與產業發展格局的同時,也可能引發價值導向偏差、AI技術濫用等復雜挑戰。面對這場深刻影響國家發展與未來的技術革命,著力筑牢生成式人工智能發展的安全防線,構建科學完備、運行高效、多維協同的風險防范體系,不僅關乎技術本身的應用效能,更直接關系到國家安全、社會穩定、文化繁榮和國際競爭力提升,是擺在我們面前的重大時代課題。
明確價值導向,牢固樹立科技發展的正確理念。首先,堅持科技為民、技術向善。習近平總書記強調,“要把滿足人民對美好生活的向往作為科技創新的落腳點,把惠民、利民、富民、改善民生作為科技創新的重要方向”。這彰顯了我國科技創新的人民性特征,意味著要使生成式人工智能技術更好服務于人民對美好生活的向往,確保技術成果能夠廣泛惠及全體社會成員,促進社會公平正義與和諧穩定。政府、企業、高校、科研機構等各主體都應將技術向善理念融入生成式人工智能技術發展過程,實現從研發到應用全生命周期的價值導向把控,確保技術發展不偏離為人類謀福祉的初衷,實現社會價值與經濟價值的兼顧。其次,統籌好發展與安全的關系。安全是發展的前提,發展是安全的保障,發展生成式人工智能技術,需深刻把握技術創新活力釋放與風險有效管控的辯證統一。這就要求我們既要克服“談AI色變”的過度擔憂心理,為技術探索、產業孵化、應用場景落地等創造包容審慎的發展空間,激發其賦能生產力發展的巨大潛能;也要堅決摒棄“技術至上”“先發展后治理”的思維觀念,將安全理念、合規標準深度內嵌于技術研發、模型訓練、場景應用等全鏈條、全流程、全生命周期中,確保生成式人工智能技術在保持創新活力的同時,始終運行在安全可靠的軌道上。
強化源頭管理,提升數據治理能力。數據是訓練人工智能模型的基礎要素,也是人工智能模型應用的核心資源。生成式人工智能發展依賴海量的訓練數據,包括個人數據、企業數據和政府數據等,一旦這些數據失控流動、造成泄漏,將可能導致個人身份盜用、財產損失,甚至對國家安全帶來不利影響。因此,針對重點行業的重要數據、核心數據,可參照歐盟《通用數據保護條例》和我國數據安全法等的管控要求,按照“境內存儲+安全評估”的方式進行管理;構建跨模態數據安全與隱私保護體系,依托區塊鏈技術實現全鏈路數據存證,通過可信執行環境技術,實現“原始數據不出域,數據可用不可見”;構建風險預警和動態評估平臺,實時監測和分析平臺運行狀態、數據流向等信息,加強對違規內容與行為的實時識別與研判。同時,數據質量直接影響大語言模型的性能與可靠性。要加快建立數據使用的標準與規范,提高數據的可解釋性與可用性;加強對數據的清洗與篩選等預處理,提升數據質量。建立健全大數據審計工作機制,定期對數據的收集、存儲、使用和共享情況進行審查,及時發現并糾正數據濫用、隱私泄露等問題,確保數據使用和技術發展始終在可控范圍內。數據提供者也需遵循合法性與合規性原則,確保數據來源合法、內容真實準確,減少深度偽造技術帶來的負面影響。
健全制度保障,推進人工智能監管治理體系化。一方面,立法先行,明確基本法律框架和責任邊界。依托網絡安全法、數據安全法和個人信息保護法構建的法律框架體系,可考慮將目前已有的相關政策包括《生成式人工智能服務管理暫行辦法》等逐步上升為具有更高法律效力的文件,加快推動全面系統的人工智能專門性法律制定,明確技術研發者、使用者、監管者等各主體的權利、義務與責任邊界。要明確規定相關企業在數據收集、存儲、使用過程中的安全保障責任,界定監管部門在監督檢查、風險防范、應急處置等方面的職權范圍和執法程序,確保監管工作的合法性、規范性和有效性,使各參與主體能夠在明確的法律框架內開展活動,有法可依、有章可循。另一方面,協同共治,建立健全跨部門監管體系。可整合相關部門的監管資源與力量,明確各部門在風險防范中的具體職責和角色,通過信息共享、聯合執法等方式,建立高效的協同工作機制,形成監管合力,提高監管效率和執法效果,避免產生職責不清、推諉等現象。同時,建立跨地區、跨平臺的協同監管機制,減少監管盲區,確保生成式人工智能技術在各個應用領域都受到嚴格有效的監管,保障社會公共利益和廣大用戶的合法權益。
此外,維護生成式人工智能安全,構建風險防范體系,也離不開全社會的共同參與。普及人工智能教育、提升公眾科學素養是重要一環。在中小學的基礎教育階段,可通過科普課程、實踐活動等多種形式,向廣大青少年普及人工智能基本原理、技術應用及其潛在風險等知識,培養他們對技術的理性認知和正確的價值判斷能力。在大學教育和職業培訓中,可開設專門的人工智能課程和培訓模塊,系統講授法律法規、風險案例等內容,提高相關從業人員在技術研究、開發與應用中的安全責任意識。同時,面向社會公眾廣泛開展人工智能素養的宣傳教育活動,借助短視頻平臺、社區宣傳、線上線下講座等多種渠道,提高全社會對人工智能的關注度與認知水平,增強人們的風險防范意識和對技術發展的理性態度,形成全民參與、共同監督的良好社會氛圍。鼓勵和支持社會組織、行業協會發揮社會監督作用,加強對生成式人工智能技術應用過程中的違法違規行為和風險問題等的揭露,形成全社會共同參與監督的強大合力,打造健康有序、可持續的生成式人工智能發展環境。
生成式人工智能技術以其強大的顛覆性和創新性,正在逐漸改變我們的世界,在這一過程中,也伴生著未知的系統性風險挑戰,構建安全可靠的風險防范體系是引導其健康有序發展的重要時代課題。筑牢生成式人工智能安全防線不是束縛技術發展,而是為了更好引導技術創新向服務人類發展和文明進步的方向前進。這就要求既要保持對技術風險的警惕性,也要保持對技術創新的包容性,盡可能將潛在風險轉化為發展契機,形成推動社會發展的強大動力,為我們贏得全球科技競爭主動權、搶占未來發展制高點提供技術支撐與保障。