點擊右上角微信好友
朋友圈
請使用瀏覽器分享功能進(jìn)行分享
作者:徐超(中國社會科學(xué)院信息情報研究院副研究員)
近年來,以信息技術(shù)為基礎(chǔ)的新一輪科技革命方興未艾,人工智能(AI)廣泛應(yīng)用于人類社會生活不同領(lǐng)域,促進(jìn)相關(guān)產(chǎn)業(yè)鏈發(fā)展,同時也滋生諸多風(fēng)險與挑戰(zhàn)。為有效應(yīng)對人工智能帶來的風(fēng)險與挑戰(zhàn),世界主要國家和地區(qū)陸續(xù)制定人工智能監(jiān)管制度。從共性來看,人工智能監(jiān)管以風(fēng)險分級治理為基本理念,以倫理審查、算法治理、內(nèi)容治理、數(shù)據(jù)安全、競爭執(zhí)法、行業(yè)監(jiān)管等作為主要抓手,確保人工智能安全、可信、可控。我國作為人工智能研發(fā)與應(yīng)用大國,應(yīng)適當(dāng)借鑒人工智能國際監(jiān)管最新成果,控制相關(guān)領(lǐng)域風(fēng)險并提升人工智能全球治理的話語權(quán)。
人工智能監(jiān)管的全球維度
當(dāng)前,人工智能監(jiān)管往往以“軟法”形式存在,其中《布萊切利宣言》較具有代表性。2023年11月1日至2日,首屆全球人工智能安全峰會在英國舉行,峰會發(fā)布《布萊切利宣言》。該宣言將前沿AI風(fēng)險的監(jiān)管重點分為三個方面。一是識別共同關(guān)注的AI安全與風(fēng)險,構(gòu)建以科學(xué)和證據(jù)為基礎(chǔ)的風(fēng)險識別方法與機(jī)制,拓展關(guān)于AI對人類社會深遠(yuǎn)影響的思考與認(rèn)知范圍。二是不同國家應(yīng)根據(jù)不同風(fēng)險級別制定相應(yīng)監(jiān)管制度以確保安全與發(fā)展,鼓勵適當(dāng)情況下的國際合作,同時理解不同國家可能因國情和法律框架不同而采取不同的監(jiān)管制度與方法。三是除了提高私人機(jī)構(gòu)在前沿AI開發(fā)方面的透明度要求外,還應(yīng)制定合理的評估標(biāo)準(zhǔn),推廣安全測試工具,促進(jìn)公共部門提升相關(guān)能力,鼓勵科學(xué)研究。
人工智能監(jiān)管的區(qū)域維度
2024年8月正式生效的歐盟《人工智能法案》,是全球第一部針對人工智能衍生風(fēng)險而制定的監(jiān)管法案,有助于提升歐盟在人工智能全球治理進(jìn)程中的話語權(quán)。該法案根據(jù)人工智能對健康、安全和自然人基本權(quán)利存在的潛在風(fēng)險,對其進(jìn)行風(fēng)險分類并設(shè)置不同法律義務(wù)與責(zé)任,主要內(nèi)容如下:(1)不可接受的風(fēng)險,禁止任何企業(yè)或個人等市場主體進(jìn)入該領(lǐng)域;(2)高風(fēng)險,允許相關(guān)主體在履行事前評估等義務(wù)后,進(jìn)入市場或使用,同時要求事中、事后持續(xù)監(jiān)測;(3)有限風(fēng)險,無須取得特殊牌照、認(rèn)證或履行報告、記錄等義務(wù),但應(yīng)遵循透明度原則,允許合理的可追溯性和可解釋性;(4)低風(fēng)險或最低風(fēng)險,相關(guān)主體可自行決定是否進(jìn)入市場和使用。對于生成式人工智能,由于其沒有特定目的并且可應(yīng)用于不同場景,故不能基于一般操作模式對其進(jìn)行風(fēng)險分級,而應(yīng)當(dāng)按照開發(fā)或使用生成式人工智能的預(yù)期目的和具體應(yīng)用領(lǐng)域進(jìn)行區(qū)分。需要說明的是,該法案要在人工智能實踐中予以落實和執(zhí)行,仍存在技術(shù)等方面的不確定性。
人工智能監(jiān)管的國家維度
美國以行業(yè)管理標(biāo)準(zhǔn)為主,輔之以必要的部門立法。自2016年以來,美國不斷加大監(jiān)管人工智能的力度,相繼通過多部相關(guān)監(jiān)管法律制度和指南。2020年11月,美國正式發(fā)布《人工智能應(yīng)用監(jiān)管指南》,提出美國聯(lián)邦機(jī)構(gòu)在制定人工智能應(yīng)用立法時,應(yīng)當(dāng)考量的十項基本原則,包括風(fēng)險評估與管理、公平和非歧視及公開與透明等要求。在《國家人工智能倡議法案》的推動下,美國成立國家人工智能資源研究工作小組,負(fù)責(zé)調(diào)查美國發(fā)展AI研究網(wǎng)絡(luò)、基礎(chǔ)設(shè)施的可及性和可供咨詢特征,并在2023年1月發(fā)布《加強和民主化美國人工智能創(chuàng)新生態(tài)系統(tǒng):國家人工智能研究資源實施計劃》,旨在構(gòu)建一個更加普遍、系統(tǒng)的AI研究網(wǎng)絡(luò)基礎(chǔ)設(shè)施體系。其目標(biāo)包括:鼓勵創(chuàng)新,增加人才供給多樣性,提高管理能力,確保人工智能應(yīng)用的安全、可控、可信。2023年1月,美國國家標(biāo)準(zhǔn)與技術(shù)研究院公布《人工智能風(fēng)險管理框架》,用于指導(dǎo)組織機(jī)構(gòu)在開發(fā)和部署人工智能系統(tǒng)時降低安全風(fēng)險,避免產(chǎn)生偏見和其他負(fù)面后果,提高人工智能可信度,保護(hù)公民的公平自由權(quán)利。
英國制定人工智能政策白皮書。2023年3月,英國新設(shè)的科學(xué)創(chuàng)新與技術(shù)部公布了一份政策白皮書,即《創(chuàng)新型人工智能監(jiān)管》(A pro-innovation approach to AI regulation),通過簡化創(chuàng)新審查、制定監(jiān)管相關(guān)風(fēng)險與威脅等措施,促使英國在人工智能全球治理進(jìn)程中發(fā)揮建設(shè)性作用。該白皮書提出以下五項監(jiān)管原則:(1)安全與穩(wěn)健性;(2)透明度和可解釋性;(3)公平;(4)問責(zé)和治理;(5)可競爭性和補救。然而,AI供應(yīng)鏈(包括算法、數(shù)據(jù)庫、參數(shù)設(shè)計、訓(xùn)練模型設(shè)計等)通常是不透明的,這使其風(fēng)險監(jiān)管和問責(zé)措施難以在現(xiàn)實生活中執(zhí)行。
韓國立法與行業(yè)監(jiān)管相結(jié)合。從2019年的《國家人工智能戰(zhàn)略》到2020年的《完善人工智能法律法規(guī)監(jiān)管路線圖》,再到2023年的《數(shù)字權(quán)利法案》等法律制度相繼出臺與生效,足以說明韓國正在持續(xù)完善人工智能監(jiān)管體制機(jī)制。其中,尤其值得關(guān)注的是《促進(jìn)人工智能產(chǎn)業(yè)和建立可信人工智能框架法案》。這項立法基于“先采用技術(shù)后監(jiān)管”原則扶持AI技術(shù)發(fā)展,對高風(fēng)險AI領(lǐng)域提出具體監(jiān)管要求,包括強制要求事先通知用戶,確保系統(tǒng)可信度和安全性等。此外,《信用信息使用和保護(hù)法》規(guī)定,信用數(shù)據(jù)主體有權(quán)要求相關(guān)數(shù)據(jù)控制者對自動化評估和決策作出解釋,包括提交有利信息的權(quán)利、要求更正或刪除基本信息的權(quán)利等。《個人信息保護(hù)法》規(guī)定,自動化決策對數(shù)據(jù)主體的權(quán)利或義務(wù)產(chǎn)生重大影響的,數(shù)據(jù)主體有權(quán)拒絕自動化決策,并要求相關(guān)數(shù)據(jù)控制者作出解釋。即使自動化決策不會對數(shù)據(jù)主體的權(quán)利或義務(wù)產(chǎn)生重大影響,數(shù)據(jù)主體也可以要求數(shù)據(jù)控制者對自動化決策作出解釋。
完善我國人工智能監(jiān)管體系
妥善處理人工智能創(chuàng)新、發(fā)展與安全之間的關(guān)系,是國際社會監(jiān)管人工智能的重要考量。當(dāng)前,須在總體國家安全觀的指導(dǎo)下,完善我國人工智能監(jiān)管體系。
首先,劃分風(fēng)險等級,構(gòu)建不同風(fēng)險等級的監(jiān)管制度。縱觀前述全球、地區(qū)和國家的人工智能監(jiān)管制度,可以發(fā)現(xiàn)以下兩方面共同特征。一方面,系統(tǒng)評估人工智能應(yīng)著重分析人工智能系統(tǒng)在使用中可能產(chǎn)生的潛在風(fēng)險并逐一進(jìn)行排查,比如訓(xùn)練數(shù)據(jù)的偏差、系統(tǒng)的穩(wěn)健性、信息安全的防護(hù)等具體問題;另一方面,根據(jù)人工智能應(yīng)用領(lǐng)域的差異而開展不同維度的風(fēng)險評估,比如醫(yī)療領(lǐng)域AI應(yīng)用比消費者推薦系統(tǒng)AI應(yīng)用風(fēng)險更高,應(yīng)適用更嚴(yán)格且系統(tǒng)的風(fēng)險評估。人工智能企業(yè)應(yīng)提前布局,組建內(nèi)部人工智能風(fēng)險治理委員會,及時研判人工智能在數(shù)據(jù)、技術(shù)和應(yīng)用等層面的潛在風(fēng)險,逐步建立有效的風(fēng)險預(yù)警與應(yīng)急管理體制機(jī)制,采取分類分級監(jiān)管等簡便、有效方式,積極探索人工智能設(shè)計、研發(fā)、投入市場、運行維護(hù)等全流程評估驗證機(jī)制,持續(xù)提升人工智能風(fēng)險管控和處置能力。
其次,搭建資源平臺,促進(jìn)跨學(xué)科專家學(xué)者和實務(wù)界人士共同研究,構(gòu)建AI安全應(yīng)用方案。當(dāng)下,我國應(yīng)加大資源投入和搭建資源平臺,聚集更多專家學(xué)者和實務(wù)界人士共同研發(fā)和改進(jìn)人工智能,這有助于提升我國科技實力在全球的排名,并能夠促進(jìn)我國經(jīng)濟(jì)社會高質(zhì)量發(fā)展。《生成式人工智能服務(wù)管理暫行辦法》第5條、第6條明確了我國鼓勵和發(fā)展生成式人工智能的立場和方案。比如,支持行業(yè)組織、企業(yè)、教育和科研機(jī)構(gòu)、公共文化機(jī)構(gòu)、有關(guān)專業(yè)機(jī)構(gòu)等,在生成式人工智能技術(shù)創(chuàng)新、數(shù)據(jù)資源建設(shè)、轉(zhuǎn)化應(yīng)用、風(fēng)險防范等方面開展協(xié)作。今后,可以進(jìn)一步出臺相關(guān)行業(yè)規(guī)范和實施細(xì)則,推動此項方針政策依法有序落地。
最后,多措并舉優(yōu)化人工智能監(jiān)管體制機(jī)制。一是建立健全科學(xué)、合理、公開和透明的人工智能監(jiān)管體制機(jī)制,加強對人工智能的設(shè)計問責(zé)和應(yīng)用監(jiān)督的雙重監(jiān)管。二是充分實現(xiàn)對人工智能算法設(shè)計、產(chǎn)品開發(fā)和成果應(yīng)用等全過程監(jiān)督,督促人工智能行業(yè)及企業(yè)自律。以個人信息數(shù)據(jù)及隱私保護(hù)為核心,保護(hù)公民的個人信息和數(shù)據(jù)安全。三是減少偏見因素,確保技術(shù)中立,強化人工智能治理機(jī)構(gòu)之間的協(xié)調(diào)性和能動性,建立多元有序的規(guī)制體系。