中國冶金報(bào) 中國鋼鐵新聞網(wǎng)
記者 樊三彩 報(bào)道
2022年3月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見》,對(duì)科技倫理治理工作進(jìn)行了系統(tǒng)部署,將人工智能列入科技倫理治理的重點(diǎn)領(lǐng)域。
當(dāng)前,人工智能倫理面臨哪些風(fēng)險(xiǎn)與挑戰(zhàn)?國內(nèi)外進(jìn)行了哪些實(shí)踐?未來應(yīng)如何實(shí)現(xiàn)人工智能倫理的治理?近日,中國信息通信研究院(簡稱中國信通院)發(fā)布的《人工智能倫理治理研究報(bào)告(2023年)》圍繞相關(guān)問題進(jìn)行了研究分析。
該報(bào)告認(rèn)為,人工智能技術(shù)的突破發(fā)展,引發(fā)了技術(shù)應(yīng)用的倫理爭議,特別是生成式人工智能技術(shù)的發(fā)展應(yīng)用引發(fā)了偏見歧視、隱私侵犯、責(zé)任不明、虛假內(nèi)容傳播等倫理挑戰(zhàn)。未來一段時(shí)期,人工智能倫理治理將與產(chǎn)業(yè)創(chuàng)新活動(dòng)增強(qiáng)協(xié)調(diào);多學(xué)科多主體參與、分類分級(jí)治理、技術(shù)工具開發(fā)等措施將有效推動(dòng)人工智能倫理治理機(jī)制完善;全民科技倫理素養(yǎng)的提升將有效防范人工智能倫理風(fēng)險(xiǎn);全球人工智能倫理治理合作也將推動(dòng)人工智能技術(shù)造福人類。
挑戰(zhàn):覆蓋人工智能全生命周期的各個(gè)階段
人工智能倫理是開展人工智能研究、設(shè)計(jì)、開發(fā)、服務(wù)和使用等科技活動(dòng)需要遵循的價(jià)值理念和行為規(guī)范,呈現(xiàn)出哲學(xué)性、技術(shù)性、全球性三大特點(diǎn)。該報(bào)告認(rèn)為,目前,人工智能引發(fā)的倫理挑戰(zhàn)已從理論研討變?yōu)楝F(xiàn)實(shí)風(fēng)險(xiǎn)。據(jù)統(tǒng)計(jì),僅2023年11月,人工智能事件就超過280件。對(duì)人工智能倫理問題的關(guān)切覆蓋人工智能全生命周期的各個(gè)階段,需要從技術(shù)研發(fā)和應(yīng)用部署層面分析評(píng)估人工智能倫理風(fēng)險(xiǎn)。
其中,在技術(shù)研發(fā)階段,由于人工智能技術(shù)開發(fā)主體在數(shù)據(jù)獲取和使用、算法設(shè)計(jì)、模型調(diào)優(yōu)等方面還存在技術(shù)能力和管理方式的不足,可能產(chǎn)生偏見歧視、隱私泄露、錯(cuò)誤信息、不可解釋等倫理風(fēng)險(xiǎn)。在產(chǎn)品研發(fā)與應(yīng)用階段,人工智能產(chǎn)品所面向的具體領(lǐng)域、人工智能系統(tǒng)的部署應(yīng)用范圍等將影響人工智能倫理風(fēng)險(xiǎn)程度,并可能產(chǎn)生誤用濫用、過度依賴、沖擊教育與就業(yè)等倫理風(fēng)險(xiǎn)。
“需要注意,隱私泄露、偏見歧視、產(chǎn)生虛假錯(cuò)誤信息、歸責(zé)不明等倫理風(fēng)險(xiǎn)既可能產(chǎn)生在研發(fā)階段,又可能產(chǎn)生于應(yīng)用階段,甚至是兩者疊加產(chǎn)生的負(fù)面后果。識(shí)別人工智能倫理風(fēng)險(xiǎn)需要進(jìn)行全生命周期的評(píng)估。”該報(bào)告特別強(qiáng)調(diào)。
當(dāng)前,伴隨著大模型的發(fā)展,生成式人工智能應(yīng)用成為 2023年人工智能應(yīng)用熱點(diǎn),但使用大模型生成內(nèi)容具有三大突出倫理風(fēng)險(xiǎn)。
一是誤用濫用風(fēng)險(xiǎn)。生成式人工智能技術(shù)應(yīng)用普及快、使用門檻低,可能成為制作深度偽造內(nèi)容、惡意代碼等的技術(shù)工具,引發(fā)虛假信息大量傳播以及網(wǎng)絡(luò)安全問題。
二是數(shù)據(jù)泄露與隱私侵犯風(fēng)險(xiǎn)。生成式人工智能使用的訓(xùn)練數(shù)據(jù)集可能包含個(gè)人信息,繼而被誘導(dǎo)輸出有關(guān)信息。同時(shí),在用戶使用過程中上傳的個(gè)人信息、企業(yè)商業(yè)秘密、重要代碼等都有可能成為生成式人工智能訓(xùn)練的素材,進(jìn)而產(chǎn)生被泄露的風(fēng)險(xiǎn)。
三是對(duì)知識(shí)產(chǎn)權(quán)制度帶來挑戰(zhàn)。生成式人工智能技術(shù)對(duì)知識(shí)產(chǎn)權(quán)體系造成了沖擊。在訓(xùn)練數(shù)據(jù)的使用上,哪些數(shù)據(jù)能用于模型訓(xùn)練還存在爭議,關(guān)于“合理使用”是否能適用于大模型數(shù)據(jù)訓(xùn)練還在討論,且已有藝術(shù)家開始使用技術(shù)工具”阻止未經(jīng)允許的模型訓(xùn)練。在生成內(nèi)容的權(quán)利歸屬上,人工智能技術(shù)是否僅能發(fā)揮工具作用還有探討空間。
實(shí)踐:世界各國逐步構(gòu)建起人工智能有序發(fā)展的治理機(jī)制
人工智能已成為各國科技發(fā)展的重要戰(zhàn)略。目前,各國通過倫理規(guī)范明確人工智能技術(shù)研發(fā)和應(yīng)用的基本倫理要求,加強(qiáng)全球人工智能倫理治理合作,逐步構(gòu)建起人工智能有序發(fā)展的治理機(jī)制。
國際組織的人工智能倫理治理方案。目前,國際社會(huì)正加緊推進(jìn)人工智能倫理治理領(lǐng)域的合作。在人工智能倫理共識(shí)性原則層面,聯(lián)合國教科文組織193個(gè)成員國于2021年11月達(dá)成《人工智能倫理問題建議書》,明確尊重、保護(hù)和促進(jìn)人的權(quán)利、基本自由、尊嚴(yán),環(huán)境和生態(tài)系統(tǒng)發(fā)展,確保多樣性和包容性,生活在和平、公正的互聯(lián)網(wǎng)社會(huì)中等4項(xiàng)人工智能價(jià)值觀。同時(shí),ISO(國際標(biāo)準(zhǔn)化組織)、IEC(國際電工委員會(huì))、IEEE(電氣與電子工程師委員會(huì))、ITU(國際電信聯(lián)盟)等國際標(biāo)準(zhǔn)化組織積極推動(dòng)以人工智能技術(shù)為代表的科技倫理標(biāo)準(zhǔn)研制。2023年5月25日,聯(lián)合國發(fā)布的《我們的共同議程》政策簡報(bào)提出“全球數(shù)字契約——為所有人創(chuàng)造開放、自由、安全的數(shù)字未來”;2023年10月26日,聯(lián)合國高級(jí)別人工智能咨詢機(jī)構(gòu)成立;2023年12月,該咨詢機(jī)構(gòu)發(fā)布臨時(shí)報(bào)告《以人為本的人工智能治理》。
域外國家和地區(qū)的人工智能倫理治理機(jī)制。其中,既有以美國為代表的以面向市場和創(chuàng)新為導(dǎo)向的監(jiān)管模式,又有以歐盟為代表的積極介入模式。
美國發(fā)展以鼓勵(lì)創(chuàng)新為基礎(chǔ)的可信賴人工智能。在行政規(guī)劃層面,2023年10月,美國總統(tǒng)拜登發(fā)布《關(guān)于安全、可靠、可信賴地開發(fā)和使用人工智能》行政令,明確進(jìn)行負(fù)責(zé)任人工智能技術(shù)開發(fā)。此前,2022年5月,拜登政府成立國家人工智能咨詢委員會(huì);2022年10月發(fā)布《人工智能權(quán)利法案藍(lán)圖》。同時(shí),美國政府積極鼓勵(lì)行業(yè)自律,2023年7月和9月兩次推動(dòng)包括OpenAI、谷歌、微軟、英偉達(dá)等15家企業(yè)就開發(fā)避免偏見歧視、保護(hù)隱私的人工智能做出承諾。在具體領(lǐng)域,美國聯(lián)邦政府不同部門也依據(jù)主責(zé)主業(yè)發(fā)布相應(yīng)的倫理原則和治理框架。不過,美國目前仍然缺乏以人工智能為規(guī)制對(duì)象的具有約束力的法律規(guī)范。
歐盟通過健全監(jiān)管規(guī)制落地人工智能倫理要求。在倫理框架方面,2019年4月,歐盟高級(jí)專家組發(fā)布《可信人工智能倫理指南》,提出可信人工智能的概念和7項(xiàng)關(guān)鍵要求,包括保證人類監(jiān)督、魯棒性和安全性、隱私和數(shù)據(jù)治理、透明度、多樣性、社會(huì)和環(huán)境福利、問責(zé)。在治理落地方面,2023年12月,歐盟委員會(huì)、歐洲理事會(huì)、歐洲議會(huì)達(dá)成共識(shí),就《人工智能法案》達(dá)成臨時(shí)協(xié)議,提出基于風(fēng)險(xiǎn)的監(jiān)管方式,將人工智能系統(tǒng)帶來的挑戰(zhàn)分為不可接受的風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)、基本無風(fēng)險(xiǎn)4個(gè)級(jí)別,并形成對(duì)應(yīng)的責(zé)任和監(jiān)管機(jī)制;同時(shí),強(qiáng)調(diào)以人為本、保證透明度等倫理價(jià)值要求。
此外,德國關(guān)注人工智能具體應(yīng)用領(lǐng)域(人工智能算法、數(shù)據(jù)以及自動(dòng)駕駛等)倫理風(fēng)險(xiǎn)規(guī)制,強(qiáng)調(diào)以人為本,發(fā)展負(fù)責(zé)任、以公共利益為導(dǎo)向的人工智能。如在算法領(lǐng)域,德國數(shù)據(jù)倫理委員會(huì)將與人類決策相關(guān)的人工智能系統(tǒng)劃分為基于算法的決策、算法驅(qū)動(dòng)的決策和算法決定的決策3種類型,并提出人工智能算法風(fēng)險(xiǎn)導(dǎo)向型“監(jiān)管金字塔”,將人工智能算法風(fēng)險(xiǎn)進(jìn)行1級(jí)~5級(jí)評(píng)級(jí),逐級(jí)增加規(guī)范要求,包括監(jiān)管審查、附加批準(zhǔn)條件、動(dòng)態(tài)監(jiān)管以及完全禁止等措施。新加坡積極探索人工智能倫理治理技術(shù)工具,通過發(fā)布“智慧國家”“數(shù)字政府藍(lán)圖”等國家政策,多維度提升人工智能發(fā)展與應(yīng)用水平,著力推動(dòng)社會(huì)數(shù)字化轉(zhuǎn)型向有利于人的方向發(fā)展。如2023年12月,新加坡發(fā)布國家人工智能戰(zhàn)略2.0,提出人工智能服務(wù)公共利益的愿景,再次強(qiáng)調(diào)建立一個(gè)可信賴和負(fù)責(zé)任的人工智能生態(tài)。
與此同時(shí),我國也積極參與人工智能倫理治理國際合作。2023年8月,在金磚國家領(lǐng)導(dǎo)人第十五次會(huì)晤上,金磚國家已同意盡快啟動(dòng)人工智能研究組工作,拓展人工智能合作,形成具有廣泛共識(shí)的人工智能治理框架和標(biāo)準(zhǔn)規(guī)范。2023年10月,我國發(fā)布《全球人工智能治理倡議》,圍繞人工智能發(fā)展、安全、治理三方面系統(tǒng)闡述了人工智能治理中國方案,提出堅(jiān)持倫理先行的原則,提出建立并完善人工智能倫理準(zhǔn)則、規(guī)范及問責(zé)機(jī)制。同時(shí),我國專家也積極參與聯(lián)合國、世界衛(wèi)生組織等國際機(jī)構(gòu)的人工智能倫理規(guī)則構(gòu)建。2023年10月,我國兩位專家入選聯(lián)合國高級(jí)別人工智能治理機(jī)構(gòu),積極參與聯(lián)合國層面的人工智能治理討論,提出全球人工智能治理建議。
展望:人工智能倫理治理將與產(chǎn)業(yè)創(chuàng)新活動(dòng)增強(qiáng)協(xié)調(diào)
該報(bào)告圍繞人工智能倫理治理提出了四方面建議。
一是協(xié)調(diào)人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展與倫理治理。一方面,重視人工智能技術(shù)創(chuàng)新,鼓勵(lì)人工智能基礎(chǔ)技術(shù)創(chuàng)新和突破,發(fā)展人工智能芯片、數(shù)據(jù)、算法等基礎(chǔ)核心技術(shù),加強(qiáng)人工智能治理產(chǎn)品開發(fā),以人工智能技術(shù)防范人工智能風(fēng)險(xiǎn);另一方面,探索建立敏捷的人工智能倫理治理機(jī)制,增強(qiáng)科技倫理治理的有效性和科學(xué)性,推動(dòng)產(chǎn)業(yè)創(chuàng)新與倫理風(fēng)險(xiǎn)防范相協(xié)調(diào)。
二是完善人工智能倫理治理舉措。其一,健全多學(xué)科多主體合作的治理體系,形成多學(xué)科共建的人工智能治理合力。其二,要建立分類分級(jí)倫理治理機(jī)制。建議根據(jù)人工智能倫理風(fēng)險(xiǎn)大小和影響范圍確定責(zé)任義務(wù)和監(jiān)管規(guī)則,如對(duì)于基本不具有倫理影響的人工智能技術(shù)應(yīng)用,簡化監(jiān)管程序,鼓勵(lì)技術(shù)創(chuàng)新和發(fā)展;對(duì)于具有一定倫理影響的人工智能技術(shù),設(shè)定倫理要求,建立風(fēng)險(xiǎn)評(píng)估機(jī)制,明確責(zé)任;對(duì)于具有長期且廣泛影響的人工智能高風(fēng)險(xiǎn)應(yīng)用領(lǐng)域,加大監(jiān)管力度,通過多種監(jiān)管手段防范倫理風(fēng)險(xiǎn);對(duì)于具有不可接受倫理影響的人工智能應(yīng)用,考慮禁止部署。其三,推動(dòng)人工智能倫理治理技術(shù)化、工程化、標(biāo)準(zhǔn)化,形成人工智能倫理治理經(jīng)驗(yàn)示范。
三是提升各主體人工智能倫理風(fēng)險(xiǎn)應(yīng)對(duì)能力。符合人工智能倫理的開發(fā)和應(yīng)用實(shí)踐有賴于研發(fā)、設(shè)計(jì)、應(yīng)用人員承擔(dān)起個(gè)人責(zé)任,也需要公眾加強(qiáng)對(duì)人工智能倫理風(fēng)險(xiǎn)的認(rèn)知及負(fù)責(zé)任使用。支持高校開設(shè)科技倫理課程,引導(dǎo)學(xué)生和科技工作者提升人工智能倫理素養(yǎng),將開展面向員工的科技倫理培訓(xùn)作為企業(yè)落實(shí)科技倫理管理主體責(zé)任的必要環(huán)節(jié),引導(dǎo)行業(yè)加強(qiáng)科技倫理自律與合作,加強(qiáng)面向社會(huì)公眾的科技倫理教育。
四是加強(qiáng)人工智能倫理治理國際交流合作。人工智能技術(shù)具有全球性、時(shí)代性,要積極參與全球科技倫理治理雙多邊合作,同時(shí)鼓勵(lì)國內(nèi)企業(yè)和專家學(xué)者參與國際人工智能倫理治理交流合作,形成全球人工智能倫理治理合作生態(tài)。