1.1 人工智能倫理治理原則
人工智能風(fēng)險種類多,在不同階段均可能涉及,傳統(tǒng)倫理規(guī)范道德和現(xiàn)有法律法規(guī)的規(guī)制已難以應(yīng)對當(dāng)今復(fù)雜的智能社會發(fā)展局面,需通過針對性的機(jī)制和制度對于人工智能倫理進(jìn)行治理,以應(yīng)對人工智能倫理問題,避免人工智能倫理風(fēng)險成為人工智能發(fā)展的阻礙。根據(jù)中國信息通信研究院、中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟于2020年9月發(fā)布的《人工智能治理白皮書》 [①] 中對于“人工智能治理”的定義,人工智能治理是指國際組織、國家、行業(yè)組織、企業(yè)等多主體對人工智能研究、開發(fā)、生產(chǎn)和應(yīng)用中出現(xiàn)的公共安全、道德倫理等問題進(jìn)行協(xié)調(diào)、處理、監(jiān)管和規(guī)范。結(jié)合聯(lián)合國教育、科學(xué)及文化組織于2021年11月24日通過《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence,簡稱《建議書》)提出的人工智能系統(tǒng)生命周期的所有行為者應(yīng)尊重的價值觀和原則,對人工智能倫理治理要堅(jiān)持下述基本原則:以人為本、公平公正、安全可控、責(zé)任擔(dān)當(dāng)、多方協(xié)作、多元共培。
1. 以人為本
以人為本是指人工智能發(fā)展的根本目的是實(shí)現(xiàn)人類利益,其發(fā)展應(yīng)符合人類的價值觀和倫理道德,應(yīng)通過政策、法律、規(guī)范和教育等方式防止人工智能被誤用、濫用以及做出有違社會倫理道德的決策,構(gòu)建和諧的人工智能社會發(fā)展環(huán)境,促進(jìn)人類文明進(jìn)步。
2. 公平公正
公平公正是指人工智能在發(fā)展和使用的過程中,應(yīng)切實(shí)保護(hù)利益相關(guān)者的合法權(quán)益,促進(jìn)社會公平正義和機(jī)會均等,防范各類群體歧視,關(guān)心和幫助弱勢群體、特殊群體。
3. 安全可控
安全可控是指人工智能研發(fā)、設(shè)計(jì)制造和部署應(yīng)用要充分保障人類的自主決策權(quán),以及用戶和利益相關(guān)者的選擇權(quán)、知情權(quán)、隱私權(quán)。
4. 責(zé)任擔(dān)當(dāng)
責(zé)任擔(dān)當(dāng)是指人類是最終責(zé)任主體,相關(guān)主體要勇于擔(dān)責(zé),社會要根據(jù)不同領(lǐng)域的人工智能風(fēng)險程度建立相應(yīng)的保險制度,建立權(quán)利責(zé)任一致的責(zé)任體系,建立人工智能審查制度和問責(zé)機(jī)制。
5. 多方協(xié)作
多方協(xié)作是指在尊重包容的基礎(chǔ)上,政府、政府間組織、學(xué)術(shù)界、企業(yè)、行業(yè)組織等利益相關(guān)者應(yīng)當(dāng)共同協(xié)作,加強(qiáng)對于人工智能倫理治理議題的深入研討,分享人工智能倫理實(shí)踐,形成人工智能倫理治理合作生態(tài)。
6. 多元共培
多元共培是指政府、政府間組織、學(xué)術(shù)界、企業(yè)、行業(yè)組織等應(yīng)當(dāng)面向公眾進(jìn)行倫理教育,提高公眾對人工智能技術(shù)帶來的倫理風(fēng)險的意識,形成全社會參與人工智能倫理治理的氛圍,倡導(dǎo)公眾合理正確使用人工智能產(chǎn)品和服務(wù)。
1.2 現(xiàn)有人工智能倫理治理監(jiān)管體系
《建議書》建議會員國在自愿基礎(chǔ)上適用《建議書》的各項(xiàng)規(guī)定,根據(jù)本國的憲法實(shí)踐和治理結(jié)構(gòu),依照國際人權(quán)法在內(nèi)的國際法,采取適當(dāng)步驟,包括進(jìn)行必要的立法。目前,中國、美國和英國以及歐盟等國家和組織均已出臺了一系列監(jiān)管規(guī)則。
1.我國人工智能倫理治理監(jiān)管體系概述
1)法律法規(guī)和相關(guān)規(guī)定
我國國務(wù)院于2017年印發(fā)《新一代人工智能發(fā)展規(guī)劃》,提出了制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范的要求。在此之后,《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》、《中華人民共和國科學(xué)技術(shù)進(jìn)步法》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、《關(guān)于加強(qiáng)科技倫理治理的意見》、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》和《生成式人工智能服務(wù)管理暫行辦法》等一系列法律法規(guī)和相關(guān)規(guī)定相繼對于人工智能倫理治理的要求予以規(guī)定。其中,中共中央辦公廳、國務(wù)院辦公廳于2022年發(fā)布的《關(guān)于加強(qiáng)科技倫理治理的意見》是我國首個國家層面的、專門針對科技倫理治理的指導(dǎo)性文件,提出了科技倫理治理原則以及基本要求。2023年10月,我國科學(xué)技術(shù)部、工業(yè)和信息化部等十部門聯(lián)合發(fā)布的《科技倫理審查辦法(試行)》對于科技倫理審查的基本程序、標(biāo)準(zhǔn)、條件等提出統(tǒng)一要求,標(biāo)志著我國人工智能倫理治理監(jiān)管體系建設(shè)進(jìn)入了新階段。下面對我國與人工智能倫理治理相關(guān)的法律法規(guī)和相關(guān)規(guī)定及其主要內(nèi)容進(jìn)行梳理。
(1)《新一代人工智能發(fā)展規(guī)劃》
2017年7月20日,國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》提出人工智能倫理規(guī)范和政策法規(guī)建設(shè)的戰(zhàn)略目標(biāo),以及制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范的要求,其中明確指出要妥善應(yīng)對人工智能可能帶來的挑戰(zhàn),形成適應(yīng)人工智能發(fā)展的制度安排,構(gòu)建開放包容的國際化環(huán)境,夯實(shí)人工智能發(fā)展的社會基礎(chǔ),并提出了一系列相應(yīng)保障措施,包括制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范,具體而言:在總體戰(zhàn)略上,要研究制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架;在法律層面,要建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等,在一些重點(diǎn)領(lǐng)域?qū)⒅贫ㄏ嚓P(guān)安全管理法規(guī),圍繞自動駕駛、服務(wù)機(jī)器人等應(yīng)用基礎(chǔ)較好的細(xì)分領(lǐng)域,加快研究制定相關(guān)安全管理法規(guī),為新技術(shù)的快速應(yīng)用奠定法律基礎(chǔ);在倫理規(guī)范方面,建立倫理道德多層次判斷結(jié)構(gòu)及人機(jī)協(xié)作的倫理框架,制定人工智能產(chǎn)品研發(fā)設(shè)計(jì)人員的道德規(guī)范和行為守則,加強(qiáng)對人工智能潛在危害與收益的評估,構(gòu)建人工智能復(fù)雜場景下突發(fā)事件的解決方案;在全球合作方面,積極參與人工智能全球治理,加強(qiáng)機(jī)器人異化和安全監(jiān)管等人工智能重大國際共性問題研究,深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,共同應(yīng)對全球性挑戰(zhàn)。
(2)《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》
2021年9月17日,國家互聯(lián)網(wǎng)信息辦公室、中央宣傳部、教育部、科學(xué)技術(shù)部、工業(yè)和信息化部、公安部、文化和旅游部、國家市場監(jiān)督管理總局、國家廣播電視總局聯(lián)合制定發(fā)布了《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》。針對算法治理,該指導(dǎo)意見提出要強(qiáng)調(diào)堅(jiān)持正確導(dǎo)向,強(qiáng)化科技倫理意識、安全意識和底線思維,充分發(fā)揮算法服務(wù)正能量傳播作用,營造風(fēng)清氣正的網(wǎng)絡(luò)空間。此外,該指導(dǎo)意見還提出要利用三年左右時間,逐步建立治理機(jī)制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局,具體而言:在健全算法安全治理機(jī)制方面,制定完善互聯(lián)網(wǎng)信息服務(wù)算法安全治理政策法規(guī),算法安全治理的主體權(quán)責(zé)明確,治理結(jié)構(gòu)高效運(yùn)行,形成有法可依、多元協(xié)同、多方參與的治理機(jī)制;在構(gòu)建算法安全監(jiān)管體系方面,創(chuàng)新性地構(gòu)建形成算法安全風(fēng)險監(jiān)測、算法安全評估、科技倫理審查、算法備案管理和涉算法違法違規(guī)行為處置等多維一體的監(jiān)管體系;在促進(jìn)算法生態(tài)規(guī)范發(fā)展方面,算法導(dǎo)向正確、正能量充沛,算法應(yīng)用公平公正、公開透明,算法發(fā)展安全可控、自主創(chuàng)新,有效防范算法濫用帶來的風(fēng)險隱患。
(3)《中華人民共和國科學(xué)技術(shù)進(jìn)步法》
2021年12月24日,全國人民代表大會常務(wù)委員會通過了《中華人民共和國科學(xué)技術(shù)進(jìn)步法》(簡稱《科學(xué)技術(shù)進(jìn)步法》),該規(guī)定于2022年1月1日起施行。《科學(xué)技術(shù)進(jìn)步法》要求科學(xué)技術(shù)研究開發(fā)機(jī)構(gòu)、高等學(xué)校、企業(yè)事業(yè)單位等應(yīng)當(dāng)履行科技倫理管理主體責(zé)任,按照國家有關(guān)規(guī)定建立健全科技倫理審查機(jī)制,對科學(xué)技術(shù)活動開展科技倫理審查,禁止危害國家安全、損害社會公共利益、危害人體健康、違背科研誠信和科技倫理的科學(xué)技術(shù)研究開發(fā)和應(yīng)用活動,否則相關(guān)單位、直接負(fù)責(zé)的主管人員和其他直接責(zé)任人員將受到行政處罰。
(4)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》
2021年12月31日,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部和國家市場監(jiān)督管理總局聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(簡稱《算法推薦管理規(guī)定》),該規(guī)定于2022年3月1日起施行。《算法推薦管理規(guī)定》的適用范圍是在中華人民共和國境內(nèi)應(yīng)用算法推薦技術(shù)提供互聯(lián)網(wǎng)信息服務(wù)的情形。《算法推薦管理規(guī)定》要求提供算法推薦服務(wù),應(yīng)當(dāng)遵守法律法規(guī),尊重社會公德和倫理,遵守商業(yè)道德和職業(yè)道德,遵循公正公平、公開透明、科學(xué)合理和誠實(shí)信用的原則。此外,《算法推薦管理規(guī)定》要求算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評估、驗(yàn)證算法機(jī)制機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷、過度消費(fèi)等違反法律法規(guī)或者違背倫理道德的算法模型。
(5)《關(guān)于加強(qiáng)科技倫理治理的意見》
2022年3月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見》,提出科技倫理是開展科學(xué)研究、技術(shù)開發(fā)等科技活動需要遵循的價值理念和行為規(guī)范,是促進(jìn)科技事業(yè)健康發(fā)展的重要保障。該意見確立我國科技倫理治理的指導(dǎo)思想,即堅(jiān)持促進(jìn)創(chuàng)新與防范風(fēng)險相統(tǒng)一、制度規(guī)范與自我約束相結(jié)合,強(qiáng)化底線思維和風(fēng)險意識,建立完善符合我國國情、與國際接軌的科技倫理制度,塑造科技向善的文化理念和保障機(jī)制,努力實(shí)現(xiàn)科技創(chuàng)新高質(zhì)量發(fā)展與高水平安全良性互動,促進(jìn)我國科技事業(yè)健康發(fā)展,為增進(jìn)人類福祉、推動構(gòu)建人類命運(yùn)共同體提供有力科技支撐。該意見提出了科技倫理治理的五項(xiàng)基本要求,即倫理先行、依法依規(guī)、敏捷治理、立足國情、開放合作,同時明確了開展科技活動應(yīng)當(dāng)遵循的五大科技倫理原則,即增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險、保持公開透明。該意見要求政府、高等學(xué)校、科研機(jī)構(gòu)、醫(yī)療衛(wèi)生機(jī)構(gòu)、企業(yè)等創(chuàng)新主體,相關(guān)學(xué)會、協(xié)會、研究會等科技類社會團(tuán)體以及科技人員共同參與健全科技倫理治理體制,并通過加強(qiáng)科技倫理治理制度保障、強(qiáng)化科技倫理審查和監(jiān)管、深入開展科技倫理教育和宣傳等方式健全科技倫理體系,有效防范科技倫理風(fēng)險。
(6)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》
2022年11月25日,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(簡稱《深度合成管理規(guī)定》),該規(guī)定于2023年1月10日起施行。《深度合成管理規(guī)定》是我國第一部針對深度合成服務(wù)治理的專門性部門規(guī)章,主要針對應(yīng)用生成合成類算法的互聯(lián)網(wǎng)信息服務(wù)進(jìn)行了規(guī)范,明確了生成合成類算法治理的對象和基本原則,強(qiáng)化了深度合成服務(wù)提供者和技術(shù)支持者的主體責(zé)任,并鼓勵相關(guān)行業(yè)組織通過加強(qiáng)行業(yè)自律推動生成合成類算法的合規(guī)發(fā)展。《深度合成管理規(guī)定》適用于在中華人民共和國境內(nèi)應(yīng)用深度合成技術(shù)提供互聯(lián)網(wǎng)信息服務(wù)的情形,深度合成服務(wù)提供者和技術(shù)支持者是主要的責(zé)任主體,二者均有義務(wù)遵守法律法規(guī),尊重社會公德和倫理道德,堅(jiān)持正確政治方向、輿論導(dǎo)向、價值取向,促進(jìn)深度合成服務(wù)向上向善,并落實(shí)信息安全主體責(zé)任,建立健全用戶注冊、算法機(jī)制機(jī)理審核科技倫理審查、信息發(fā)布審核數(shù)據(jù)安全、個人信息保護(hù)、反電信網(wǎng)絡(luò)詐騙、應(yīng)急處置等管理制度,具有安全可控的技術(shù)保障措施。
(7)《生成式人工智能服務(wù)管理暫行辦法》
2023年7月10日,國家互聯(lián)網(wǎng)信息辦公室、國家發(fā)展和改革委員會、教育部、科學(xué)技術(shù)部、工業(yè)和信息化部、公安部、國家廣播電視總局聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》(簡稱《AIGC暫行辦法》),該辦法于2023年8月15日起生效。為促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,《AIGC暫行辦法》規(guī)定,任何利用生成式人工智能技術(shù)為中國境內(nèi)公眾提供生成文本、圖片、音頻、視頻等內(nèi)容的服務(wù)都適用該辦法。這意味著,境內(nèi)外人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)服務(wù)提供者,無論其提供的服務(wù)是在模型層還是在應(yīng)用層,亦無論是直接提供服務(wù)或通過API接口或其他方式間接提供服務(wù),倘若其提供服務(wù)的對象是中國境內(nèi)公眾,都應(yīng)當(dāng)遵守《AIGC暫行辦法》。《AIGC暫行辦法》要求提供和使用生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會公德和倫理道德,包括:①堅(jiān)持社會主義核心價值觀,不得生成煽動顛覆國家政權(quán)、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統(tǒng)一和社會穩(wěn)定,宣揚(yáng)恐怖主義、極端主義,宣揚(yáng)民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容;②在算法設(shè)計(jì)、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視;③尊重知識產(chǎn)權(quán)、商業(yè)道德,保守商業(yè)秘密,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢,實(shí)施壟斷和不正當(dāng)競爭行為;④尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人肖像權(quán)、名譽(yù)權(quán)、榮譽(yù)權(quán)、隱私權(quán)和個人信息權(quán)益;⑤基于服務(wù)類型特點(diǎn),采取有效措施,提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性。
(8)《科技倫理審查辦法(試行)》
2023年10月8日,科學(xué)技術(shù)部、教育部、工業(yè)和信息化部等多部門聯(lián)合發(fā)布《科技倫理審查辦法(試行)》(簡稱《科技倫理審查辦法》),該辦法于2023年12月1日起正式實(shí)施。該辦法對于涉及以人為研究參與者的科技活動,包括利用人類生物樣本、個人信息數(shù)據(jù)等的科技活動,或不直接涉及人或?qū)嶒?yàn)動物但可能在生命健康、生態(tài)環(huán)境、公共秩序、可持續(xù)發(fā)展等方面帶來倫理風(fēng)險挑戰(zhàn)的科技活動進(jìn)行的科技倫理審查和監(jiān)管做出了明確的規(guī)定,由此可見,該辦法的適用范圍幾乎涵蓋所有科技活動,包括人工智能相關(guān)的科技活動。
在審查主體方面,該辦法明確要求從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會。其他有倫理審查需求的單位可根據(jù)實(shí)際情況設(shè)立科技倫理(審查)委員會。
在審查流程方面,《科技倫理審查辦法》規(guī)定由科技活動負(fù)責(zé)人向科技倫理(審查)委員會申請科技倫理審查;科技倫理(審查)委員會應(yīng)根據(jù)科技倫理審查申請材料決定是否受理申請并通知申請人,依據(jù)科技活動倫理風(fēng)險發(fā)生的可能性和嚴(yán)重、緊急程度采用一般/簡易/應(yīng)急程序進(jìn)行科技倫理審查并做出審查決定,如申請人對審查決定有異議的,可向做出決定的科技倫理(審查)委員會提出書面申訴;科技倫理(審查)委員會還應(yīng)對審查批準(zhǔn)的科技活動開展倫理跟蹤審查。
在審查內(nèi)容及標(biāo)準(zhǔn)方面,《科技倫理審查辦法》針對所有需要依法進(jìn)行科技倫理審查的科技活動規(guī)定了審查的重點(diǎn)內(nèi)容和標(biāo)準(zhǔn),以及針對涉及人類研究參與者以及數(shù)據(jù)和算法的科技活動就審查的重點(diǎn)內(nèi)容和標(biāo)準(zhǔn)進(jìn)行特殊規(guī)定。對于所有需要依法進(jìn)行科技倫理審查的科技活動而言,審查的重點(diǎn)內(nèi)容和標(biāo)準(zhǔn)包括:擬開展的科技活動應(yīng)符合增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險、保持公開透明的科技倫理原則,參與科技活動的科技人員資質(zhì)、研究基礎(chǔ)及設(shè)施條件等符合相關(guān)要求;擬開展的科技活動具有科學(xué)價值和社會價值,其研究目標(biāo)的實(shí)現(xiàn)對增進(jìn)人類福祉、實(shí)現(xiàn)社會可持續(xù)發(fā)展等具有積極作用;科技活動的風(fēng)險收益合理,倫理風(fēng)險控制方案及應(yīng)急預(yù)案科學(xué)恰當(dāng)、具有可操作性;所制定的利益沖突申明和管理方案合理。對于涉及人類研究參與者以及數(shù)據(jù)和算法的科技活動而言,審查內(nèi)容和標(biāo)準(zhǔn)還包括以下兩個方面:一方面,數(shù)據(jù)的收集、存儲、加工、使用等處理活動以及研究開發(fā)數(shù)據(jù)新技術(shù)等符合國家數(shù)據(jù)安全和個人信息保護(hù)等有關(guān)規(guī)定,數(shù)據(jù)安全風(fēng)險監(jiān)測及應(yīng)急處理方案得當(dāng);另一方面,算法、模型和系統(tǒng)的設(shè)計(jì)、實(shí)現(xiàn)、應(yīng)用等遵守公平、公正、透明、可靠、可控等原則,符合國家有關(guān)要求,倫理風(fēng)險評估審核和應(yīng)急處置方案合理,用戶權(quán)益保護(hù)措施全面得當(dāng)。
2)行業(yè)規(guī)范
除前述法律法規(guī)和相關(guān)規(guī)定以外,在《新一代人工智能發(fā)展規(guī)劃》等政策指引下,各機(jī)構(gòu)、行業(yè)也積極響應(yīng),陸續(xù)發(fā)布了一系列人工智能倫理治理相關(guān)的行業(yè)規(guī)范,包括國家新一代人工智能治理專業(yè)委員會制定的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》、《新一代人工智能倫理規(guī)范》、全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會秘書處制定的《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——人工智能倫理安全風(fēng)險防范指引》、同濟(jì)大學(xué)上海市人工智能社會治理協(xié)同創(chuàng)新中心研究團(tuán)隊(duì)編制的《人工智能大模型倫理規(guī)范操作指引》、中國社會科學(xué)院國情調(diào)研重大項(xiàng)目《我國人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研》課題組編制的《人工智能法示范法1.0(專家建議稿)》,提供了相關(guān)行業(yè)的人工智能倫理治理建議。下文將對我國與人工智能倫理治理相關(guān)的行業(yè)規(guī)范及其主要內(nèi)容進(jìn)行梳理。
(1)《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》
2019年6月,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了人工智能治理的框架和行動指南,旨在更好地規(guī)范人工智能發(fā)展與治理的關(guān)系,確保人工智能安全可控可靠,推動經(jīng)濟(jì)、社會及生態(tài)可持續(xù)發(fā)展,共建人類命運(yùn)共同體。治理原則突出了“發(fā)展負(fù)責(zé)任的人工智能”這一主題,并提出了八大原則,分別為和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理。
①和諧友好原則是指人工智能發(fā)展應(yīng)以增進(jìn)人類共同福祉為目標(biāo);應(yīng)符合人類的價值觀和倫理道德,促進(jìn)人機(jī)和諧,服務(wù)人類文明進(jìn)步;應(yīng)以保障社會安全、尊重人類權(quán)益為前提,避免誤用,禁止濫用、惡用。
②公平公正原則是指人工智能發(fā)展應(yīng)促進(jìn)公平公正,保障利益相關(guān)者的權(quán)益,促進(jìn)機(jī)會均等。通過持續(xù)提高技術(shù)水平、改善管理方式,在數(shù)據(jù)獲取、算法設(shè)計(jì)、技術(shù)開發(fā)、產(chǎn)品研發(fā)和應(yīng)用過程中消除偏見和歧視。
③包容共享原則是指人工智能應(yīng)促進(jìn)綠色發(fā)展,符合環(huán)境友好、資源節(jié)約的要求;應(yīng)促進(jìn)協(xié)調(diào)發(fā)展,推動各行各業(yè)轉(zhuǎn)型升級,縮小區(qū)域差距;應(yīng)促進(jìn)包容發(fā)展,加強(qiáng)人工智能教育及科普,提升弱勢群體適應(yīng)性,努力消除數(shù)字鴻溝;應(yīng)促進(jìn)共享發(fā)展,避免數(shù)據(jù)與平臺壟斷,鼓勵開放有序競爭。
④尊重隱私原則是指人工智能發(fā)展應(yīng)尊重和保護(hù)個人隱私,充分保障個人的知情權(quán)和選擇權(quán)。在個人信息的收集、存儲、處理、使用等各環(huán)節(jié)應(yīng)設(shè)置邊界,建立規(guī)范。完善個人數(shù)據(jù)授權(quán)撤銷機(jī)制,反對任何竊取、篡改、泄露和其他非法收集利用個人信息的行為。
⑤安全可控原則是指人工智能系統(tǒng)應(yīng)不斷提升透明性、可解釋性、可靠性、可控性,逐步實(shí)現(xiàn)可審核、可監(jiān)督、可追溯、可信賴。高度關(guān)注人工智能系統(tǒng)的安全,提高人工智能魯棒性及抗干擾性,形成人工智能安全評估和管控能力。
⑥共擔(dān)責(zé)任原則是指人工智能研發(fā)者、使用者及其他相關(guān)方應(yīng)具有高度的社會責(zé)任感和自律意識,嚴(yán)格遵守法律法規(guī)、倫理道德和標(biāo)準(zhǔn)規(guī)范。建立人工智能問責(zé)機(jī)制,明確研發(fā)者、使用者和受用者等的責(zé)任。人工智能應(yīng)用過程中應(yīng)確保人類知情權(quán),告知可能產(chǎn)生的風(fēng)險和影響。防范利用人工智能進(jìn)行非法活動。
⑦開放協(xié)作原則是指鼓勵跨學(xué)科、跨領(lǐng)域、跨地區(qū)、跨國界的交流合作,推動國際組織、政府部門、科研機(jī)構(gòu)、教育機(jī)構(gòu)、企業(yè)、社會組織、公眾在人工智能發(fā)展與治理中的協(xié)調(diào)互動。開展國際對話與合作,在充分尊重各國人工智能治理原則和實(shí)踐的前提下,推動形成具有廣泛共識的國際人工智能治理框架和標(biāo)準(zhǔn)規(guī)范。
⑧敏捷治理原則是指尊重人工智能發(fā)展規(guī)律,在推動人工智能創(chuàng)新發(fā)展、有序發(fā)展的同時,及時發(fā)現(xiàn)和解決可能引發(fā)的風(fēng)險。不斷提升智能化技術(shù)手段,優(yōu)化管理機(jī)制,完善治理體系,推動治理原則貫穿人工智能產(chǎn)品和服務(wù)的全生命周期。對未來更高級人工智能的潛在風(fēng)險持續(xù)開展研究和預(yù)判,確保人工智能始終朝著有利于社會的方向發(fā)展。
(2)《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——人工智能倫理安全風(fēng)險防范指引》
2021年1月,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會秘書處組織制定和發(fā)布了《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——人工智能倫理安全風(fēng)險防范指引》,該指引依據(jù)法律法規(guī)要求及社會價值觀,將人工智能倫理安全風(fēng)險總結(jié)為失控性風(fēng)險、社會性風(fēng)險、侵權(quán)性風(fēng)險、歧視性風(fēng)險、責(zé)任性風(fēng)險等。其中,失控性風(fēng)險是指人工智能的行為與影響超出研究開發(fā)者、設(shè)計(jì)制造者、部署應(yīng)用者所預(yù)設(shè)、理解、可控的范圍,對社會價值等方面產(chǎn)生負(fù)面影響;社會性風(fēng)險是指人工智能使用不合理,包括濫用、誤用等,對社會價值等方面產(chǎn)生負(fù)面影響;侵權(quán)性風(fēng)險是指人工智能對人的基本權(quán)利,包括人身、隱私、財(cái)產(chǎn)等造成侵害或產(chǎn)生負(fù)面影響;歧視性風(fēng)險是指人工智能對人類特定群體的主觀或客觀偏見影響公平公正,造成權(quán)利侵害或負(fù)面影響;責(zé)任性風(fēng)險是指人工智能相關(guān)各方行為失當(dāng)、責(zé)任界定不清,對社會信任、社會價值等方面產(chǎn)生負(fù)面影響。該指引針對這些風(fēng)險給出了安全風(fēng)險防范措施,為相關(guān)組織或個人在各領(lǐng)域開展人工智能研究開發(fā)、設(shè)計(jì)制造、部署應(yīng)用等活動提供參考。
(3)《新一代人工智能倫理規(guī)范》
2021年9月,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,該規(guī)范旨在將倫理道德融入人工智能全生命周期,促進(jìn)公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題。《新一代人工智能倫理規(guī)范》的適用主體為從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動的自然人、法人和其他相關(guān)機(jī)構(gòu)。在此基礎(chǔ)上,《新一代人工智能倫理規(guī)范》明確了以下六項(xiàng)人工智能的基本倫理要求:增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確保可控可信、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)。
①增進(jìn)人類福祉是指堅(jiān)持以人為本,遵循人類共同價值觀,尊重人權(quán)和人類根本利益訴求,遵守國家或地區(qū)倫理道德。堅(jiān)持公共利益優(yōu)先,促進(jìn)人機(jī)和諧友好,改善民生,增強(qiáng)獲得感幸福感,推動經(jīng)濟(jì)、社會及生態(tài)可持續(xù)發(fā)展,共建人類命運(yùn)共同體。
②促進(jìn)公平公正是指堅(jiān)持普惠性和包容性,切實(shí)保護(hù)各相關(guān)主體合法權(quán)益,推動全社會公平共享人工智能帶來的益處,促進(jìn)社會公平正義和機(jī)會均等。在提供人工智能產(chǎn)品和服務(wù)時,應(yīng)充分尊重和幫助弱勢群體、特殊群體,并根據(jù)需要提供相應(yīng)替代方案。
③保護(hù)隱私安全是指充分尊重個人信息知情、同意等權(quán)利,依照合法、正當(dāng)、必要和誠信原則處理個人信息,保障個人隱私與數(shù)據(jù)安全,不得損害個人合法數(shù)據(jù)權(quán)益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵害個人隱私權(quán)。
④確保可控可信是指保障人類擁有充分自主決策權(quán),有權(quán)選擇是否接受人工智能提供的服務(wù),有權(quán)隨時退出與人工智能的交互,有權(quán)隨時中止人工智能系統(tǒng)的運(yùn)行,確保人工智能始終處于人類控制之下。
⑤強(qiáng)化責(zé)任擔(dān)當(dāng)是指堅(jiān)持人類是最終責(zé)任主體,明確利益相關(guān)者的責(zé)任,全面增強(qiáng)責(zé)任意識,在人工智能全生命周期各環(huán)節(jié)自省自律,建立人工智能問責(zé)機(jī)制,不回避責(zé)任審查,不逃避應(yīng)負(fù)責(zé)任。
⑥提升倫理素養(yǎng)是指積極學(xué)習(xí)和普及人工智能倫理知識,客觀認(rèn)識倫理問題,不低估不夸大倫理風(fēng)險。主動開展或參與人工智能倫理問題討論,深入推動人工智能倫理治理實(shí)踐,提升應(yīng)對能力。
除了六項(xiàng)人工智能的基本倫理要求外,《新一代人工智能倫理規(guī)范》還對人工智能的管理、研發(fā)、供應(yīng)、使用提出了具體的規(guī)范,為從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動的自然人、法人和其他相關(guān)機(jī)構(gòu)等提供指引。
(4)《人工智能大模型倫理規(guī)范操作指引》
2023年7月,同濟(jì)大學(xué)上海市人工智能社會治理協(xié)同創(chuàng)新中心研究團(tuán)隊(duì)編制的《人工智能大模型倫理規(guī)范操作指引》發(fā)布,該指引主要包括AI大模型全生命周期的技術(shù)與倫理要素、大模型的研發(fā)與應(yīng)用的倫理原則、大模型技術(shù)研發(fā)的倫理實(shí)踐指南三部分內(nèi)容,提出了尊重人的自主權(quán)、保護(hù)個人隱私、保障公平公正、提升透明度和可解釋性、負(fù)責(zé)任的創(chuàng)新等五項(xiàng)大模型倫理原則,以及公平性、透明性、隱私、安全性、責(zé)任、人類的監(jiān)督與控制、可持續(xù)性等七項(xiàng)大模型倫理實(shí)踐指南。
(5)《人工智能法示范法1.0(專家建議稿)》
2023年8月,中國社會科學(xué)院國情調(diào)研重大項(xiàng)目“我國人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研”課題組組織多方專家團(tuán)隊(duì),經(jīng)多次調(diào)研、討論、修改,起草形成《人工智能法示范法1.0(專家建議稿)》(簡稱《人工智能示范法建議稿》)。《人工智能示范法建議稿》共分為六章。
第一章(總則)闡釋了人工智能發(fā)展的基本原則,如治理、人類自主、安全、透明與可解釋性、公平等原則。基于這些原則,該建議稿后續(xù)章節(jié)對相關(guān)問題展開了詳細(xì)討論,并與相關(guān)條文相呼應(yīng);
第二章(人工智能支持與促進(jìn))聚焦于推進(jìn)技術(shù)發(fā)展這一關(guān)鍵,從基礎(chǔ)設(shè)施、人才培養(yǎng)、技術(shù)創(chuàng)新和體制機(jī)制支持等方面提出規(guī)范,并結(jié)合行業(yè)實(shí)際,通過有效措施激勵人工智能的創(chuàng)新。此外,還強(qiáng)調(diào)國家機(jī)關(guān)應(yīng)率先采用人工智能以促進(jìn)其廣泛應(yīng)用。
第三章(人工智能管理制度)沿用了近年來實(shí)踐證明較為可行的風(fēng)險分類管理方法,對人工智能的研發(fā)和應(yīng)用活動進(jìn)行規(guī)定。考慮到人工智能技術(shù)的快速迭代和巨大的發(fā)展?jié)摿ΓO(jiān)管應(yīng)適當(dāng)放寬,避免過重的義務(wù)和限制,因此,該章節(jié)采用了負(fù)面清單管理方式進(jìn)行風(fēng)險控制:負(fù)面清單內(nèi)的研發(fā)、提供活動采取許可機(jī)制,實(shí)行事前監(jiān)管;負(fù)面清單外的研發(fā)、提供活動則采取備案機(jī)制,實(shí)行事后監(jiān)管。這一設(shè)計(jì)旨在減輕審查和許可的負(fù)擔(dān),同時有效預(yù)防風(fēng)險并允許創(chuàng)新發(fā)展。
第四章(人工智能研發(fā)者、提供者義務(wù))明確了人工智能研發(fā)者和提供者應(yīng)承擔(dān)的合規(guī)義務(wù),并將安全責(zé)任貫穿于人工智能活動的整個生命周期。根據(jù)產(chǎn)業(yè)鏈中不同主體的特點(diǎn),該章節(jié)中對主體進(jìn)行區(qū)分,并分配了相應(yīng)的責(zé)任。結(jié)合前述的負(fù)面清單制度,進(jìn)一步規(guī)定了清單內(nèi)人工智能活動的義務(wù)類型,確保義務(wù)與風(fēng)險相匹配。
第五章(綜合治理機(jī)制)延續(xù)了總則的規(guī)定,明確了國家人工智能主管機(jī)關(guān)的職責(zé)。此外,還提出了創(chuàng)新監(jiān)管和協(xié)同監(jiān)管機(jī)制,以提高監(jiān)管效率和治理效果,加強(qiáng)多元主體之間的溝通與合作。
第六章(法律責(zé)任)根據(jù)人工智能的風(fēng)險活動設(shè)計(jì)了相應(yīng)的法律責(zé)任。同時,考慮到發(fā)展導(dǎo)向,明確了盡職免責(zé)等制度,為人工智能的創(chuàng)新活動提供了寬松的政策環(huán)境。
課題組在1.0版發(fā)布后,參照各方反饋并結(jié)合行業(yè)動態(tài)對文本進(jìn)行了修訂,并于2023年9月發(fā)布《人工智能示范法1.1(專家建議稿)》,主要調(diào)整了違法罰款數(shù)額、風(fēng)險評估記錄保存日期等,并新增行政救濟(jì)、人工智能提供者備案豁免等條款。
2. 其他主要國家與組織人工智能倫理治理監(jiān)管體系概述
目前,美國、英國和歐盟等國家與組織均已出臺了與人工智能相關(guān)的監(jiān)管規(guī)則,人工智能倫理治理是其中的重點(diǎn)。以下將對美國、英國和歐盟在人工智能倫理治理領(lǐng)域的實(shí)踐進(jìn)行介紹。
1)歐盟
2019年4月,歐盟人工智能高級專家組發(fā)布《可信人工智能倫理指南》(Ethics guidelines for trustworthy Al),提出了可信AI系統(tǒng)應(yīng)滿足的七個關(guān)鍵要求,包括確保人類監(jiān)督、魯棒性和安全性、隱私和數(shù)據(jù)治理、透明度、多樣性、社會和環(huán)境福利、問責(zé)性。2023年12月,歐洲理事會、歐洲議會就《人工智能法案》(Artificial Intelligence Act)達(dá)成臨時協(xié)議。作為歐盟首部有關(guān)人工智能的綜合性立法,該法案以人工智能的風(fēng)險分級管理為制度抓手,以人工智能產(chǎn)業(yè)鏈上的不同責(zé)任主體為規(guī)范對象,以對人工智能的合格評估以及問責(zé)機(jī)制為治理工具,從人工監(jiān)管、隱私、透明度、安全、非歧視、環(huán)境友好等全方位監(jiān)管人工智能的開發(fā)和使用,詳細(xì)規(guī)定了人工智能市場中各參與者的義務(wù)。在倫理治理方面,《人工智能法案》強(qiáng)調(diào),人工智能應(yīng)該是一種以人為本的技術(shù),不應(yīng)該取代人類的自主性,也不應(yīng)該導(dǎo)致個人自由的喪失,而應(yīng)該主要服務(wù)于社會需求和共同利益,因此應(yīng)提供保障措施,以確保開發(fā)和使用尊重歐盟價值觀和《歐洲聯(lián)盟基本權(quán)利憲章》(Charter of Fundamental Rights of the European Union)的道德嵌入式人工智能。對于AI系統(tǒng)的風(fēng)險分級標(biāo)準(zhǔn),(人工智能法案》將倫理風(fēng)險作為考量因素,將下述類型的AI系統(tǒng)歸為“存在不可接受風(fēng)險的AI系統(tǒng)”,在歐盟成員國內(nèi)將完全禁止該等AI系統(tǒng)投入市場或者交付使用:①采用潛意識技術(shù)或有目的的操縱或欺騙技術(shù);②利用個人或社會群體的弱點(diǎn)(例如已知的人格特征或社會經(jīng)濟(jì)狀況、年齡、身體、精神能力);③利用人的社會行為或人格特征進(jìn)行社會評分;④在公眾場所的“實(shí)時”(包括即時和短時延遲)遠(yuǎn)程生物識別系統(tǒng);此外,在評估AI系統(tǒng)是否屬于受到嚴(yán)格的管控的“高風(fēng)險AI系統(tǒng)”時,《人工智能法案》要求考量AI系統(tǒng)對《歐洲歐盟基本權(quán)利憲章》所保護(hù)的基本權(quán)利造成的不利影響的程度,基本權(quán)利包括人的尊嚴(yán)、尊重私人和家庭生活、保護(hù)個人數(shù)據(jù)、言論和信息自由、集會和結(jié)社自由以及不受歧視的權(quán)利、受教育權(quán)、消費(fèi)者保護(hù)、工人權(quán)利、殘疾人權(quán)利、性別平等、知識產(chǎn)權(quán)、獲得有效補(bǔ)救和公平審判的權(quán)利、辯護(hù)權(quán)和無罪推定、良好管理的權(quán)利。
2)美國
美國在聯(lián)邦層面目前尚未通過一部完整且專門的針對AI系統(tǒng)的法案,而是試圖通過調(diào)整政府機(jī)構(gòu)的權(quán)力,在現(xiàn)有的立法框架及監(jiān)管規(guī)則內(nèi)對人工智能進(jìn)行規(guī)制。在倫理治理方面,目前聯(lián)邦層面的合規(guī)重點(diǎn)主要涉及反歧視、保護(hù)數(shù)據(jù)隱私等要求。2022年2月,美國眾議院頒布了《2022年算法問責(zé)法案》(Algorithmic Accountability Act of 2022),要求使用自動化決策系統(tǒng)做出關(guān)鍵決策的企業(yè)研究并報告這些系統(tǒng)對消費(fèi)者的影響,包括是否會因?yàn)橄M(fèi)者的種族、性別、年齡等生成對消費(fèi)者有偏見或歧視性的自動決策等;2022年6月,美國參眾兩院共同發(fā)布了《美國數(shù)據(jù)隱私和保護(hù)法案》(the American Data Privacy and Protection Act),對隱私影響評估、隱私政策的告知與退出機(jī)制、反偏見等內(nèi)容作出了規(guī)定;2022年10月,美國白宮科技政策辦公室頒布了《人工智能權(quán)利法案藍(lán)圖》(Blueprint for an Al Bill of Right),提出了指導(dǎo)人工智能的設(shè)計(jì)、使用和部署的五項(xiàng)原則,即技術(shù)的安全性和有效性、防止算法歧視、保護(hù)數(shù)據(jù)隱私、告知及解釋義務(wù)以及人類參與決策;2023年10月,時任美國總統(tǒng)拜登頒布《關(guān)于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),確立了包括安全可靠、促進(jìn)公平、保護(hù)隱私和自由等在內(nèi)的倫理要求。
3)英國
2021年5月,英國中央數(shù)字與數(shù)據(jù)辦公室、人工智能辦公室與內(nèi)閣辦公室聯(lián)合發(fā)布了《自動決策系統(tǒng)的倫理、透明度與責(zé)任框架》(Ethics, Transparency and Accountability Framework for Automated Decision-Making,ETAF),對人工智能涉及的算法和自動化決策的倫理治理要求進(jìn)行規(guī)定。ETAF強(qiáng)調(diào),算法和自動化決策在上線之前應(yīng)該進(jìn)行嚴(yán)格的、受控的和分階段的測試。在整個原型和測試過程中,需要人類的專業(yè)知識和監(jiān)督來確保技術(shù)上的彈性和安全,以及準(zhǔn)確和可靠。測試時,需要考慮自動化決策系統(tǒng)的準(zhǔn)確性、安全性、可靠性、公平性和可解釋性。ETAF規(guī)定,企業(yè)必須對算法或自動決策系統(tǒng)進(jìn)行平等影響評估,使用高質(zhì)量和多樣化的數(shù)據(jù)集,發(fā)現(xiàn)并抵制所使用數(shù)據(jù)中明顯的偏見和歧視。同時,ETAF支出算法和自動化及其相關(guān)結(jié)果的責(zé)任和可問責(zé)性應(yīng)該被明確, 組織和個人應(yīng)該被問責(zé)以確保人工智能的正常運(yùn)行。
1.3 人工智能倫理問題科學(xué)應(yīng)對策略
我國人工智能創(chuàng)新快速發(fā)展,但面對的倫理風(fēng)險日益增多,公眾對于人工智能未來發(fā)展的憂慮使得人工智能的發(fā)展面臨巨大壓力。結(jié)合前面所述的人工智能倫理治理原則,基于現(xiàn)有人工智能倫理治理監(jiān)管體系,為科學(xué)應(yīng)對人工智能倫理問題,應(yīng)在法律法規(guī)和倫理規(guī)范、技術(shù)、管理、教育、國際合作等層面落實(shí)人工智能倫理治理,將倫理要求融入人工智能的研究開發(fā)、設(shè)計(jì)制造、部署應(yīng)用和使用階段,促進(jìn)人工智能技術(shù)創(chuàng)新與倫理協(xié)調(diào)發(fā)展,實(shí)現(xiàn)負(fù)責(zé)任的創(chuàng)新。
1.法律法規(guī)和倫理規(guī)范層面
目前我國以《科學(xué)技術(shù)進(jìn)步法》、《關(guān)于加強(qiáng)科技倫理治理的意見》、《科技倫理審查辦法》和《新一代人工智能倫理規(guī)范》等法律法規(guī)和相關(guān)規(guī)定以及行業(yè)規(guī)范為基礎(chǔ),已初步形成人工智能治理法律法規(guī)和倫理規(guī)范體系。但整體上,前述法律法規(guī)和倫理規(guī)范體系的構(gòu)建尚處于探索階段,無論是內(nèi)容和可操作性,還需進(jìn)一步加強(qiáng)和完善,例如,倫理風(fēng)險相關(guān)的責(zé)任承擔(dān)仍存在諸多盲點(diǎn),需要進(jìn)一步研究并進(jìn)行完善。另外,結(jié)合我國人工智能治理法律法規(guī)和倫理規(guī)范體系的現(xiàn)狀,在構(gòu)建法律法規(guī)和倫理規(guī)范體系的過程中,應(yīng)尤其關(guān)注倫理審查制度的建立與完善、人工智能倫理治理相關(guān)標(biāo)準(zhǔn)化體系的構(gòu)建。
1)倫理審查制度的建立與完善
倫理審查制度是科技治理活動的基礎(chǔ)制度性安排,是將倫理治理問題落到實(shí)處的重要制度。在工作機(jī)制方面,2019年7月,中央全面深化改革委員會第九次會議審議通過《國家科技倫理委員會組建方案》;2019年10月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)通知,成立國家科技倫理委員會負(fù)責(zé)指導(dǎo)推進(jìn)我國科技倫理治理各項(xiàng)工作,科學(xué)技術(shù)部按照《國家科技倫理委員會組建方案》,先后成立了人工智能、生命科學(xué)、醫(yī)學(xué)三個分委員會,推動相關(guān)部門成立科技倫理專業(yè)委員會,指導(dǎo)各地方結(jié)合工作實(shí)際,建立或者籌建地方科技倫理委員會 [②] ; 在制度安排方面,《科技倫理審查辦法》為科技倫理(審查)委員會的組建和運(yùn)行提供了較為清晰完整的框架和指導(dǎo)。盡管如此,對于許多人工智能領(lǐng)域的企業(yè)而言,科技倫理(審查)委員會的設(shè)立并非易事;同時,開展科技倫理審查所依托的實(shí)體性規(guī)范仍有待有關(guān)行業(yè)的主管部門、社會團(tuán)體進(jìn)行研究和制定。因此,需進(jìn)一步完善我國的倫理審查制度,明確倫理審查介入時機(jī)和標(biāo)準(zhǔn),在確保審查程序高效進(jìn)行的同時不影響人工智能創(chuàng)新活動的發(fā)展,保證審查活動的獨(dú)立性和主體廣泛性。
2)人工智能倫理治理相關(guān)標(biāo)準(zhǔn)化體系的構(gòu)建
目前我國有關(guān)人工智能倫理治理相關(guān)標(biāo)準(zhǔn)化體系還比較缺乏,在實(shí)務(wù)中存在人工智能倫理治理無操作性規(guī)范和標(biāo)準(zhǔn)可依的挑戰(zhàn)。因此,還需要進(jìn)一步加快建設(shè)和完善人工智能倫理治理相關(guān)標(biāo)準(zhǔn)化體系,進(jìn)一步制定有針對性、時效性、可操作性的實(shí)施細(xì)則。根據(jù)國家人工智能標(biāo)準(zhǔn)化總體組、全國信標(biāo)委人工智能分委會聯(lián)合發(fā)布的《人工智能倫理治理標(biāo)準(zhǔn)化指南(2023版)》,一方面,為了改善目前人工智能倫理準(zhǔn)則過于宏觀、不易實(shí)操落地問題,需要統(tǒng)一“政產(chǎn)學(xué)研用”各界及不同國家地區(qū)、不同人群等對于人工智能倫理的看法和要求,進(jìn)一步明確人工智能倫理觀的范圍,豐富其內(nèi)涵,拓展其外延,對現(xiàn)有準(zhǔn)則進(jìn)行完善和細(xì)化,發(fā)展更“接地氣”的人工智能倫理準(zhǔn)則;另一方面,為適應(yīng)我國人工智能發(fā)展的特殊需求,更好地幫助我國各界規(guī)范人工智能倫理問題,應(yīng)秉持“求同存異”的理念,在國際共識的基礎(chǔ)上,融入我國傳統(tǒng)文化價值觀并根據(jù)人工智能產(chǎn)業(yè)發(fā)展的現(xiàn)狀和需求,發(fā)展有中國特色的人工智能倫理準(zhǔn)則 [③] 。
2.技術(shù)層面
1)將倫理規(guī)則融入技術(shù)研發(fā)和設(shè)計(jì)中
人工智能的研究開發(fā)、設(shè)計(jì)制造、部署應(yīng)用和使用階段都可能存在倫理風(fēng)險,應(yīng)通過人工智能全生命周期管理,將風(fēng)險控制在最小范圍之內(nèi)。采用技術(shù)手段將倫理規(guī)則融入產(chǎn)品的研發(fā)和設(shè)計(jì)中,通過技術(shù)標(biāo)準(zhǔn)、評估測試來控制倫理風(fēng)險是較好方案。將一些人工智能關(guān)鍵技術(shù)標(biāo)準(zhǔn)化,完善平臺、產(chǎn)品和應(yīng)用相關(guān)的安全標(biāo)準(zhǔn),有利于提高人工智能的安全性,例如,機(jī)器學(xué)習(xí)綁定的涉及用戶隱私有關(guān)的大量數(shù)據(jù),可通過制定相應(yīng)技術(shù)標(biāo)準(zhǔn),將數(shù)據(jù)安全傳輸、數(shù)據(jù)存儲、數(shù)據(jù)交換、人機(jī)交互、傳感器接口等技術(shù)標(biāo)準(zhǔn)化,確保數(shù)據(jù)安全交換,同時保障用戶對數(shù)據(jù)擁有的權(quán)益,而不被平臺違規(guī)綁定。同時,要研究可測量的指標(biāo)和可量化的評價系統(tǒng),科學(xué)評價人工智能產(chǎn)品在收集個人、生物或者其它特征數(shù)據(jù)時的安全性。在人工智能產(chǎn)品投入使用前,要求按照相關(guān)標(biāo)準(zhǔn)進(jìn)行研發(fā)、設(shè)計(jì)和制造,對一些對人類安全和生命安全有嚴(yán)重影響的人工智能產(chǎn)品,強(qiáng)行要求按要求進(jìn)行評估,促使在研發(fā)、設(shè)計(jì)和制造階段,盡可能生產(chǎn)能夠降低風(fēng)險或易于進(jìn)行風(fēng)險監(jiān)測的產(chǎn)品。
2)建立高危人工智能風(fēng)險預(yù)警機(jī)制
一些特殊領(lǐng)域人工智能技術(shù)、產(chǎn)品和應(yīng)用具有較高倫理風(fēng)險,應(yīng)建立一種風(fēng)險預(yù)警機(jī)制,便于風(fēng)險識別、安全評估和應(yīng)急處理。首先,要對高危倫理風(fēng)險技術(shù)、產(chǎn)品和應(yīng)用形成目錄,并自動更新,便于分級分類進(jìn)行管理;其次,要形成一套安全風(fēng)險管理標(biāo)準(zhǔn)體系,并在此基礎(chǔ)上形成風(fēng)險預(yù)警機(jī)制,能夠快速識別人工智能的高危風(fēng)險,并及時予以評估和響應(yīng)。
3.管理層面
如前文所述,人工智能的研究開發(fā)、設(shè)計(jì)制造、部署應(yīng)用和使用階段均存在倫理風(fēng)險問題,因此,應(yīng)通過政府主導(dǎo)、多方共同參與的內(nèi)外部監(jiān)管模式,建立并完善全生命周期的人工智能監(jiān)管體系。
1)內(nèi)部監(jiān)管
從內(nèi)部看,負(fù)責(zé)人工智能研究開發(fā)、設(shè)計(jì)制造、部署應(yīng)用的相關(guān)單位是科技倫理管理主體責(zé)任單位,它是人工智能倫理內(nèi)部監(jiān)督管理的主體,應(yīng)通過建立人工智能審查和監(jiān)督工作機(jī)制,加強(qiáng)常態(tài)化管理,及時發(fā)現(xiàn)和化解本單位研究開發(fā)、設(shè)計(jì)制造、部署應(yīng)用等活動中存在的倫理風(fēng)險,引導(dǎo)人工智能從業(yè)人員開展負(fù)責(zé)人的科技創(chuàng)新。相關(guān)單位可以從以下角度出發(fā),建立其內(nèi)部倫理風(fēng)險管理框架及流程。
(1)風(fēng)險管理框架
相關(guān)單位在設(shè)計(jì)風(fēng)險管理框架時,應(yīng)遵循下列原則:①重視事前控制,尤其是單位管理層需要認(rèn)識到人工智能的倫理風(fēng)險,并提前對該倫理風(fēng)險做出整體性部署;②設(shè)立倫理風(fēng)險應(yīng)對部門與倫理風(fēng)險監(jiān)督部門,該部門領(lǐng)導(dǎo)可以主要由人工智能研發(fā)部負(fù)責(zé)人、法務(wù)和/或合規(guī)部負(fù)責(zé)人等人員擔(dān)任,負(fù)責(zé)制定倫理風(fēng)險管理政策、進(jìn)行倫理審查等工作,同時需確保該政策貫穿人工智能產(chǎn)品或服務(wù)的全生命周期;③建立單位內(nèi)部溝通和咨詢渠道,確保各個業(yè)務(wù)部門與倫理風(fēng)險應(yīng)對部門之間溝通順暢,并確保應(yīng)對部門及時掌握單位的倫理風(fēng)險; ④ 建立商業(yè)合作伙伴倫理風(fēng)險審查機(jī)制,在合作或投資前,先行評估該業(yè)務(wù)的倫理風(fēng)險,例如數(shù)據(jù)來源是否可靠,并針對評估結(jié)果對企業(yè)進(jìn)行有針對性的盡職調(diào)查。
(2)風(fēng)險管理流程
相關(guān)單位應(yīng)當(dāng)建立健全管理流程,并將其作為單位管理、決策的重要組成部分。具體而言,風(fēng)險管理流程包括確定風(fēng)險管理活動范圍、背景及標(biāo)準(zhǔn)、風(fēng)險評估、風(fēng)險應(yīng)對、持續(xù)監(jiān)控及審查、記錄及回報等五個環(huán)節(jié)。其中,風(fēng)險評估包括風(fēng)險識別、風(fēng)險分析和風(fēng)險評價三個部分:風(fēng)險識別是指單位在面對具體的人工智能產(chǎn)品或服務(wù)時,單位首先需要識別出可能涉及的倫理風(fēng)險,進(jìn)行特征分析與初步評價;風(fēng)險分析是指單位應(yīng)結(jié)合前述倫理風(fēng)險的不確定性、風(fēng)險源與可能帶來的后果詳細(xì)分析該風(fēng)險;風(fēng)險評價是單位應(yīng)將風(fēng)險分析的結(jié)果與既有風(fēng)險管理準(zhǔn)則比較,結(jié)合現(xiàn)在與未來可能涉及的多方利益主體,決策采用何種應(yīng)對方式。
(3)相關(guān)人員培訓(xùn)
相關(guān)單位應(yīng)建立員工風(fēng)險倫理培訓(xùn)制度,對培訓(xùn)人員、培訓(xùn)內(nèi)容與培訓(xùn)效果記錄在檔。單位的培訓(xùn)內(nèi)容通常可以包括本單位倫理風(fēng)險管理組織機(jī)構(gòu)的設(shè)置與職能、相關(guān)政策與制度、單位一般涉及的相關(guān)倫理風(fēng)險以及典型風(fēng)險倫理管理案例等。同時,單位應(yīng)當(dāng)根據(jù)員工的工作內(nèi)容、人員職級進(jìn)行有針對性的培訓(xùn),并采取確定方式檢驗(yàn)員工培訓(xùn)效果,以確保員工準(zhǔn)確理解單位倫理風(fēng)險管理制度。
(4)定期風(fēng)險評估
相關(guān)單位應(yīng)當(dāng)定期進(jìn)行倫理風(fēng)險評估。單位可以通過審閱相關(guān)管理政策與制度、對人工智能開發(fā)抽樣檢測、與員工面談或發(fā)放調(diào)查問卷等形式,并視情況聘請外部專家,定期評估單位面臨的倫理風(fēng)險與相應(yīng)措施的有效性。 [④]
2)外部監(jiān)管
從外部看,監(jiān)管主體包括政府、行業(yè)協(xié)會、學(xué)術(shù)團(tuán)體、人工智能研發(fā)、設(shè)計(jì)、制造和應(yīng)用的相關(guān)單位設(shè)立的人工智能倫理審查委員會、民眾等。政府在人工智能倫理治理中享有主導(dǎo)權(quán),組建專門的治理機(jī)構(gòu),負(fù)責(zé)指導(dǎo)和統(tǒng)籌協(xié)調(diào)推進(jìn)科技倫理治理體系建設(shè)、科技倫理規(guī)范制定、審查監(jiān)管、宣傳教育等相關(guān)工作。行業(yè)協(xié)會是同業(yè)企業(yè)和組織自愿組成、實(shí)行行業(yè)服務(wù)和自律管理的行業(yè)性組織,對維護(hù)行業(yè)正當(dāng)競爭秩序,促進(jìn)人工智能行業(yè)健康發(fā)展起到非常重要的作用,通過行規(guī)行約,實(shí)現(xiàn)對人工智能企業(yè)有違科技倫理的行為進(jìn)行監(jiān)督管理。學(xué)術(shù)團(tuán)體的整體倫理道德水平直接影響人工智能產(chǎn)品體現(xiàn)出的倫理道德觀,因而學(xué)術(shù)團(tuán)體也要做好監(jiān)督工作,及時發(fā)現(xiàn)和防止人工智能領(lǐng)域出現(xiàn)道德倫理問題,使人工智能發(fā)展不偏離健康的發(fā)展道路。人工智能倫理問題的治理要落到實(shí)處,需要人工智能研發(fā)、設(shè)計(jì)、制造和應(yīng)用的相關(guān)單位設(shè)立的人工智能倫理審查委員會的參與,在人工智能全生命周期里負(fù)責(zé)倫理審查,其人員組成應(yīng)有廣泛代表性,包括專業(yè)人員、法律人員和倫理專家;其審查活動應(yīng)保持獨(dú)立性。民眾作為人工智能產(chǎn)品的使用者或者利益相關(guān)者,直接接觸人工智能產(chǎn)品、親身經(jīng)歷人工智能自動決策,可以直觀感受其技術(shù)的優(yōu)劣,反饋發(fā)現(xiàn)的人工智能倫理問題,進(jìn)而有效發(fā)揮其監(jiān)督作用。
4.教育層面
1)樹立“以人為本”的理念,彰顯“人性尊嚴(yán)”的價值
人工智能發(fā)展最終要以人為根本出發(fā)點(diǎn)和目標(biāo),在教育層面應(yīng)樹立“以人為本”的理念,確立“人性尊嚴(yán)”的價值。當(dāng)前,一些領(lǐng)域在評價人才機(jī)制上,功利主義色彩較重,這種單純以功利為導(dǎo)向的評價機(jī)制,極易鼓勵人工智能相關(guān)從業(yè)人員突破倫理道德界限,忽視人工智能隱藏的可能給人類文明和人類尊嚴(yán)帶來的不利后果。因而,對人工智能相關(guān)從業(yè)人員進(jìn)行培養(yǎng)教育,樹立“以人為本”的理念,彰顯“人性尊嚴(yán)”的價值非常重要。對于研發(fā)和設(shè)計(jì)人員,應(yīng)培養(yǎng)他們正確的科研創(chuàng)新價值觀,使他們在人工智能創(chuàng)新活動中始終保持正確的倫理觀,以負(fù)責(zé)人態(tài)度對待研發(fā)和設(shè)計(jì),避免急功近利、唯利是圖的思想,真正做到“負(fù)責(zé)任創(chuàng)新”。對于部署應(yīng)用人員和使用者,也要培養(yǎng)他們正確的倫理價值觀和是非曲直的倫理判斷標(biāo)準(zhǔn)。
2)專業(yè)素質(zhì)和人文素養(yǎng)培養(yǎng)并重
人工智能無論是算力、存儲能力還是壽命都有比人更大的優(yōu)勢,未來是人工智能時代,人工智能研發(fā)者、設(shè)計(jì)制造者、部署應(yīng)用者、管理者需要了解人工智能專業(yè)知識,公眾也要接受人工智能通識教育。人工智能與生產(chǎn)生活息息相關(guān),只有了解其核心內(nèi)容、原理、方法以及背后的邏輯,才能更好地使用人工智能,而且未來人工智能的發(fā)展,也需要大批的專業(yè)人才,這些都需要教育的支撐和保障。無論是專業(yè)人員,還是公眾,有關(guān)人工智能的專業(yè)素質(zhì)培養(yǎng)和人文素養(yǎng)培養(yǎng)同等重要,只有提高對人工智能技術(shù)的理解、掌握一些人工智能專業(yè)知識,才能更好地研發(fā)、設(shè)計(jì)、制造、部署、維護(hù)、管理、使用人工智能,只有通過人本精神的教育和熏陶,樹立理想信念,提高自己的思想認(rèn)識水平和公德意識,把握人生真諦,尊重人的尊嚴(yán),負(fù)責(zé)任地和人工智能打交道,才能有效地將倫理要求融入人工智能系統(tǒng),真正構(gòu)建和諧的人工智能健康環(huán)境。
5.國際合作層面
1)積極參與全球人工智能倫理治理倡議
近年來,我國不僅著力于加強(qiáng)人工智能技術(shù)的創(chuàng)新研發(fā),也在積極參與全球人工智能倫理治理。2023年8月,金磚國家領(lǐng)導(dǎo)人第十五次會晤上,金磚國家已經(jīng)同意盡快啟動人工智能研究組工作;我國在該會議上提出,要充分發(fā)揮研究組作用,進(jìn)一步拓展人工智能合作,加強(qiáng)信息交流和技術(shù)合作,共同做好風(fēng)險防范,形成具有廣泛共識的人工智能治理框架和標(biāo)準(zhǔn)規(guī)范,不斷提升人工智能技術(shù)的安全性、可靠性、可控性、公平性。2023年10月,我國發(fā)布《全球人工智能治理倡議》,圍繞人工智能發(fā)展、安全、治理三方面系統(tǒng)闡述了人工智能治理中國方案,并在倡議中提出:堅(jiān)持相互尊重、平等互利;推動建立風(fēng)險等級測試評估體系;推動建立風(fēng)險等級測試評估體系,不斷提升人工智能技術(shù)的安全性、可靠性、可控性、公平性;在充分尊重各國政策和實(shí)踐基礎(chǔ)上,形成具有廣泛共識的全球人工智能治理框架和標(biāo)準(zhǔn)規(guī)范。2023年10月,我國兩名專家入選聯(lián)合國高級別人工智能咨詢機(jī)構(gòu)(High Level Advisory Body on AI),致力于“就人工智能的治理進(jìn)行多利益攸關(guān)方共同參與、多學(xué)科共治的全球性對話”。將來,我國應(yīng)當(dāng)進(jìn)一步積極參與聯(lián)合國等多邊機(jī)構(gòu)的人工智能倫理治理交流合作,切實(shí)推動人工智能倫理公示,深入?yún)⑴c國際標(biāo)準(zhǔn)的研討制定。
2)鼓勵國內(nèi)企業(yè)和專家學(xué)者參與國際人工智能倫理治理交流合作
在我國參與全球人工智能倫理治理交流合作的同時,企業(yè)、專家學(xué)者也應(yīng)積極分享國內(nèi)人工智能倫理治理實(shí)踐經(jīng)驗(yàn),推動產(chǎn)業(yè)界與學(xué)術(shù)界加強(qiáng)與域外機(jī)構(gòu)對人工智能倫理治理議題的深入研討,形成全球人工智能倫理治理合作生態(tài)。一方面,企業(yè)在國際舞臺分享國內(nèi)人工智能倫理治理的實(shí)踐經(jīng)驗(yàn),有利于企業(yè)與其他國家的企業(yè)和機(jī)構(gòu)建立聯(lián)系,促進(jìn)國際合作與交流,以推動行業(yè)國際倫理標(biāo)準(zhǔn)的制定和實(shí)施;另一方面,專家學(xué)者積極參與人工智能倫理治理交流合作,可以促進(jìn)政策對話,為政策制定者提供科學(xué)依據(jù)和建議,有利于構(gòu)建國際人工智能倫理治理框架與治理規(guī)則。
[①] 中國信息通信研究院,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟. 人工智能治理白皮書[EB/OL]. (2020-09-28] [2024-01-01]. http://www.caict.ac.cn/kxyj/qwfb/bps/202009/t20200928_347546.htm.
[②] 科學(xué)技術(shù)部. 《關(guān)于加強(qiáng)科技倫理治理的意見》新聞發(fā)布會[EB/OL]. (2022-03-24] [2024-01-01]. https://www.most.gov.cn/xwzx/twzb/fbh22032301/twzbwzsl/202203/t20220324_179977.html.
[③] 國家人工智能標(biāo)準(zhǔn)化總體組,全國信標(biāo)委人工智能分委會. 人工智能倫理治理標(biāo)準(zhǔn)化指南(2023版)[EB/OL]. [2023-03-20]. http://www.jianshen.cas.cn/zgkxykjllwyhbgs/zdgf/xxjsyrgznly/xygf/202310/P020231019382162308610.pdf.
[④] 國家人工智能標(biāo)準(zhǔn)化總體組.人工智能倫理風(fēng)險分析報告[EB/OL].(2019-03-25)[2024-01-01].https://www.cesi.cn/images/editor/20190425/20190425142632634001.pdf.





滬公網(wǎng)安備 31010402007129號