引言
隨著人工智能深度學(xué)習(xí)能力的不斷強(qiáng)化,人工智能技術(shù)大幅發(fā)展,ChatGPT、Bard等大模型的陸續(xù)推出,人工智能技術(shù)開始被廣泛地應(yīng)用于人們?nèi)粘I畹姆椒矫婷妗2贿^,正如過去諸多科幻類作品所展示的那樣,現(xiàn)實(shí)中,人工智能的發(fā)展帶來的科技倫理問題也逐步顯現(xiàn)。例如,當(dāng)人工智能使用的訓(xùn)練數(shù)據(jù)本身存在虛假、錯(cuò)誤信息時(shí),或人工智能被用于炮制虛假、錯(cuò)誤信息時(shí),人工智能將助推虛假、錯(cuò)誤信息的傳播。再如,盡管人工智能技術(shù)研發(fā)的初衷是使得人們得以從一些簡單重復(fù)的工作中脫離出來進(jìn)而從事更具有創(chuàng)造性的工作,人工智能自動(dòng)生成的繪畫、詩句、文章展現(xiàn)出的出乎人們意料的創(chuàng)造力,引發(fā)了社會(huì)對(duì)于人工智能取代人類的憂慮以及對(duì)就業(yè)市場的巨大沖擊。在近期的好萊塢編劇罷工事件中,為了避免被AI取代,好萊塢編劇們提出了AI生成的文學(xué)材料不得被視為人類撰寫的文學(xué)材料、禁止利用編劇的勞動(dòng)成果來訓(xùn)練AI等一系列訴求。再如,人工智能系統(tǒng)可能包含強(qiáng)化或固化歧視或偏見的應(yīng)用程序和結(jié)果,這將加劇社會(huì)中已有的歧視、偏見與成見。此外,人類為使用人工智能提供的服務(wù),也將涉及向人工智能提供生理信息、行為偏好、興趣偏好等個(gè)人隱私信息,如前述信息被不當(dāng)收集和利用,人工智能將極有可能成為窺探個(gè)人隱私、侵?jǐn)_個(gè)人生活的工具。
為了應(yīng)對(duì)上述人工智能帶來的倫理問題,聯(lián)合國教育、科學(xué)及文化組織于2021年11月23日通過《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence,“《建議書》”),提出了人工智能系統(tǒng)生命周期的所有行為者應(yīng)尊重的價(jià)值觀和原則以及落實(shí)前述價(jià)值觀和原則的政策行動(dòng),建議會(huì)員國在自愿基礎(chǔ)上適用《建議書》的各項(xiàng)規(guī)定,根據(jù)本國的憲法實(shí)踐和治理結(jié)構(gòu)并依照國際人權(quán)法在內(nèi)的國際法采取適當(dāng)步驟,包括進(jìn)行必要的立法。目前,歐盟、美國和英國等國家和地區(qū)均已出臺(tái)了一系列監(jiān)管規(guī)則,與此同時(shí),我國科學(xué)技術(shù)部會(huì)同教育部、工業(yè)和信息化部、國家衛(wèi)生健康委等十部門聯(lián)合印發(fā)的《科技倫理審查辦法(試行)》正式明確了我國的科技倫理審查體系。
本文重點(diǎn)內(nèi)容包括:
s 全球各地區(qū)的人工智能倫理治理體系的概述性介紹;
s 我國最新出臺(tái)的《科技倫理審查辦法(試行)》的要點(diǎn)解讀;
s 結(jié)合我國的監(jiān)管要求,對(duì)于大模型服務(wù)提供者的人工智能倫理治理責(zé)任的梳理;
s 大模型服務(wù)提供者提供應(yīng)對(duì)人工智能加速突破和應(yīng)用所帶來的倫理風(fēng)險(xiǎn)與挑戰(zhàn)的可行路徑探索。
一、 國外AI倫理治理監(jiān)管體系概述
目前歐盟、美國及英國均已出臺(tái)了與人工智能相關(guān)的監(jiān)管規(guī)則,科技倫理的治理是其中的重點(diǎn)。具體如下:
(一) 歐盟
《人工智能法案》(Artificial Intelligence Act)作為歐盟人工智能監(jiān)管體系的核心,在經(jīng)歷了一系列修正之后,目前將進(jìn)入歐盟委員會(huì)、議會(huì)和成員國三方談判協(xié)商的程序從而確定最終版本。《人工智能法案》是歐盟首部有關(guān)人工智能的綜合性立法,其以人工智能的概念作為體系原點(diǎn),以人工智能的風(fēng)險(xiǎn)分級(jí)管理作為制度抓手,以人工智能產(chǎn)業(yè)鏈上的不同責(zé)任主體作為規(guī)范對(duì)象,以對(duì)人工智能的合格評(píng)估以及問責(zé)機(jī)制作為治理工具,從人工監(jiān)管、隱私、透明度、安全、非歧視、環(huán)境友好等全方位監(jiān)管人工智能的開發(fā)和使用,詳細(xì)規(guī)定了人工智能市場中各參與者的義務(wù)。
在倫理治理方面,《人工智能法案》強(qiáng)調(diào),人工智能應(yīng)該是一種以人為本的技術(shù),不應(yīng)該取代人類的自主性,也不應(yīng)該導(dǎo)致個(gè)人自由的喪失,而應(yīng)該主要服務(wù)于社會(huì)需求和共同利益,因此應(yīng)提供保障措施,以確保開發(fā)和使用尊重歐盟價(jià)值觀和《歐洲聯(lián)盟基本權(quán)利憲章》(Charter of Fundamental Rights of the European Union)的道德嵌入式人工智能。對(duì)于AI系統(tǒng)的風(fēng)險(xiǎn)分級(jí)標(biāo)準(zhǔn),《人工智能法案》將倫理風(fēng)險(xiǎn)作為考量因素,將下述類型的AI系統(tǒng)歸為“存在不可接受風(fēng)險(xiǎn)的AI系統(tǒng)”,在歐盟成員國內(nèi)將完全禁止該等AI系統(tǒng)投入市場或者交付使用:
? 采用潛意識(shí)技術(shù)或有目的的操縱或欺騙技術(shù);
? 利用個(gè)人或社會(huì)群體的弱點(diǎn)(例如已知的人格特征或社會(huì)經(jīng)濟(jì)狀況、年齡、身體精神能力);
? 利用人的社會(huì)行為或人格特征進(jìn)行社會(huì)評(píng)分;
? 在公眾場所的“實(shí)時(shí)”(包括即時(shí)和短時(shí)延遲)遠(yuǎn)程生物識(shí)別系統(tǒng)。
此外,在評(píng)估AI系統(tǒng)是否屬于“高風(fēng)險(xiǎn)AI系統(tǒng)”時(shí),《人工智能法案》要求考量AI系統(tǒng)對(duì)《歐洲歐盟基本權(quán)利憲章》所保護(hù)的基本權(quán)利造成的不利影響的程度,該等基本權(quán)利包括:人的尊嚴(yán)、尊重私人和家庭生活、保護(hù)個(gè)人數(shù)據(jù)、言論和信息自由、集會(huì)和結(jié)社自由以及不受歧視的權(quán)利、受教育權(quán)、消費(fèi)者保護(hù)、工人權(quán)利、殘疾人權(quán)利、性別平等、知識(shí)產(chǎn)權(quán)、獲得有效補(bǔ)救和公平審判的權(quán)利、辯護(hù)權(quán)和無罪推定、良好管理的權(quán)利。“高風(fēng)險(xiǎn)AI系統(tǒng)”投放市場及交付使用均受到嚴(yán)格的管控并需履行評(píng)估及備案等一系列要求。
(二) 美國
美國在聯(lián)邦層面尚未通過一部完整且專門的針對(duì)AI系統(tǒng)的法案,而是試圖通過調(diào)整政府機(jī)構(gòu)的權(quán)利,在現(xiàn)有的立法框架及監(jiān)管規(guī)則內(nèi)對(duì)人工智能進(jìn)行規(guī)制。在倫理治理方面,目前聯(lián)邦層面的合規(guī)重點(diǎn)主要涉及反歧視、保護(hù)數(shù)據(jù)隱私等要求。例如:
1. 《2022年算法問責(zé)法案》(Algorithmic Accountability Act of 2022)
2022年2月,美國眾議院頒布了《2022年算法問責(zé)法案》,要求使用自動(dòng)化決策系統(tǒng)做出關(guān)鍵決策的企業(yè)研究并報(bào)告這些系統(tǒng)對(duì)消費(fèi)者的影響,其內(nèi)容包括是否會(huì)因?yàn)橄M(fèi)者的種族、性別、年齡等生成對(duì)消費(fèi)者有偏見或歧視性的自動(dòng)決策等。該法案形成了“評(píng)估報(bào)告—評(píng)估簡報(bào)—公開信息”三層信息披露機(jī)制。此外,聯(lián)邦貿(mào)易委員會(huì)還將建立可公開訪問的信息存儲(chǔ)庫,公開發(fā)布關(guān)于自動(dòng)化決策系統(tǒng)的有限信息。
2. 《人工智能權(quán)利法案藍(lán)圖》(Blueprint for an AI Bill of Right)
2022年10月,美國白宮科技政策辦公室(OSTP)頒布了《人工智能權(quán)利法案藍(lán)圖》,提出了指導(dǎo)人工智能的設(shè)計(jì)、使用和部署的五項(xiàng)原則:技術(shù)的安全性和有效性、防止算法歧視、保護(hù)數(shù)據(jù)隱私、告知及解釋義務(wù)以及人類參與決策,并在技術(shù)指南部分針對(duì)五項(xiàng)原則中的每一項(xiàng)均解釋了原則的重要性、原則所指引的期望以及各級(jí)政府到各種規(guī)模的公司等多種組織為維護(hù)原則可以采取的具體的實(shí)施步驟、原則的實(shí)踐案例。
3. 《美國數(shù)據(jù)隱私和保護(hù)法案》(the American Data Privacy and Protection Act,“ADPPA”)
2022年6月,美國參眾兩院共同發(fā)布了ADPPA,ADPPA規(guī)定,如人工智能所使用的數(shù)據(jù)集涵蓋個(gè)人信息、數(shù)據(jù)與隱私,則構(gòu)成“覆蓋算法”;使用“覆蓋算法”的大數(shù)據(jù)持有人,如果對(duì)個(gè)人或群體構(gòu)成相應(yīng)傷害風(fēng)險(xiǎn),并單獨(dú)或部分使用“覆蓋算法”來收集、處理或傳輸覆蓋數(shù)據(jù),則應(yīng)當(dāng)根據(jù)ADPPA規(guī)定的評(píng)估標(biāo)準(zhǔn)進(jìn)行隱私影響評(píng)估。另外,ADPPA還對(duì)隱私政策的告知與退出機(jī)制、反偏見等內(nèi)容做出了規(guī)定。ADPPA規(guī)定,企業(yè)或代表企業(yè)的服務(wù)提供商需要告知個(gè)人有“選擇退出”的權(quán)利,即拒絕企業(yè)對(duì)其個(gè)人數(shù)據(jù)的收集、處理或傳輸。
4. 《關(guān)于通過聯(lián)邦政府進(jìn)一步促進(jìn)種族平等和支持服務(wù)不足社區(qū)的行政命令》(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through the Federal Government)
2023年2月,拜登簽署了《關(guān)于通過聯(lián)邦政府進(jìn)一步促進(jìn)種族平等和支持服務(wù)不足社區(qū)的行政命令》,規(guī)定人工智能大模型應(yīng)避免由于大量輸入訓(xùn)練數(shù)據(jù)中存在的對(duì)種族、性別、年齡、文化和殘疾等的偏見而導(dǎo)致訓(xùn)練結(jié)果輸出內(nèi)容中存在偏見。聯(lián)邦政府在設(shè)計(jì)、開發(fā)、獲取和使用人工智能和自動(dòng)化系統(tǒng)時(shí),各機(jī)構(gòu)應(yīng)在符合適用法律的前提下,防止、糾正歧視和促進(jìn)公平,包括保護(hù)公眾免受算法歧視。
(三) 英國
2021年5月,英國中央數(shù)字與數(shù)據(jù)辦公室、人工智能辦公室與內(nèi)閣辦公室聯(lián)合發(fā)布了《自動(dòng)決策系統(tǒng)的倫理、透明度與責(zé)任框架》(Ethics, Transparency and Accountability Framework for Automated Decision-Making,“ETAF”),對(duì)人工智能涉及的算法和自動(dòng)化決策的倫理治理要求進(jìn)行規(guī)定。ETAF強(qiáng)調(diào),算法和自動(dòng)化決策在上線之前應(yīng)該進(jìn)行嚴(yán)格的、受控的和分階段的測試。在整個(gè)原型和測試過程中,需要人類的專業(yè)知識(shí)和監(jiān)督來確保技術(shù)上的彈性和安全,以及準(zhǔn)確和可靠的系統(tǒng)。測試時(shí),需要考慮自動(dòng)化決策系統(tǒng)的準(zhǔn)確性、安全性、可靠性、公平性和可解釋性。ETAF規(guī)定,企業(yè)必須對(duì)算法或自動(dòng)決策系統(tǒng)做一個(gè)平等影響評(píng)估,使用高質(zhì)量和多樣化的數(shù)據(jù)集,發(fā)現(xiàn)和抵制所使用數(shù)據(jù)中明顯的偏見和歧視。ETAF指出,算法或計(jì)算機(jī)系統(tǒng)應(yīng)該被設(shè)計(jì)為完全可以負(fù)責(zé)和可被審計(jì)的,算法和自動(dòng)化的責(zé)任和問責(zé)制度應(yīng)該明確。
二、 我國與AI倫理治理相關(guān)的法律法規(guī)和行業(yè)規(guī)范概覽
(一) 法律法規(guī)
在我國,2017年,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》并在該規(guī)劃中提出了制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范的要求,之后《中華人民共和國科學(xué)技術(shù)進(jìn)步法》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》、《生成式人工智能服務(wù)管理暫行辦法》、《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南—人工智能倫理安全風(fēng)險(xiǎn)防范指引》等一系列法律法規(guī)和相關(guān)規(guī)定相繼對(duì)于AI倫理治理的要求予以規(guī)定。2022年中共中央辦公廳、國務(wù)院辦公廳發(fā)布了《關(guān)于加強(qiáng)科技倫理治理的意見》,該意見是我國首個(gè)國家層面的、專門針對(duì)科技倫理治理的指導(dǎo)性文件,提出了科技倫理治理原則以及基本要求。2023年10月新發(fā)布的《科技倫理審查辦法(試行)》對(duì)于科技倫理審查的基本程序、標(biāo)準(zhǔn)、條件等提出統(tǒng)一要求,標(biāo)志著我國AI倫理治理監(jiān)管體系建設(shè)進(jìn)入了新階段。我們?cè)谙卤碇惺崂砹宋覈cAI倫理治理相關(guān)的法律法規(guī)及其主要內(nèi)容:
| 序號(hào) |
名稱 |
位階 |
生效日期 |
AI倫理治理相關(guān)要求 |
| 1. |
《中華人民共和國科學(xué)技術(shù)進(jìn)步法》
|
法律 |
2022.01.01 |
要求科學(xué)技術(shù)研究開發(fā)機(jī)構(gòu)、高等學(xué)校、企業(yè)事業(yè)單位等應(yīng)當(dāng)履行科技倫理管理主體責(zé)任,按照國家有關(guān)規(guī)定建立健全科技倫理審查機(jī)制,對(duì)科學(xué)技術(shù)活動(dòng)開展科技倫理審查,禁止危害國家安全、損害社會(huì)公共利益、危害人體健康、違背科研誠信和科技倫理的科學(xué)技術(shù)研究開發(fā)和應(yīng)用活動(dòng),否則相關(guān)單位、直接負(fù)責(zé)的主管人員和其他直接責(zé)任人員將受到行政處罰。
|
| 2. |
《新一代人工智能發(fā)展規(guī)劃》
|
行政法規(guī) |
2023.08.15 |
提出人工智能倫理規(guī)范和政策法規(guī)建設(shè)的戰(zhàn)略目標(biāo),以及制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范的要求。
|
| 3. |
《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》
|
部門規(guī)章 |
2022.03.01 |
算法推薦服務(wù)提供者應(yīng)當(dāng)落實(shí)算法安全主體責(zé)任,建立健全算法機(jī)制機(jī)理審核、科技倫理審查、用戶注冊(cè)、信息發(fā)布審核、數(shù)據(jù)安全和個(gè)人信息保護(hù)、反電信網(wǎng)絡(luò)詐騙、安全評(píng)估監(jiān)測、安全事件應(yīng)急處置等管理制度和技術(shù)措施,制定并公開算法推薦服務(wù)相關(guān)規(guī)則,配備與算法推薦服務(wù)規(guī)模相適應(yīng)的專業(yè)人員和技術(shù)支撐;此外,還應(yīng)當(dāng)定期審核、評(píng)估、驗(yàn)證算法機(jī)制機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷、過度消費(fèi)等違反法律法規(guī)或者違背倫理道德的算法模型。
|
| 4. |
《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》
|
部門規(guī)章 |
2023.01.10 |
深度合成服務(wù)提供者應(yīng)當(dāng)落實(shí)信息安全主體責(zé)任,建立健全用戶注冊(cè)、算法機(jī)制機(jī)理審核、科技倫理審查、信息發(fā)布審核、數(shù)據(jù)安全、個(gè)人信息保護(hù)、反電信網(wǎng)絡(luò)詐騙、應(yīng)急處置等管理制度,具有安全可控的技術(shù)保障措施。
|
| 5. |
《生成式人工智能服務(wù)管理暫行辦法》
|
部門規(guī)章 |
2023.08.15 |
提供和使用生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會(huì)公德和倫理道德,遵守以下規(guī)定: (一)堅(jiān)持社會(huì)主義核心價(jià)值觀,不得生成煽動(dòng)顛覆國家政權(quán)、推翻社會(huì)主義制度,危害國家安全和利益、損害國家形象,煽動(dòng)分裂國家、破壞國家統(tǒng)一和社會(huì)穩(wěn)定,宣揚(yáng)恐怖主義、極端主義,宣揚(yáng)民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容; (二)在算法設(shè)計(jì)、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視; (三)尊重知識(shí)產(chǎn)權(quán)、商業(yè)道德,保守商業(yè)秘密,不得利用算法、數(shù)據(jù)、平臺(tái)等優(yōu)勢(shì),實(shí)施壟斷和不正當(dāng)競爭行為; (四)尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人肖像權(quán)、名譽(yù)權(quán)、榮譽(yù)權(quán)、隱私權(quán)和個(gè)人信息權(quán)益; (五)基于服務(wù)類型特點(diǎn),采取有效措施,提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性。
|
| 6. |
《科技倫理審查辦法(試行)》
|
部門規(guī)章 |
2023.12.01 |
詳見下文 |
| 7. |
《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南—人工智能倫理安全風(fēng)險(xiǎn)防范指引》
|
其他規(guī)范性文件 |
2021.01.05 |
將AI倫理安全風(fēng)險(xiǎn)總結(jié)為以下五大方面:(1)失控性風(fēng)險(xiǎn),如AI的行為與影響超出服務(wù)提供者預(yù)設(shè)、理解和可控的范圍,對(duì)社會(huì)價(jià)值等產(chǎn)生負(fù)面影響;(2)社會(huì)性風(fēng)險(xiǎn):不合理使用AI而對(duì)社會(huì)價(jià)值等方面產(chǎn)生負(fù)面影響;(3)侵權(quán)性風(fēng)險(xiǎn):AI對(duì)人的基本權(quán)利,包括人身、隱私、侵權(quán)性風(fēng)險(xiǎn)財(cái)產(chǎn)等造成侵害或產(chǎn)生負(fù)面影響;(4)歧視性風(fēng)險(xiǎn):AI對(duì)人類特定群體具有主觀或客觀偏見,影響公平公正、造成權(quán)利侵害或負(fù)面影響;(5)責(zé)任性風(fēng)險(xiǎn):AI相關(guān)各方行為失當(dāng)、責(zé)任界定不清,對(duì)社會(huì)信任、社會(huì)價(jià)值等方面產(chǎn)生負(fù)面影響。
|
| 8. |
《關(guān)于加強(qiáng)科技倫理治理的意見》
|
其他規(guī)范性文件 |
2022.03.20 |
提出“科技倫理是開展科學(xué)研究、技術(shù)開發(fā)等科技活動(dòng)需要遵循的價(jià)值理念和行為規(guī)范,是促進(jìn)科技事業(yè)健康發(fā)展的重要保障”,并明確了以下五大類科技倫理原則:增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)和保持公開透明。
|
(二) 行業(yè)規(guī)范
除前序法律法規(guī)和相關(guān)規(guī)定以外,在《新一代人工智能發(fā)展規(guī)劃》等政策指引下,各機(jī)構(gòu)、行業(yè)也積極響應(yīng),陸續(xù)發(fā)布了一系列AI倫理治理相關(guān)的行業(yè)規(guī)范,包括國家新一代人工智能治理專業(yè)委員會(huì)制定的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》、《新一代人工智能倫理規(guī)范》、國家人工智能標(biāo)準(zhǔn)化總體組等制定的《人工智能倫理治理標(biāo)準(zhǔn)化指南》、同濟(jì)大學(xué)上海市人工智能社會(huì)治理協(xié)同創(chuàng)新中心研究團(tuán)隊(duì)編制的《人工智能大模型倫理規(guī)范操作指引》、中國社會(huì)科學(xué)院國慶調(diào)研重大項(xiàng)目《我國人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研》課題組編制的《人工智能法示范法1.0(專家建議稿)》,提供了相關(guān)行業(yè)的AI倫理治理建議。下表梳理了我國與AI倫理治理相關(guān)的行業(yè)規(guī)范及其主要內(nèi)容:
| 序號(hào) |
行業(yè)規(guī)范 |
編制機(jī)構(gòu) |
發(fā)布時(shí)間 |
主要內(nèi)容 |
| 1. |
《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》 |
國家新一代人工智能治理專業(yè)委員會(huì) |
2019.06 |
提出了人工智能治理的框架和行動(dòng)指南,治理原則旨在更好協(xié)調(diào)人工智能發(fā)展與治理的關(guān)系,確保人工智能安全可控可靠,推動(dòng)經(jīng)濟(jì)、社會(huì)及生態(tài)可持續(xù)發(fā)展,共建人類命運(yùn)共同體。治理原則突出了發(fā)展負(fù)責(zé)任的人工智能這一主題,強(qiáng)調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八條原則。
|
| 2. |
《新一代人工智能倫理規(guī)范》 |
國家新一代人工智能治理專業(yè)委員會(huì) |
2021.09 |
旨在將倫理道德融入人工智能全生命周期,促進(jìn)公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題。《新一代人工智能倫理規(guī)范》的適用主體為從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)。在此基礎(chǔ)上,《新一代人工智能倫理規(guī)范》明確了人工智能的基本倫理規(guī)范,包括增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確保可控可信、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)。同時(shí),《新一代人工智能倫理規(guī)范》提出了一系列人工智能應(yīng)用管理規(guī)范、研發(fā)規(guī)范、供應(yīng)規(guī)范和使用規(guī)范。
|
| 3. |
《人工智能倫理治理標(biāo)準(zhǔn)化指南》 |
國家人工智能標(biāo)準(zhǔn)化總體組 |
2023.03 |
共分為六章,以人工智能倫理治理標(biāo)準(zhǔn)體系的建立和具體標(biāo)準(zhǔn)研制為目標(biāo),重點(diǎn)圍繞人工智能倫理概念和范疇、人工智能倫理準(zhǔn)則、人工智能倫理風(fēng)險(xiǎn)分析、人工智能倫理治理的技術(shù)解決方案、人工智能倫理治理標(biāo)準(zhǔn)體系建設(shè)以及展望與建議等六個(gè)方面展開研究。
|
| 4. |
《人工智能大模型倫理規(guī)范操作指引》 |
同濟(jì)大學(xué)等 |
2023.07 |
主要包括AI大模型全生命周期的技術(shù)與倫理要素、大模型的研發(fā)與應(yīng)用的倫理原則、大模型技術(shù)研發(fā)的倫理實(shí)踐指南三部分內(nèi)容,提出了尊重人的自主權(quán)、保護(hù)個(gè)人隱私、保障公平公正、提高透明度和可解釋性、負(fù)責(zé)任的創(chuàng)新等5項(xiàng)大模型倫理原則,以及公平性、透明性、隱私、安全性、責(zé)任、人類的監(jiān)督與控制、可持續(xù)性等7項(xiàng)大模型倫理實(shí)踐操作建議。
|
三、 《科技倫理審查辦法(試行)》要點(diǎn)
(一) 適用范圍
2023年10月8日,科學(xué)技術(shù)部、教育部、工業(yè)和信息化部等多部門聯(lián)合發(fā)布《科技倫理審查辦法(試行)》(“《科技倫理審查辦法》”),該辦法將于2023年12月1日起正式實(shí)施。該辦法對(duì)于涉及以人為研究參與者的科技活動(dòng),包括利用人類生物樣本、個(gè)人信息數(shù)據(jù)等的科技活動(dòng),或不直接涉及人或?qū)嶒?yàn)動(dòng)物,但可能在生命健康、生態(tài)環(huán)境、公共秩序、可持續(xù)發(fā)展等方面帶來倫理風(fēng)險(xiǎn)挑戰(zhàn)的科技活動(dòng)進(jìn)行的科技倫理審查和監(jiān)管做出了明確的規(guī)定,由此可見,該辦法的適用范圍幾乎涵蓋所有科技活動(dòng),包括人工智能相關(guān)的科技活動(dòng)。
(二) 審查主體
在審查主體方面,《科技倫理審查辦法》明確要求從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動(dòng)的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會(huì)。其他有倫理審查需求的單位可根據(jù)實(shí)際情況設(shè)立科技倫理(審查)委員會(huì)。單位應(yīng)在設(shè)立科技倫理(審查)委員會(huì)后30日內(nèi),通過國家科技倫理管理信息登記平臺(tái)進(jìn)行登記,登記內(nèi)容包括科技倫理(審查)委員會(huì)組成、章程、工作制度等,相關(guān)內(nèi)容發(fā)生變化時(shí)應(yīng)及時(shí)更新,并在每年3月31日前,向國家科技倫理管理信息登記平臺(tái)提交上一年度科技倫理(審查)委員會(huì)工作報(bào)告。科技倫理(審查)委員會(huì)的主要職責(zé)包括:
? 制定完善科技倫理(審查)委員會(huì)的管理制度和工作規(guī)范;
? 提供科技倫理咨詢,指導(dǎo)科技人員對(duì)科技活動(dòng)開展科技倫理風(fēng)險(xiǎn)評(píng)估;
? 開展科技倫理審查,按要求跟蹤監(jiān)督相關(guān)科技活動(dòng)全過程;
? 對(duì)擬開展的科技活動(dòng)是否屬于《需要開展倫理審查復(fù)核的科技活動(dòng)清單》范圍作出判斷;
? 組織開展對(duì)委員的科技倫理審查業(yè)務(wù)培訓(xùn)和科技人員的科技倫理知識(shí)培訓(xùn);
? 受理并協(xié)助調(diào)查相關(guān)科技活動(dòng)中涉及科技倫理問題的投訴舉報(bào);
? 按照主管部門要求進(jìn)行登記、報(bào)告,配合地方、相關(guān)行業(yè)主管部門開展涉及科技倫理審查的相關(guān)工作。
在科技倫理(審查)委員會(huì)的人員組成方面,科技倫理(審查)委員會(huì)人數(shù)應(yīng)不少于7人,設(shè)主任委員1人,副主任委員若干;委員任期不超過5年,可以連任。委員會(huì)成員應(yīng)由具備相關(guān)科學(xué)技術(shù)背景的同行專家以及倫理、法律等相應(yīng)專業(yè)背景的專家組成,并應(yīng)當(dāng)有不同性別和非本單位的委員,民族自治地方應(yīng)有熟悉當(dāng)?shù)厍闆r的委員。由此可見,科技倫理(審查)委員會(huì)的設(shè)立具備一定門檻,根據(jù)《科技倫理審查辦法》,如單位或個(gè)人涉及開展需進(jìn)行科技倫理審查的科技活動(dòng),但單位未設(shè)立科技倫理(審查)委員會(huì)或個(gè)人無單位的,應(yīng)書面委托其他單位的科技倫理(審查)委員會(huì)開展倫理審查工作。
(三) 審查程序
根據(jù)《科技倫理審查辦法》,科技倫理(審查)委員會(huì)開展科技倫理審查的流程如下:
科技倫理審查流程圖示
根據(jù)《科技倫理審查辦法》,針對(duì)納入科技部發(fā)布的《需要開展倫理審查復(fù)核的科技活動(dòng)清單》的科技活動(dòng),通過科技倫理(審查)委員會(huì)的科技審查后,除非國家實(shí)行行政審批等監(jiān)管措施且將符合倫理要求作為審批條件、監(jiān)管內(nèi)容的,還需由科技活動(dòng)承擔(dān)單位(即開展科技活動(dòng)的單位)報(bào)請(qǐng)所在地方或相關(guān)行業(yè)主管部門組織成立復(fù)核專家組 [1] 開展專家復(fù)核,并由負(fù)責(zé)該等科技活動(dòng)的科技審查的科技倫理(審查)委員會(huì)根據(jù)專家復(fù)核意見作出科技倫理審查決定;前序科技倫理(審查)委員會(huì)應(yīng)在納入清單管理的科技活動(dòng)獲得倫理審查批準(zhǔn)后30日內(nèi),通過國家科技倫理管理信息登記平臺(tái)進(jìn)行登記,登記內(nèi)容包括科技活動(dòng)實(shí)施方案、倫理審查與復(fù)核情況等,相關(guān)內(nèi)容發(fā)生變化時(shí)應(yīng)及時(shí)更新,并在每年3月31日前向國家科技倫理管理信息登記平臺(tái)提交上一年度納入清單管理的科技活動(dòng)實(shí)施情況報(bào)告。根據(jù)科技部于2023年10月8日附隨《科技倫理審查辦法》發(fā)布的《需要開展倫理審查復(fù)核的科技活動(dòng)清單》,“具有輿論社會(huì)動(dòng)員能力和社會(huì)意識(shí)引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā)”、“面向存在安全、人身健康風(fēng)險(xiǎn)等場景的具有高度自主能力的自動(dòng)化決策系統(tǒng)的研發(fā)”均屬于需要開展倫理審查復(fù)核的科技活動(dòng)。因此,人工智能相關(guān)科技活動(dòng)除通過科技倫理(審查)委員會(huì)的科技審查以外,極有可能還需在復(fù)核專家組進(jìn)行倫理審查復(fù)核。
(四) 審查內(nèi)容
根據(jù)《科技倫理審查辦法》,針對(duì)所有需要依法進(jìn)行科技倫理審查的科技活動(dòng),科技倫理審查的具體內(nèi)容包括:
? 擬開展的科技活動(dòng)應(yīng)符合增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)、保持公開透明的科技倫理原則,參與科技活動(dòng)的科技人員資質(zhì)、研究基礎(chǔ)及設(shè)施條件等符合相關(guān)要求;
? 擬開展的科技活動(dòng)具有科學(xué)價(jià)值和社會(huì)價(jià)值,其研究目標(biāo)的實(shí)現(xiàn)對(duì)增進(jìn)人類福祉、實(shí)現(xiàn)社會(huì)可持續(xù)發(fā)展等具有積極作用。科技活動(dòng)的風(fēng)險(xiǎn)受益合理,倫理風(fēng)險(xiǎn)控制方案及應(yīng)急預(yù)案科學(xué)恰當(dāng)、具有可操作性;
? 所制定的利益沖突申明和管理方案合理。
針對(duì)利用人類生物樣本、個(gè)人信息數(shù)據(jù)等的科技活動(dòng)在內(nèi)的涉及以人作為研究參與者的科技活動(dòng),還需審查下述內(nèi)容:
? 所制定的招募方案公平合理,生物樣本的收集、儲(chǔ)存、使用及處置合法合規(guī),個(gè)人隱私數(shù)據(jù)、生物特征信息等信息處理符合個(gè)人信息保護(hù)的有關(guān)規(guī)定,對(duì)研究參與者的補(bǔ)償、損傷治療或賠償?shù)群戏?quán)益的保障方案合理,對(duì)脆弱人群給予特殊保護(hù);
? 所提供的知情同意書內(nèi)容完整、風(fēng)險(xiǎn)告知客觀充分、表述清晰易懂,獲取個(gè)人知情同意的方式和過程合規(guī)恰當(dāng)。
針對(duì)涉及數(shù)據(jù)和算法的科技活動(dòng),還需審查下述內(nèi)容:
? 數(shù)據(jù)的收集、存儲(chǔ)、加工、使用等處理活動(dòng)以及研究開發(fā)數(shù)據(jù)新技術(shù)等符合國家數(shù)據(jù)安全和個(gè)人信息保護(hù)等有關(guān)規(guī)定,數(shù)據(jù)安全風(fēng)險(xiǎn)監(jiān)測及應(yīng)急處理方案得當(dāng);
? 算法、模型和系統(tǒng)的設(shè)計(jì)、實(shí)現(xiàn)、應(yīng)用等遵守公平、公正、透明、可靠、可控等原則,符合國家有關(guān)要求,倫理風(fēng)險(xiǎn)評(píng)估審核和應(yīng)急處置方案合理,用戶權(quán)益保護(hù)措施全面得當(dāng)。
四、 國內(nèi)大模型服務(wù)提供者的AI倫理治理責(zé)任
如我們?cè)?/span>《大模型合規(guī)之現(xiàn)實(shí)初探》一文中所述,向境內(nèi)公眾提供大模型服務(wù)的大模型服務(wù)提供者,包括平臺(tái)運(yùn)營方和技術(shù)支持方,均屬于生成式人工智能服務(wù)提供者,從而均應(yīng)當(dāng)承擔(dān)相應(yīng)的AI倫理治理責(zé)任,具體而言:
在程序?qū)用妫凇犊萍紓惱韺彶檗k法》正式生效以后,如大模型服務(wù)提供者涉及開展《科技倫理審查辦法》適用范圍內(nèi)的科技活動(dòng),需自行設(shè)立科技倫理(審查)委員會(huì)或委托其他單位的科技倫理(審查)委員會(huì)對(duì)于所涉科技活動(dòng)進(jìn)行科技倫理審查,如涉及“具有輿論社會(huì)動(dòng)員能力和社會(huì)意識(shí)引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā)”、“面向存在安全、人身健康風(fēng)險(xiǎn)等場景的具有高度自主能力的自動(dòng)化決策系統(tǒng)的研發(fā)”,還需報(bào)請(qǐng)所在地方或相關(guān)行業(yè)主管部門組織開展專家復(fù)核,亦即,科技倫理審查將成為算法備案以及安全評(píng)估以外大模型服務(wù)上線前的另一前置程序。
在實(shí)體層面,目前尚未出臺(tái)法律法規(guī)對(duì)于不同類型的大模型服務(wù)提供者的AI倫理治理細(xì)則予以規(guī)定,盡管如此,一方面,如前文所述,目前《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》、《生成式人工智能服務(wù)管理暫行辦法》均要求大模型服務(wù)提供者履行倫理治理方面的合規(guī)義務(wù);另一方面,與AI倫理治理相關(guān)的國家標(biāo)準(zhǔn)、團(tuán)體標(biāo)準(zhǔn)以及行業(yè)標(biāo)準(zhǔn)均在制定過程中,其發(fā)布和施行指日可待。因此,大模型服務(wù)提供者可以參照前述《新一代人工智能倫理規(guī)范》等行業(yè)標(biāo)準(zhǔn),按照技術(shù)主體(即從事人工智能相關(guān)的科學(xué)研究、技術(shù)開發(fā)、產(chǎn)品研制等研發(fā)活動(dòng)的主體)、應(yīng)用主體(即從事人工智能產(chǎn)品與服務(wù)相關(guān)的生產(chǎn)、運(yùn)營、銷售等人工供應(yīng)活動(dòng)和使用活動(dòng))進(jìn)行自我定位,明確自身的AI倫理治理責(zé)任。
結(jié)語
人工智能技術(shù)的大幅進(jìn)步提高了生產(chǎn)效率,為人類進(jìn)行創(chuàng)造性智力活動(dòng)提供了更加便捷的環(huán)境,同時(shí),人工智能也對(duì)人類社會(huì)的倫理道德造成了挑戰(zhàn)。《科技倫理審查辦法》的頒布,標(biāo)志著我國對(duì)人工智能技術(shù)的監(jiān)管將逐步走向規(guī)范化,我們將持續(xù)在AI倫理審查和治理等諸多方面助力人工智能領(lǐng)域的企業(yè)向以人為本的人工智能時(shí)代邁進(jìn)。
[1] 《科技倫理審查辦法》第二十八條規(guī)定,地方或相關(guān)行業(yè)主管部門組織成立復(fù)核專家組,由科技活動(dòng)相關(guān)領(lǐng)域具有較高學(xué)術(shù)水平的同行專家以及倫理學(xué)、法學(xué)等方面的專家組成,不少于5人。科技倫理(審查)委員會(huì)委員不得參與本委員會(huì)審查科技活動(dòng)的復(fù)核工作。復(fù)核專家應(yīng)主動(dòng)申明是否與復(fù)核事項(xiàng)存在直接利益關(guān)系,嚴(yán)格遵守保密規(guī)定和回避要求。
中國律師身份核驗(yàn)登錄





滬公網(wǎng)安備 31010402007129號(hào)