制定背景,主要宗旨,編寫過程,全文,序言,一、 適用範圍,二、宗旨和目標,三、價值觀和原則,四、政策行動領域,五、監測和評估,六、本建議書的使用和推廣,七、本建議書的宣傳,八、最後條款,內容解讀,
制定背景
行業的自我調整不足以避免倫理問題,這就是為什麼需要《人工智慧倫理問題建議書》來提供工具,以確保人工智慧的發展遵紀守法、避免傷害,並確保當傷害發生時,受害者可以通過問責制和補救機制來維護自身權益。
主要宗旨
促進人工智慧為人類、社會、環境以及生態系統服務,並預防其潛在風險。《建議書》包含規範人工智慧發展應遵循的原則以及在原則指導下人工智慧套用的領域。
編寫過程
2018年春季正式立項。
在2019年11月舉辦的聯合國教科文組織第40屆大會作出決定後,教科文組織開始了為期兩年的工作,以建議書的形式擬定這份關於人工智慧倫理的首個全球標準制定文書。
2020年,重點是在特設專家組(AHEG)的協助下編寫建議書的文本草案。這一階段包括與廣泛的利益攸關方進行包容性和多學科的磋商。這些廣泛的磋商對於確保文本儘可能地具有包容性極為重要。
在2020年底和2021年,重點是政府間進程和文本草案的談判,以產生《人工智慧倫理問題建議書》的最終版本,供2021年底教科文組織大會第41屆會議通過。
2021年11月獲得全部會員國通過。
2023年11月24日,聯合國教科文組織在法國巴黎發布了《人工智慧倫理建議書》。
全文
序言
聯合國教育、科學及文化組織(教科文組織)大會於 2021年11月9日至24日在巴黎召開第四十一屆會議,
認識到人工智慧(AI)從正負兩方面對社會、環境、生態系統和人類生活包括人類思想具有深刻而動態的影響,部分原因在於人工智慧的使用以新的方式影響著人類的思維、互動和決策,並且波及到教育、人文科學、社會科學和自然科學、文化、傳播和信息,
憶及教科文組織根據《組織法》,力求通過教育、科學、文化以及傳播和信息促進各國間之合作,對和平與安全作出貢獻,以增進對正義、法治及所確認之世界人民均享人權與基本自由之普遍尊重,
深信在此提出的建議書,作為以國際法為依據、採用全球方法制定且注重人的尊嚴和人權以及性別平等、社會和經濟正義與發展、身心健康、多樣性、互聯性、包容性、環境和生態系統保護的準則性文書,可以引導人工智慧技術向著負責任的方向發展,
考慮到人工智慧技術可以對人類大有助益並惠及所有國家,但也會引發根本性的倫理關切,例如:人工智慧技術可能內嵌並加劇偏見,可能導致歧視、不平等、數字鴻溝和排斥,並對文化、社會和生物多樣性構成威脅,造成社會或經濟鴻溝;算法的工作方式和算法訓練數據應具有透明度和可理解性;人工智慧技術對於多方面的潛在影響,包括但不限於人的尊嚴、人權和基本自由、性別平等、民主、社會、經濟、政治和文化進程、科學和工程實踐、動物福利以及環境和生態系統,
又認識到人工智慧技術會加深世界各地國家內部和國家之間現有的鴻溝和不平等,必須維護正義、信任和公平,以便在公平獲取人工智慧技術、享受這些技術帶來的惠益和避免受其負面影響方面不讓任何國家和任何人掉隊,同時認識到各國國情不同,並尊重一部分人不參與所有技術發展的意願,
意識到所有國家都正值信息和通信技術及人工智慧技術使用的加速期,對於媒體與信息素養的需求日益增長,且數字經濟帶來了重大的社會、經濟和環境挑戰以及惠益共享的機會,對於中低收入國家(LMIC)——包括但不限於最不已開發國家(
LDC)、內陸開發中國家(LLDC)和小島嶼開發中國家(SIDS)而言尤為如此,需要承認、保護和促進本土文化、價值觀和知識,以發展可持續的數字經濟,
還認識到人工智慧技術具備有益於環境和生態系統的潛能,要實現這些惠益,不應忽視而是要去應對其對環境和生態系統的潛在危害和負面影響,
注意到應對風險和倫理關切的努力不應妨礙創新和發展,而是應提供新的機會,激勵合乎倫理的研究和創新,使人工智慧技術立足於人權和基本自由、價值觀和原則以及關於道義和倫理的思考,
又憶及教科文組織大會在 2019 年 11 月第四十屆會議上通過了第 40 C/37 號決議,授權總幹事“以建議書的形式編制一份關於人工智慧倫理問題的國際準則性文書”,提交 2021 年大會第四十一屆會議,
認識到人工智慧技術的發展需要相應提高數據、媒體與信息素養,並增加獲取獨立、多元、可信信息來源的機會,包括努力減少錯誤信息、虛假信息和仇恨言論的風險以及濫用個人數據造成的傷害,
認為關於人工智慧技術及其社會影響的規範框架應建立在共識和共同目標的基礎上,以國際和國家法律框架、人權和基本自由、倫理、獲取數據、信息和知識的需求、研究和創新自由、人類福祉、環境和生態系統福祉為依據,將倫理價值觀和原則與同人工智慧技術有關的挑戰和機遇聯繫起來,
又認識到倫理價值觀和原則可以通過發揮指引作用,幫助制定和實施基於權利的政策措施和法律規範,以期加快技術發展步伐,
又深信全球公認的、充分尊重國際法特別是人權法的人工智慧技術倫理標準可以在世界各地制定人工智慧相關規範方面起到關鍵作用,
銘記《世界人權宣言》(1948 年);國際人權框架文書,包括《關於難民地位的公約》(1951 年)、《就業和職業歧視公約》(1958 年)、《
消除一切形式種族歧視國際公約》(1965 年)、《公民及政治權利國際公約》(1966 年)、《經濟社會文化權利國際公約》(1966 年)、《消除對婦女一切形式歧視公約》(1979 年)、《
兒童權利公約》(1989 年)和《殘疾人權利公約》(2006 年);《反對教育歧視公約》(1960 年);《保護和促進文化表現形式多樣性公約》(2005 年);以及其他一切相關國際文書、建議書和宣言,又注意到《聯合國發展權利宣言》(1986 年);《當代人對後代人的責任宣言》(1997年);《
世界生物倫理與人權宣言》(2005 年);《聯合國土著人民權利宣言》(2007年);2014年聯合國大會關於信息社會世界峰會審查的決議(A/RES/70/125)(2015年);聯合國大會關於“變革我們的世界:2030 年可持續發展議程”的決議(A/RES/70/1)(2015年);《關於保存和獲取包括數字遺產在內的文獻遺產的建議書》(2015 年);《與氣候變化有關的倫理原則宣言》(2017 年);《關於科學和科學研究人員的建議書》(2017 年);網際網路普遍性指標(2018年獲得教科文組織國際傳播發展計畫認可),包括立足人權、開放、人人可及和多利益攸關方參與原則(2015 年獲得教科文組織大會認可);人權理事會關於“數字時代的隱私權”的決議(A/HRC/RES/42/15)(2019 年);以及人權理事會關於“新興數位技術與人權”的決議(A/HRC/RES/41/11)(2019 年),
強調必須特別關注中低收入國家,包括但不限於最不已開發國家、內陸開發中國家和小島嶼開發中國家,這些國家具備能力,但在人工智慧倫理問題辯論中的代表性不足,由此引發了對於地方知識、文化多元化、價值體系以及應對人工智慧技術的正負兩方面影響需要實現全球公平的要求受到忽視的關切,
又意識到在人工智慧技術的倫理和監管方面,目前存在許多國家政策以及由聯合國相關實體、政府間組織(包括地區組織)和由私營部門、專業組織、非政府組織和科學界制定的其他框架和倡議,
還深信人工智慧技術可以帶來重大惠益,但實現這些惠益也會加劇圍繞創新產生的矛盾衝突、知識和技術獲取不對稱(包括使公眾參與人工智慧相關議題的能力受限的數字和公民素養赤字)以及信息獲取障礙、能力亦即人員和機構能力差距、技術創新獲取障礙、缺乏適當的實體和數字基礎設施以及監管框架(包括與數據有關的基礎設施和監管框架)的問題,所有這些問題都需要解決,
強調需要加強全球合作與團結,包括通過多邊主義,以促進公平獲取人工智慧技術,應對人工智慧技術給文化和倫理體系的多樣性和互聯性帶來的挑戰,減少可能的濫用,充分發揮人工智慧可能給各個領域特別是發展領域帶來的潛能,確保各國人工智慧戰略以倫理原則為指導,
充分考慮到人工智慧技術的快速發展對以合乎倫理的方式套用和治理人工智慧技術以及對尊重和保護文化多樣性提出了挑戰,並有可能擾亂地方和地區的倫理標準和價值觀,
1. 通過本人工智慧倫理問題建議書;
2. 建議會員國在自願基礎上適用本建議書的各項規定,特別是根據各自國家的憲法實踐和治理結構採取適當步驟,包括必要的立法或其他措施,依照包括國際人權法在內的國際法,使建議書的原則和規範在本國管轄範圍內生效;
3. 又建議會員國動員包括工商企業在內的所有利益攸關方,確保他們在實施本建議書方面發揮各自的作用;並提請涉及人工智慧技術的管理部門、機構、研究和學術組織、公共、私營和民間社會機構和組織注意本建議書,使人工智慧技術的開發和套用做到以健全的科學研究以及倫理分析和評估作為指導。
一、 適用範圍
1. 本建議書述及與人工智慧領域有關且屬於教科文組織職責範圍之內的倫理問題。建議書以能指導社會負責任地應對人工智慧技術對人類、社會、環境和生態系統產生的已知和未知影響並相互依存的價值觀、原則和行動構成的不斷發展的整體、全面和多元文化框架為基礎,將人工智慧倫理作為一種系統性規範考量,並為社會接受或拒絕人工智慧技術提供依據。
建議書將倫理視為對人工智慧技術進行規範性評估和指導的動態基礎,以人的尊嚴、福祉和防止損害為導向,並立足於科技倫理。
2. 本建議書無意對人工智慧作出唯一的定義,這種定義需要隨著技術的發展與時俱進。
建議書旨在探討人工智慧系統中具有核心倫理意義的特徵。因此,本建議書將人工智慧系統視為有能力以類似於智慧型行為的方式處理數據和信息的系統,通常包括推理、學習、感知、預測、規劃或控制等方面。這一方法有三個重要因素:
(a) 人工智慧系統是整合模型和算法的信息處理技術,這些模型和算法能夠生成學習和執行認知任務的能力,從而在物質環境和虛擬環境中實現預測和決策等結果。
在設計上,人工智慧系統藉助知識建模和知識表達,通過對數據的利用和對關聯性的計算,可以在不同程度上實現自主運行。人工智慧系統可以包含若干種方法,包括但不限於:
(i) 機器學習,包括深度學習和強化學習;
(ii) 機器推理,包括規劃、調度、知識表達和推理、搜尋和最佳化。
人工智慧系統可用於信息物理系統,包括物聯網、機器人系統、社交機器人和涉及控制、感知及處理感測器所收集數據的人機互動以及人工智慧系統工作環境中執行器的操作。
(b) 與人工智慧系統有關的倫理問題涉及人工智慧系統生命周期的各個階段,此處系指從研究、設計、開發到配置和使用等各階段,包括維護、運行、交易、融資、監測和評估、驗證、使用終止、拆卸和終結。此外,人工智慧行為者可以定義為在人工智慧系統生命周期內至少參與一個階段的任何行為者,可指自然人和法人,例如研究人員、程式設計師、工程師、數據科學家、終端用戶、工商企業、大學和公私實體等。
(c) 人工智慧系統引發了新型倫理問題,包括但不限於其對決策、就業和勞動、社交、衛生保健、教育、媒體、信息獲取、數字鴻溝、個人數據和消費者保護、環境、民主、法治、安全和治安、雙重用途、人權和基本自由(包括表達自由、隱私和非歧視)的影響。此外,人工智慧算法可能複製和加深現有的偏見,從而加劇已有的各種形式歧視、偏見和成見,由此產生新的倫理挑戰。其中一些問題與人工智慧系統能夠完成此前只有生物才能完成、甚至在有些情況下只有人類才能完成的任務有關。這些特點使得人工智慧系統在人類實踐和社會中以及在與環境和生態系統的關係中,可以起到意義深遠的新作用,為兒童和青年的成長、培養對於世界和自身的認識、批判性地認識媒體和信息以及學會作出決定創造了新的環境。
從長遠看,人工智慧系統可能挑戰人類特有的對於經驗和能動作用的感知,在人類的自我認知、社會、文化和環境的互動、自主性、能動性、價值和尊嚴等方面引發更多關切。
3. 秉承教科文組織世界科學知識與技術倫理委員會(COMEST)在 2019 年《人工智慧倫理問題初步研究》中的分析,本建議書特別關注人工智慧系統與教育、科學、文化、傳播和信息等教科文組織核心領域有關的廣泛倫理影響:
(a) 教育,這是因為鑑於對勞動力市場、就業能力和公民參與的影響,生活在數位化社會需要新的教育實踐、倫理反思、批判性思維、負責任的設計實踐和新的技能。
(b) 科學,系指最廣泛意義上的科學,包括從自然科學、醫學到社會科學和人文科學等所有學術領域,這是由於人工智慧技術帶來了新的研究能力和方法,影響到我們關於科學認識和解釋的觀念,為決策創建了新的基礎。
(c) 文化特性和多樣性,這是由於人工智慧技術可以豐富文化和創意產業,但也會導致文化內容的供應、數據、市場和收入更多地集中在少數行為者手中,可能對語言、媒體、文化表現形式、參與和平等的多樣性和多元化產生負面影響。
(d) 傳播和信息,這是由於人工智慧技術在處理、組織和提供信息方面起到日益重要的作用;很多現象引發了與信息獲取、虛假信息、錯誤信息、仇恨言論、新型社會敘事興起、歧視、表達自由、隱私、媒體與信息素養等有關的問題,自動化新聞、通過算法提供新聞、對社交媒體和搜尋引擎上的內容進行審核和策管只是其中幾個實例。
4. 本建議書面向會員國,會員國既是人工智慧行為者,又是負責制定人工智慧系統整個生命周期的法律和監管框架並促進企業責任的管理部門。此外,建議書為貫穿人工智慧系統生命周期的倫理影響評估奠定了基礎,從而為包括公共和私營部門在內的所有人工智慧行為者提供倫理指南。
二、宗旨和目標
5. 本建議書旨在提供基礎,讓人工智慧系統可以造福人類、個人、社會、環境和生態系統,同時防止危害。它還旨在促進和平利用人工智慧系統。
6. 本建議書的目的是在全球現有人工智慧倫理框架之外,再提供一部全球公認的規範性文書,不僅注重闡明價值觀和原則,而且著力於通過具體的政策建議切實落實這些價值觀和原則,同時著重強調包容、性別平等以及環境和生態系統保護等問題。
7. 由於與人工智慧有關的倫理問題十分複雜,需要國際、地區和國家各個層面和各個部門的眾多利益攸關方開展合作,故而本建議書的宗旨是讓利益攸關方能夠在全球和文化間對話的基礎上共同承擔責任。
8. 本建議書的目標如下:
(a) 依照國際法,提供一個由價值觀、原則和行動構成的普遍框架,指導各國制定與人工智慧有關的立法、政策或其他文書;
(b) 指導個人、團體、社群、機構和私營公司的行動,確保將倫理規範嵌入人工智慧系統生命周期的各個階段;
(c) 在人工智慧系統生命周期的各個階段保護、促進和尊重人權和基本自由、人的尊嚴和平等,包括性別平等;保障當代和後代的利益;保護環境、生物多樣性和生態系統;尊重文化多樣性;
(d) 推動多利益攸關方、多學科和多元化對話和建立共識,討論與人工智慧系統有關的倫理問題;
(e) 促進對人工智慧領域進步和知識的公平獲取以及惠益共享,特別關注包括最不已開發國家、內陸開發中國家和小島嶼開發中國家在內的中低收入國家的需求和貢獻。
三、價值觀和原則
9. 首先,人工智慧系統生命周期的所有行為者都應尊重下文所載的價值觀和原則,並在必要和適當的情況下,通過修訂現行的和制定新的法律、法規和業務準則來促進這些價值觀和原則。這必須遵守國際法,包括《聯合國憲章》和會員國的人權義務,並應符合國際商定的社會、政治、環境、教育、科學和經濟可持續性目標,例如聯合國可持續發展目標(SDG)。
10. 價值觀作為催人奮進的理想,在制定政策措施和法律規範方面發揮著強大作用。下文概述的一系列價值觀可以激發理想的行為並是確立原則的基礎,而原則更為具體地闡述作為其根本的價值觀,以便更易於在政策聲明和行動中落實這些價值觀。
11. 下文概述的所有價值觀和原則本身都是可取的,但在任何實際情況下這些價值觀和原則之間都可能會有矛盾。在特定情況下,需要根據具體情況進行評估以管控潛在的矛盾,同時考慮到相稱性原則並尊重人權和基本自由。在所有情況下,可能對人權和基本自由施加的任何限制均必須具有合法基礎,而且必須合理、必要和相稱,符合各國依據國際法所承擔的義務。要做到明智而審慎地處理這些情況,通常需要與廣泛的相關利益攸關方合作,同時利用社會對話以及倫理審議、盡職調查和影響評估。
12. 人工智慧系統生命周期的可信度和完整性對於確保人工智慧技術造福人類、個人、社會、環境和生態系統並且體現出本建議書提出的價值觀和原則至關重要。在採取適當措施降低風險時,人們應有充分理由相信人工智慧系統能夠帶來個人利益和共享利益。具有可信度的一個基本必要條件是,人工智慧系統在整個生命周期內都受到相關利益攸關方適當的全面監測。由於可信度是本檔案所載各項原則得到落實的結果,本建議書提出的政策行動建議均旨在提升人工智慧系統生命周期各個階段的可信度。
3.1 價值觀
【尊重、保護和促進人權和基本自由以及人的尊嚴】
13. 每個人與生俱來且不可侵犯的尊嚴構成了人權和基本自由這一普遍、不可分割、不可剝奪、相互依存又彼此相關的體系的基礎。因此,尊重、保護和促進包括國際人權法在內的國際法確立的人的尊嚴和權利,在人工智慧系統的整個生命周期內都至關重要。人的尊嚴系指承認每個人固有和平等的價值,無論種族、膚色、血統、性別、年齡、語言、宗教、政治見解、民族、族裔、社會出身、與生俱來的經濟或社會條件、殘障情況或其他狀況如何。
14. 在人工智慧系統生命周期的任何階段,任何人或人類社群在身體、經濟、社會、政治、文化或精神等任何方面,都不應受到損害或被迫居於從屬地位。在人工智慧系統的整個生命周期內,人類生活質量都應得到改善,而“生活質量”的定義只要不侵犯或踐踏人權和基本自由或人的尊嚴,應由個人或群體來決定。
15. 在人工智慧系統的整個生命周期內,人會與人工智慧系統展開互動,接受這些系統提供的幫助,例如照顧弱勢者或處境脆弱群體,包括但不限於兒童、老年人、殘障人士或病人。
在這一互動過程中絕不應將人物化,不應以其他方式損害人的尊嚴,也不應侵犯或踐踏人權和基本自由。
16. 在人工智慧系統的整個生命周期內,必須尊重、保護和促進人權和基本自由。各國政府、私營部門、民間社會、國際組織、技術界和學術界在介入與人工智慧系統生命周期有關的進程時,必須尊重人權文書和框架。新技術應為倡導、捍衛和行使人權提供新手段,而不是侵犯人權。
【環境和生態系統蓬勃發展】
17. 應在人工智慧系統的整個生命周期內確認、保護和促進環境和生態系統的蓬勃發展。
此外,環境和生態系統是關乎人類和其他生物能否享受人工智慧進步所帶來惠益的必要條件。
18. 參與人工智慧系統生命周期的所有行為者都必須遵守適用的國際法以及國內立法、標準和慣例,例如旨在保護和恢復環境和生態系統以及促進可持續發展的預防措施。這些行為者應減少人工智慧系統對環境的影響,包括但不限於碳足跡,以確保將氣候變化和環境風險因素降到最低,防止會加劇環境惡化和生態系統退化的對自然資源的不可持續開採、使用和轉化。
【確保多樣性和包容性】
19. 在人工智慧系統的整個生命周期內,應依照包括人權法在內的國際法,確保尊重、保護和促進多樣性和包容性。為此,可以促進所有個人或群體的積極參與,無論種族、膚色、血統、性別、年齡、語言、宗教、政治見解、民族、族裔、社會出身、與生俱來的經濟或社會條件、殘障情況或其他狀況如何。
20. 對於生活方式的選擇範圍、信仰、意見、表達形式或個人經驗,包括對於人工智慧系統的任選使用以及這些架構的共同設計,在人工智慧系統生命周期的任何階段都不應受到限制。
21. 此外,應作出努力,包括開展國際合作,以克服並絕不利用影響到社區的缺乏必要技術基礎設施、教育和技能以及法律框架的情況,特別是在中低收入國家、最不已開發國家、內陸開發中國家和小島嶼開發中國家中。
【生活在和平、公正與互聯的社會中】
22. 人工智慧行為者應為確保建設和平與公正的社會發揮參與和促進作用,這種社會的根基是惠及全民、符合人權和基本自由的相互關聯的未來。在和平與公正的社會中生活的價值觀表明,人工智慧系統在整個生命周期內都有可能為所有生物之間及其與自然環境之間的相互關聯作出貢獻。
23. 人與人之間相互聯繫的概念是基於這樣一種認識,即每個人都屬於一個更大的整體,當這個整體中的組成部分都能夠繁榮興旺時,整體才會蒸蒸日上。在和平、公正與互聯的社會中生活,需要一種有機、直接、出自本能的團結紐帶,其特點是不懈地尋求和平關係,傾向於在最廣泛的意義上關愛他人和自然環境。
24. 這一價值觀要求在人工智慧系統的整個生命周期內促進和平、包容與正義、公平和相互聯繫,人工智慧系統生命周期的各種進程不得隔離或物化人類和社區或者削弱其自由、自主決策和安全,不得分裂個人和群體或使之相互對立,也不得威脅人類、其他生物和自然環境之間的共存。
3.2 原則
【相稱性和不損害】
25. 應該認識到,人工智慧技術本身並不一定能確保人類、環境和生態系統蓬勃發展。況且,與人工智慧系統生命周期有關的任何進程都不得超出實現合法目的或目標所需的範圍,並應切合具體情況。在有可能對人類、人權和基本自由、個別社區和整個社會,或者對環境和生態系統造成損害時,應確保落實風險評估程式並採取措施,以防止發生此類損害。
26. 應從以下方面證明選擇使用人工智慧系統和選用哪種人工智慧方法的合理性:(a)所選擇的人工智慧方法對於實現特定合法目標應該是適當的和相稱的;(b)所選擇的人工智慧方法不得違背本檔案提出的基本價值觀,特別是其使用不得侵犯或踐踏人權;(c)人工智慧方法應切合具體情況,並應建立在嚴謹的科學基礎上。在所涉決定具有不可逆轉或難以逆轉的影響或者在涉及生死抉擇的情況下,應由人類作出最終決定。人工智慧系統尤其不得用於社會評分或大規模監控目的。
【安全和安保】
27. 在人工智慧系統的整個生命周期內,應避免並解決、預防和消除意外傷害(安全風險)以及易受攻擊的脆弱性(安保風險),確保人類、環境和生態系統的安全和安保。開發可持續和保護隱私的數據獲取框架,促進利用優質數據更好地訓練和驗證人工智慧模型,便可以實現有安全和安保保障的人工智慧。
【公平和非歧視】
28. 人工智慧行為者應根據國際法,促進社會正義並保障一切形式的公平和非歧視。這意味著要採用包容性辦法確保人工智慧技術的惠益人人可得可及,同時又考慮到不同年齡組、文化體系、不同語言群體、殘障人士、女童和婦女以及處境不利、邊緣化和弱勢群體或處境脆弱群體的具體需求。會員國應努力讓包括地方社區在內的所有人都能夠獲取提供本地相關內容和服務且尊重多語言使用和文化多樣性的人工智慧系統。會員國應努力消除數字鴻溝,並確保對人工智慧發展的包容性獲取和參與。在國家層面,會員國應努力在人工智慧系統生命周期的準入和參與問題上促進城鄉之間的公平,以及所有人之間的公平,無論種族、膚色、血統、性別、年齡、語言、宗教、政治見解、民族、族裔、社會出身、與生俱來的經濟或社會條件、殘障情況或其他狀況如何。在國際層面,技術最先進的國家有責任支持最落後的國家,確保共享人工智慧技術的惠益,使得後者能夠進入和參與人工智慧系統生命周期,從而推動建設一個在信息、傳播、文化、教育、研究、社會經濟和政治穩定方面更加公平的世界秩序。
29. 人工智慧行為者應盡一切合理努力,在人工智慧系統的整個生命周期內儘量減少和避免強化或固化帶有歧視性或偏見的應用程式和結果,確保人工智慧系統的公平。對於帶有歧視性和偏見的算法決定,應提供有效的補救辦法。
30. 此外,在人工智慧系統的整個生命周期內,需要解決國家內部和國家之間的數字和知識鴻溝,包括根據相關的國家、地區和國際法律框架解決技術和數據獲取及獲取質量方面的鴻溝,以及在連線性、知識和技能以及受影響社區的切實參與方面的鴻溝,以便讓每個人都得到公平待遇。
【可持續性】
31. 可持續社會的發展,有賴於在人類、社會、文化、經濟和環境等方面實現一系列複雜的目標。人工智慧技術的出現可能有利於可持續性目標,但也可能阻礙這些目標的實現,這取決於處在不同發展水平的國家如何套用人工智慧技術。因此,在就人工智慧技術對人類、社會、文化、經濟和環境的影響開展持續評估時,應充分考慮到人工智慧技術對於作為一套涉及多方面的動態目標(例如聯合國可持續發展目標中認定的目標)的可持續性的影響。
【隱私權和數據保護】
32. 隱私權對於保護人的尊嚴、自主權和能動性不可或缺,在人工智慧系統的整個生命周期內必須予以尊重、保護和促進。重要的是,人工智慧系統所用數據的收集、使用、共享、歸檔和刪除方式,必須符合國際法,契合本建議書提出的價值觀和原則,同時遵守相關的國家、地區和國際法律框架。
33. 應在國家或國際層面採用多利益攸關方辦法,建立適當的數據保護框架和治理機制,將其置於司法系統保護之下,並在人工智慧系統的整個生命周期內予以保障。數據保護框架和任何相關機制應參鑒有關收集、使用和披露個人數據以及數據主體行使其權利的國際數據保護原則和標準,同時確保對個人數據的處理具有合法的目的和有效的法律依據,包括取得知情同意。
34. 需要對算法系統開展充分的隱私影響評估,其中包括使用算法系統的社會和倫理考量以及通過設計方法對於隱私的創新使用。人工智慧行為者需要確保他們對人工智慧系統的設計和實施負責,以確保個人信息在人工智慧系統的整個生命周期內受到保護。
【人類的監督和決定】
35. 會員國應確保始終有可能將人工智慧系統生命周期的任何階段以及與人工智慧系統有關的補救措施的倫理和法律責任歸屬於自然人或現有法人實體。因此,人類監督不僅指個人監督,在適當情況下也指範圍廣泛的公共監督。
36. 在某些情況下,出於效率性的考慮,人類有時選擇依賴人工智慧系統,但是否在有限情形下出讓控制權依然要由人類來決定,這是由於人類在決策和行動上可以藉助人工智慧系統,但人工智慧系統永遠無法取代人類的最終責任和問責。一般而言,生死攸關的決定不應讓給人工智慧系統來作。
【透明度和可解釋性】
37. 人工智慧系統的透明度和可解釋性往往是確保人權、基本自由和倫理原則得到尊重、保護和促進的必要先決條件。透明度是相關國家和國際責任制度有效運作的必要因素。缺乏透明度還可能削弱對根據人工智慧系統產生的結果所作決定提出有效質疑的可能性,進而可能侵犯獲得公平審判和有效補救的權利,並限制這些系統的合法使用領域。
38. 在人工智慧系統的整個生命周期內都需要努力提高人工智慧系統(包括那些具有域外影響的系統)的透明度和可解釋性,以支持民主治理,但透明度和可解釋性的程度應始終切合具體情況並與其影響相當,因為可能需要在透明度和可解釋性與隱私、安全和安保等其他原則之間取得平衡。在所涉決定系參考或依據人工智慧算法作出的情況下,包括在所涉決定關乎民眾安全和人權的情況下,民眾應該被充分告知,並且在此類情況下有機會請求相關人工智慧行為者或公共機構提供解釋性信息。此外,對於影響其權利和自由的決定,個人應能夠了解據以作出該決定的理由,並可以選擇向能夠審查和糾正該決定的私營公司或公共機構指定工作人員提出意見。對於由人工智慧系統直接提供或協助提供的產品或服務,人工智慧行為者應以適當和及時的方式告知用戶。
39. 從社會—技術角度來看,提高透明度有助於建設更加和平、公正、民主和包容的社會。提高透明度有利於開展公眾監督,這可以減少腐敗和歧視,還有助於發現和防止對人權產生的負面影響。透明度的目的是為相關對象提供適當的信息,以便他們理解和增進信任。具體到人工智慧系統,透明度可以幫助人們了解人工智慧系統各個階段是如何按照該系統的具體環境和敏感度設定的。透明度還包括深入了解可以影響特定預測或決定的因素,以及了解是否具備適當的保證(例如安全或公平措施)。在存在會對人權產生不利影響的嚴重威脅的情況下,透明度要求可能還包括共享代碼或數據集。
40. 可解釋性是指讓人工智慧系統的結果可以理解,並提供闡釋說明。人工智慧系統的可解釋性也指各個算法模組的輸入、輸出和性能的可解釋性及其如何促成系統結果。因此,可解釋性與透明度密切相關,結果和導致結果的子過程應以可理解和可追溯為目標,並且應切合具體情況。人工智慧行為者應致力於確保開發出的算法是可以解釋的。就對終端用戶所產生的影響不是暫時的、容易逆轉的或低風險的人工智慧應用程式而言,應確保對導致所採取行動的任何決定作出有意義的解釋,以便使這一結果被認為是透明的。
41. 透明度和可解釋性與適當的責任和問責措施以及人工智慧系統的可信度密切相關。
【責任和問責】
42. 人工智慧行為者和會員國應根據國家法律和國際法,特別是會員國的人權義務,以及人工智慧系統整個生命周期的倫理準則,包括在涉及其有效疆域和實際控制範圍內的人工智慧行為者方面,尊重、保護和促進人權和基本自由,並且還應促進對環境和生態系統的保護,同時承擔各自的倫理和法律責任。以任何方式基於人工智慧系統作出的決定和行動,其倫理責任和義務最終都應由人工智慧行為者根據其在人工智慧系統生命周期中的作用來承擔。
43. 應建立適當的監督、影響評估、審計和盡職調查機制,包括保護舉報者,確保在人工智慧系統的整個生命周期內對人工智慧系統及其影響實施問責。技術和體制方面的設計都應確保人工智慧系統(的運行)可審計和可追溯,特別是要應對與人權規範和標準之間的衝突以及對環境和生態系統福祉的威脅。
【認識和素養】
44. 應通過由政府、政府間組織、民間社會、學術界、媒體、社區領袖和私營部門共同領導並顧及現有的語言、社會和文化多樣性的開放且可獲取的教育、公民參與、數字技能和人工智慧倫理問題培訓、媒體與信息素養及培訓,促進公眾對於人工智慧技術和數據價值的認識和理解,確保公眾的有效參與,讓所有社會成員都能夠就使用人工智慧系統作出知情決定,避免受到不當影響。
45. 了解人工智慧系統的影響,應包括了解、藉助以及促進人權和基本自由。這意味著在接觸和理解人工智慧系統之前,應首先了解人工智慧系統對人權和權利獲取的影響,以及對環境和生態系統的影響。
46. 對數據的使用必須尊重國際法和國家主權。這意味著各國可根據國際法,對在其境內生成或經過其國境的數據進行監管,並採取措施,力爭在依照國際法尊重隱私權以及其他人權規範和標準的基礎上對數據進行有效監管,包括數據保護。
47. 不同利益攸關方對人工智慧系統整個生命周期的參與,是採取包容性辦法開展人工智慧治理、使惠益能夠為所有人共享以及推動可持續發展的必要因素。利益攸關方包括但不限於政府、政府間組織、技術界、民間社會、研究人員和學術界、媒體、教育、政策制定者、私營公司、人權機構和平等機構、反歧視監測機構以及青年和兒童團體。應採用開放標準和互操作性原則,以促進協作。應採取措施,兼顧技術的變化和新利益攸關方群體的出現,並便於邊緣化群體、社區和個人切實參與,同時酌情尊重土著人民對其數據的自我管理。
四、政策行動領域
48. 以下政策領域所述的政策行動是對本建議書提出的價值觀和原則的具體落實。主要行動是會員國出台有效措施,包括政策框架或機制等,並通過開展多種行動,例如鼓勵所有利益攸關方根據包括聯合國《工商企業與人權指導原則》在內的準則制定人權、法治、民主以及倫理影響評估和盡職調查工具,確保私營公司、學術和研究機構以及民間社會等其他利益攸關方遵守這些框架或機制。此類政策或機制的制定過程應包括所有利益攸關方並應考慮到各會員國的具體情況和優先事項。教科文組織可以作為合作夥伴,支持會員國制定、監測和評估政策機制。
49. 教科文組織認識到,各會員國在科學、技術、經濟、教育、法律、規範、基礎設施、社會、文化和其他方面,處於實施本建議書的不同準備階段。需要指出的是,這裡的“準備”是一種動態。因此,為切實落實本建議書,教科文組織將:(1)制定準備狀態評估方法,協助有關會員國確定其準備進程各個方面在特定時刻的所處狀態;(2)確保支持有關會員國制定教科文組織人工智慧技術倫理影響評估(EIA)方法,分享最佳做法、評估準則、其他機制和分析工作。
【政策領域 1:倫理影響評估】
50. 會員國應出台影響評估(例如倫理影響評估)框架,以確定和評估人工智慧系統的惠益、關切和風險,並酌情出台預防、減輕和監測風險的措施以及其他保障機制。此種影響評估應根據本建議書提出的價值觀和原則,確定對人權和基本自由(特別是但不限於邊緣化和弱勢群體或處境脆弱群體的權利、勞工權利)、環境和生態系統產生的影響以及倫理和社會影響,並促進公民參與。
51. 會員國和私營公司應建立盡職調查和監督機制,以確定、防止和減輕人工智慧系統對尊重人權、法治和包容性社會產生的影響,並說明如何處理這些影響。會員國還應能夠評估人工智慧系統對貧困問題產生的社會經濟影響,確保人工智慧技術在未來的大規模套用不會加劇各國之間以及國內的貧富差距和數字鴻溝。為做到這一點,尤其應針對信息(包括私營實體掌握的涉及公共利益的信息)獲取,實行可強制執行的透明度協定。會員國、私營公司和民間社會應調查基於人工智慧的建議對人類決策自主權的社會學和心理學影響。對於經確認對人權構成潛在風險的人工智慧系統,在投放市場之前,人工智慧行為者應對其進行廣泛測試,包括必要時,作為倫理影響評估的一部分,在真實世界的條件下進行測試。
52. 會員國和工商企業應採取適當措施,監測人工智慧系統生命周期的各個階段,包括用於決策的算法的性能、數據以及參與這一過程的人工智慧行為者,特別是在公共服務領域和需要與終端用戶直接互動的領域,以配合開展倫理影響評估。人工智慧系統評估的倫理方面應包含會員國的人權法義務。
53. 各國政府應採用監管框架,其中特別針對公共管理部門提出人工智慧系統倫理影響評估程式,以預測後果,減少風險,避免有害後果,促進公民參與並應對社會挑戰。評估還應確立能夠對算法、數據和設計流程加以評估並包括對人工智慧系統的外部審查的適當監督機制,包括確定可審計性、可追溯性和可解釋性。倫理影響評估應透明,並酌情向公眾開放。
此類評估還應具備多學科、多利益攸關方、多文化、多元化和包容等特性。應要求公共管理部門引入適當的機制和工具,監測這些部門實施和/或部署的人工智慧系統。
【政策領域 2:倫理治理和管理】
54. 會員國應確保人工智慧治理機制具備包容性、透明性、多學科、多邊(包括跨界減輕損害和作出補救的可能性)和多利益攸關方等特性。特別是,治理應包括預測、有效保護、監測影響、執行和補救等方面。
55. 會員國應通過實施有力的執行機制和補救行動,確保調查並補救人工智慧系統造成的損害,從而確保人權和基本自由以及法治在數字世界與現實世界中同樣得到尊重。此類機制和行動應包括私營公司和公營公司提供的補救機制。為此,應提升人工智慧系統的可審計性和可追溯性。此外,會員國應加強履行這項承諾的機構能力,並應與研究人員和其他利益攸關方合作調查、防止並減少對於人工智慧系統的潛在惡意使用。
56. 鼓勵會員國根據套用領域的敏感程度、對人權、環境和生態系統的預期影響以及本建議書提出的其他倫理考量,制定國家和地區人工智慧戰略,並考慮多種形式的柔性治理,例如人工智慧系統認證機制和此類認證的相互承認。此類機制可以包括針對系統、數據以及倫理準則和倫理方面的程式要求的遵守情況開展不同層面的審計。另一方面,此類機制不得因行政負擔過重而妨礙創新,或者讓中小企業或初創企業、民間社會以及研究和科學組織處於不利地位。此類機制還應包括定期監測,在人工智慧系統的整個生命周期內確保系統的穩健性、持續完整性和遵守倫理準則,必要時可要求重新認證。
57. 會員國和公共管理部門應對現有和擬議的人工智慧系統進行透明的自我評估,其中尤其應包括對採用人工智慧是否適當進行評估,如果適當則應為確定適當的方法開展進一步評估,並評估採用這種方法是否會導致違反或濫用會員國的人權法義務,如果是則應禁止採用。
58. 會員國應鼓勵公共實體、私營公司和民間社會組織讓不同利益攸關方參與其人工智慧治理工作,並考慮增設獨立的人工智慧倫理幹事崗位或某種其他機制,負責監督倫理影響評估、審計和持續監測工作,確保對於人工智慧系統的倫理指導。鼓勵會員國、私營公司和民間社會組織在教科文組織的支持下,創設獨立的人工智慧倫理幹事網路,為國家、地區和國際層面的這一進程提供支持。
59. 會員國應促進數字生態系統的發展和獲取,以便在國家層面以合乎倫理和包容各方的方式發展人工智慧系統,包括消除在人工智慧系統生命周期準入方面的差距,同時推動國際合作。此類生態系統尤其包括數位技術和基礎設施,在適當情況下還包括人工智慧知識共享機制。
60. 會員國應與國際組織、跨國公司、學術機構和民間社會合作建立機制,確保所有會員國積極參與關於人工智慧治理的國際討論,特別是中低收入國家,尤其是最不已開發國家、內陸開發中國家和小島嶼開發中國家。可以通過提供資金、確保平等的地區參與或任何其他機制來實現這一目標。此外,為確保人工智慧論壇的包容性,會員國應為人工智慧行為者的出入境提供便利,特別是中低收入國家,尤其是最不已開發國家、內陸開發中國家和小島嶼開發中國家的行為者,以便其參加此類論壇。
61. 修訂現行的或制定新的有關人工智慧系統的國家立法,必須遵守會員國的人權法義務,並在人工智慧系統的整個生命周期內促進人權和基本自由。隨著人工智慧技術的發展,還應採取以下形式促進人權和基本自由:治理舉措;關於人工智慧系統的合作實踐的良好範例;
國家及國際技術和方法準則。包括私營部門在內的各個部門在其關於人工智慧系統的實踐中必須利用現有的和新的文書以及本建議書,尊重、保護和促進人權和基本自由。
62. 為執法、福利、就業、媒體和信息提供者、衛生保健和獨立司法系統等對人權敏感的用途獲取人工智慧系統的會員國應建立機制,由獨立的數據保護機關、行業監督機構和負責監督的公共機構等適當監督部門監測人工智慧系統的社會和經濟影響。
63. 會員國應增強司法機構根據法治以及國際法和國際標準作出與人工智慧系統有關決定(包括在其審議中使用人工智慧系統的決定)的能力,同時確保堅持人類監督原則。司法機關如若使用人工智慧系統,則需要有足夠的保障措施,尤其要保障對基本人權的保護、法治、司法獨立以及人類監督原則,並確保司法機關對人工智慧系統的開發和使用值得信賴、以公共利益為導向且以人為本。
64. 會員國應確保政府和多邊組織在保障人工智慧系統的安全和安保方面起到主導作用,並吸收多利益攸關方參與其中。具體而言,會員國、國際組織和其他相關機構應制定國際標準,列出可衡量和可檢測的安全和透明度等級,以便能夠客觀評估人工智慧系統並確定合規水平。此外,會員國和工商企業應對人工智慧技術潛在安全和安保風險的戰略研究提供持續支持,並應鼓勵透明度、可解釋性、包容和素養問題研究,在不同方面和不同層面(例如技術語言和自然語言)為這些領域投入更多資金。
65. 會員國應實施政策,在人工智慧系統的整個生命周期內確保人工智慧行為者的行動符合國際人權法、標準和原則,同時充分考慮到當前的文化和社會多樣性,包括地方習俗和宗教傳統,並適當考慮到人權的優先性和普遍性。
66. 會員國應建立機制,要求人工智慧行為者披露並打擊人工智慧系統結果和數據中任何類型的陳規定型觀念,無論是設計使然還是出於疏忽,確保人工智慧系統的訓練數據集不會助長文化、經濟或社會不平等和偏見,不會散播虛假信息和錯誤信息,也不會干擾表達自由和信息獲取。應特別關注數據匱乏地區。
67. 會員國應實施政策,促進並提高人工智慧開發團隊和訓練數據集的多樣性和包容性,以反映其人口狀況,確保人工智慧技術及其惠益的平等獲取,特別是對農村和城市地區的邊緣化群體而言。
68. 會員國應酌情制定、審查並調整監管框架,在人工智慧系統生命周期的不同階段對其內容和結果實施問責制和責任制。會員國應在必要時出台責任框架或澄清對現有框架的解釋,確保為人工智慧系統的結果和性能確定責任歸屬。此外,會員國在制定監管框架時,應特別考慮到最終責任和問責必須總是落實到自然人或法人身上,人工智慧系統本身不應被賦予法人資格。為確保這一點,此類監管框架應符合人類監督原則,並確立著眼於人工智慧系統生命周期不同階段的人工智慧行為者和技術流程的綜合性方法。
69. 為在空白領域確立規範或調整現有的法律框架,會員國應讓所有人工智慧行為者(包括但不限於研究人員、民間社會和執法部門的代表、保險公司、投資者、製造商、工程師、律師和用戶)參與其中。這些規範可以發展成為最佳做法、法律和法規。進一步鼓勵會員國採用樣板政策和監管沙箱等機制,加快制定與新技術的飛速發展相適應的法律、法規和政策,包括對其進行定期審查,確保法律法規在正式通過之前能夠在安全環境下進行測試。會員國應支持地方政府制定符合國家和國際法律框架的地方政策、法規和法律。
70. 會員國應對人工智慧系統的透明度和可解釋性提出明確要求,以協助確保人工智慧系統整個生命周期的可信度。此類要求應包括影響機制的設計和實施,其中要考慮到每個特定人工智慧系統的套用領域的性質、預期用途、目標客群和可行性。
政策領域 3:數據政策
71. 會員國應努力制定數據治理戰略,確保持續評估人工智慧系統訓練數據的質量,包括數據收集和選擇過程的充分性、適當的數據安全和保護措施以及從錯誤中學習和在所有人工智慧行為者之間分享最佳做法的反饋機制。
72. 會員國應採取適當的保障措施,根據國際法保護隱私權,包括應對人們對於監控等問題的關切。會員國尤其應通過或實施可以提供適當保護並符合國際法的法律框架。會員國應大力鼓勵包括工商企業在內的所有人工智慧行為者遵守現行國際標準,特別是在倫理影響評估中開展適當的隱私影響評估,其中要考慮到預期數據處理產生的更廣泛的社會經濟影響,並在其系統中採用從設計入手保護隱私的做法。在人工智慧系統的整個生命周期內應尊重、保護和促進隱私。
73. 會員國應確保個人可以保留對於其個人數據的權利並得到相關框架的保護,此類框架尤其應預見到以下問題:透明度;對於處理敏感數據的適當保障;適當程度的數據保護;有效和實際的問責方案和機制;除符合國際法的某些情況外,數據主體對訪問和刪除其在人工智慧系統中個人數據的權利和能力的充分享有;數據用於商業目的(例如精準定向廣告)或跨境轉移時完全符合數據保護法的適度保護;切實有效的獨立監督,作為使個人可以掌控其個人數據、尊重數據主權並促進國際信息自由流通(包括數據獲取)之惠益的數據治理機制的一部分。
74. 會員國應制定數據政策或等效框架,或者加強現有政策或框架,以確保個人數據和敏感數據的充分安全,這類數據一旦泄露,可能會給個人造成特殊損害、傷害或困難。相關實例包括:與犯罪、刑事訴訟、定罪以及相關安全措施有關的數據;生物識別、基因和健康數據;與種族、膚色、血統、性別、年齡、語言、宗教、政治見解、民族、族裔、社會出身、與生俱來的經濟或社會條件、殘障情況或任何其他特徵有關的個人數據。
75. 會員國應促進開放數據。在這方面,會員國應考慮審查其政策和監管框架,包括關於信息獲取和政務公開的政策和監管框架,以便反映出人工智慧特有的要求,並考慮促進相關機制,例如為公共資金資助或公有的數據和原始碼以及數據信託建立開放式存儲庫,以支持安全、公平、合法與合乎倫理的數據分享等。
76. 會員國應推動和促進將優質和穩健的數據集用於訓練、開發和使用人工智慧系統,並在監督數據集的收集和使用方面保持警惕。這包括在可能和可行的情況下投資建立黃金標準數據集,包括開放、可信、多樣化、建立在有效的法律基礎上並且按法律要求徵得數據主體同意的數據集。應鼓勵制定數據集標註標準,包括按性別和其他標準分列數據,以便於確定數據集的收集方式及其特性。
77. 按照聯合國秘書長數字合作高級別小組報告的建議,會員國應在聯合國和教科文組織的支持下,酌情採用數字共享方式處理數據,提高工具、數據集和數據託管系統接口的互操作性,鼓勵私營公司酌情與所有利益攸關方共享其收集的數據,以促進研究、創新和公共利益。會員國還應促進公共和私營部門建立協作平台,在可信和安全的數據空間內共享優質數據。
【政策領域 4:發展與國際合作】
78. 會員國和跨國公司應優先考慮人工智慧倫理,在相關國際、政府間和多利益攸關方論壇上討論與人工智慧有關的倫理問題。
79. 會員國應確保人工智慧在教育、科學、文化、傳播和信息、衛生保健、農業和食品供應、環境、自然資源和基礎設施管理、經濟規劃和增長等發展領域的套用符合本建議書提出的價值觀和原則。
80. 會員國應通過國際組織,努力為人工智慧促進發展提供國際合作平台,包括提供專業知識、資金、數據、領域知識和基礎設施,以及促進多利益攸關方之間的合作,以應對具有挑戰性的發展問題,特別是針對中低收入國家,尤其是最不已開發國家、內陸開發中國家和小島嶼開發中國家。
81. 會員國應努力促進人工智慧研究和創新方面的國際合作,包括可以提升中低收入國家和其他國家(包括最不已開發國家、內陸開發中國家和小島嶼開發中國家)研究人員的參與度和領導作用的研究和創新中心及網路。
82. 會員國應通過吸收國際組織、研究機構和跨國公司參與,促進人工智慧倫理研究,可以將這些研究作為公共和私營實體以合乎倫理的方式使用人工智慧系統的基礎,包括研究具體倫理框架在特定文化和背景下的適用性,以及根據這些框架開發技術上可行的解決方案的可能性。
83. 會員國應鼓勵在人工智慧領域開展國際合作與協作,以彌合地緣技術差距。應在充分尊重國際法的前提下,在會員國與其民眾之間、公共和私營部門之間以及技術上最先進和最落後的國家之間,開展技術交流和磋商。
【政策領域 5:環境和生態系統】
84. 在人工智慧系統的整個生命周期內,會員國和工商企業應評估對環境產生的直接和間接影響,包括但不限於其碳足跡、能源消耗以及為支持人工智慧技術製造而開採原材料對環境造成的影響,並應減少人工智慧系統和數據基礎設施造成的環境影響。會員國應確保所有人工智慧行為者遵守有關環境的法律、政策和慣例。
85. 會員國應在必要和適當時引入激勵措施,確保開發並採用基於權利、合乎倫理、由人工智慧驅動的解決方案抵禦災害風險;監測和保護環境與生態系統,並促進其再生;保護地球。這些人工智慧系統應在其整個生命周期內讓地方和土著社區參與,並應支持循環經濟做法以及可持續的消費和生產模式。
例如,在必要和適當時可將人工智慧系統用於以下方面:
(a) 支持自然資源的保護、監測和管理。
(b) 支持與氣候有關問題的預測、預防、控制和減緩。
(c) 支持更加高效和可持續的糧食生態系統。
(d) 支持可持續能源的加速獲取和大規模採用。
(e) 促成並推動旨在促進可持續發展的可持續基礎設施、可持續商業模式和可持續金融主流化。
(f) 檢測污染物或預測污染程度,協助相關利益攸關方確定、規劃並實施有針對性的干預措施,防止並減少污染及曝露風險。
86. 會員國在選擇人工智慧方法時,鑒於其中一些方法可能具有數據密集型或資源密集型特點以及對環境產生的不同影響,應確保人工智慧行為者能夠根據相稱性原則,傾向於使用節約數據、能源和資源的人工智慧方法。應制定要求,確保有適當證據表明一項人工智慧應用程式將產生這種預期效果,或一項人工智慧應用程式的附加保障措施可以為使用該應用程式的合理性提供支撐。假如做不到這一點,則必須遵循預防原則,而且在會對環境造成極其嚴重的負面影響的情況下,不得使用人工智慧。
【政策領域 6:性別】
87. 會員國應確保數位技術和人工智慧促進實現性別平等的潛能得到充分發揮,而且必須確保在人工智慧系統生命周期的任何階段,女童和婦女的人權和基本自由及其安全和人格不受侵犯。此外,倫理影響評估應包含橫向性別平等視角。
88. 會員國應從公共預算中劃撥專項資金,用於資助促進性別平等的計畫,確保國家數字政策包含性別行動計畫,並制定旨在支持女童和婦女的相關政策,例如勞動力教育政策,以確保她們不會被排除在人工智慧驅動的數字經濟之外。應考慮並落實專項投資,用於提供有針對性的計畫和有性別針對性的語言,從而為女童和婦女參與科學、技術、工程和數學(STEM)領域,包括信息和通信技術(信通技術)學科,以及為她們的就業準備、就業能力、平等的職業發展和專業成長,提供更多機會。
89. 會員國應確保人工智慧系統推動實現性別平等的潛能得到實現。會員國應確保這些技術不會加劇,而是消除模擬世界多個領域中已經存在的巨大性別差距。這些差距包括:性別工資差距;某些職業和活動中不平等的代表性;人工智慧領域高級管理職位、董事會或研究團隊中的代表性缺失;教育差距;數字和人工智慧的獲取、採用、使用和負擔能力方面的差距;以及無償工作和照料責任在社會中的不平等分配。
90. 會員國應確保性別陳規定型觀念和歧視性偏見不會被移植入人工智慧系統,而且還應對其加以鑑別和主動糾正。必須努力避免技術鴻溝對以下方面產生複合性負面影響:實現性別平等和避免暴力侵害,例如針對婦女和女童以及代表性不足群體的騷擾、欺凌和販運,包括線上上領域。
91. 會員國應鼓勵女性創業、參與並介入人工智慧系統生命周期的各個階段,具體辦法是提供並促進經濟和監管方面的激勵措施以及其他激勵措施和支持計畫,制定目的是在學術界的人工智慧研究方面實現性別均衡的參與、在數字和人工智慧公司高級管理職位、董事會和研究團隊中實現性別均衡的代表性的政策。會員國應確保(用於創新、研究和技術的)公共資金流向具有包容性和明確的性別代表性的計畫和公司,並利用平權行動原則鼓勵私人資金朝著類似方向流動。應制定並執行關於無騷擾環境的政策,同時鼓勵傳播關於如何在人工智慧系統的整個生命周期內促進多樣性的最佳做法。
92. 會員國應促進學術界和產業界人工智慧研究領域的性別多樣性,為女童和婦女進入該領域提供激勵措施,建立機制消除人工智慧研究界的性別陳規定型觀念和騷擾行為,並鼓勵學術界和私營實體分享關於如何提高性別多樣性的最佳做法。
93. 教科文組織可以協助建立最佳做法資料庫,鼓勵女童、婦女和代表性不足的群體參與人工智慧系統生命周期的各個階段。
【政策領域 7:文化】
94. 鼓勵會員國酌情將人工智慧系統納入物質、文獻和非物質文化遺產(包括瀕危語言以及土著語言和知識)的保護、豐富、理解、推廣、管理和獲取工作,具體辦法包括酌情出台或更新與在這些領域套用人工智慧系統有關的教育計畫,以及確保採用針對機構和公眾的參與式方法。
95. 鼓勵會員國審查並應對人工智慧系統產生的文化影響,特別是自動翻譯和語音助手等自然語言處理(NLP)應用程式給人類語言和表達的細微差別帶來的影響。此類評估應為設計和實施相關戰略提供參考,通過彌合文化差距、增進人類理解以及消除因減少使用自然語言等因素造成的負面影響,最大限度地發揮人工智慧系統的惠益。減少使用自然語言可能導致瀕危語言、地方方言以及與人類語言和表達形式有關的語音和文化差異的消失。
96. 隨著人工智慧技術被用於創造、生產、推廣、傳播和消費多種文化產品和服務,會員國應促進針對藝術家和創意從業人員的人工智慧教育和數字培訓,以評估人工智慧技術在其專業領域的適用性,並推動設計和套用適當的人工智慧技術,同時銘記保護文化遺產、多樣性和藝術自由的重要性。
97. 會員國應促進當地文化產業和文化領域的中小企業對於人工智慧工具的認識和評價,避免文化市場集中化的風險。
98. 會員國應吸收技術公司和其他利益攸關方參與進來,促進文化表現形式的多樣化供應和多元化獲取,特別要確保算法建議可以提高本地內容的知名度和可見性。
99. 會員國應促進在人工智慧和智慧財產權的交匯點上開展新的研究,例如確定是否或如何對通過人工智慧技術創作的作品給予智慧財產權保護。會員國還應評估人工智慧技術如何影響作品被用於研究、開發、培訓或實施人工智慧應用程式的智慧財產權所有者的權利或利益。
100. 會員國應鼓勵國家級博物館、美術館、圖書館和檔案館使用人工智慧系統,以突出其藏品,強化其圖書館、資料庫和知識庫,並允許用戶訪問。
【政策領域 8:教育和研究】
101. 會員國應與國際組織、教育機構、私營實體和非政府實體合作,在各個層面向所有國家的公眾提供充分的人工智慧素養教育,以增強人們的權能,減少因廣泛採用人工智慧系統而造成的數字鴻溝和數字獲取方面的不平等。
102. 會員國應促進人工智慧教育“必備技能”的掌握,例如基本讀寫、計算、編碼和數字技能、媒體與信息素養、批判性思維和創意思維、團隊合作、溝通、社會情感技能和人工智慧倫理技能,特別是在相關技能教育存在明顯差距的國家及國內地區或區域。
103. 會員國應促進關於人工智慧發展的一般性宣傳計畫,其中包括數據、人工智慧技術帶來的機會和挑戰、人工智慧系統對人權(包括兒童權利)的影響及其意義。這些計畫對於非技術群體和技術群體來說都應簡明易懂。
104. 會員國應鼓勵開展關於以負責任和合乎倫理的方式將人工智慧技術套用於教學、教師培訓和電子學習等方面的研究活動,以增加機會,減輕這一領域的挑戰和風險。在開展這些研究活動的同時,應充分評估教育質量以及人工智慧技術的套用對於學生和教師的影響。會員國還應確保人工智慧技術可以增強師生的權能和體驗,同時銘記關係和社交方面以及傳統教育形式的價值對於師生關係以及學生之間的關係至關重要,在討論將人工智慧技術套用於教育時應考慮到這一點。當涉及到監測、評估能力或預測學習者的行為時,用於學習的人工智慧系統應符合嚴格的要求。人工智慧應依照相關的個人數據保護標準支持學習過程,既不降低認知能力,也不提取敏感信息。在學習者與人工智慧系統的互動過程中收集到的為獲取知識而提交的數據,不得被濫用、挪用或用於犯罪,包括用於商業目的。
105. 會員國應提升女童和婦女、不同族裔和文化、殘障人士、邊緣化和弱勢群體或處境脆弱群體、少數群體以及沒能充分得益於數字包容的所有人在各級人工智慧教育計畫中的參與度和領導作用,監測並與其他國家分享這方面的最佳做法。
106. 會員國應根據本國教育計畫和傳統,為各級教育開發人工智慧倫理課程,促進人工智慧技術技能教育與人工智慧教育的人文、倫理和社會方面的交叉協作。應以當地語言(包括土著語言)開發人工智慧倫理教育的線上課程和數字資源,並考慮到環境多樣性,特別要確保採用殘障人士可以使用的格式。
107. 會員國應促進並支持人工智慧研究,特別是人工智慧倫理問題研究,具體辦法包括投資於此類研究或制定激勵措施推動公共和私營部門投資於這一領域等,同時承認此類研究可極大地推動人工智慧技術的進一步發展和完善,以促進落實國際法和本建議書中提出的價值觀和原則。會員國還應公開推廣以合乎倫理的方式開發人工智慧的研究人員和公司的最佳做法,並與之合作。
108. 會員國應確保人工智慧研究人員接受過研究倫理培訓,並要求他們將倫理考量納入設計、產品和出版物中,特別是在分析其使用的數據集、數據集的標註方法以及可能投入套用的成果的質量和範圍方面。
109. 會員國應鼓勵私營公司為科學界獲取其數據用於研究提供便利,特別是在中低收入國家,尤其是最不已開發國家、內陸開發中國家和小島嶼開發中國家。這種獲取應遵守相關隱私和數據保護標準。
110. 為確保對人工智慧研究進行批判性評估並適當監測可能出現的濫用或負面影響,會員國應確保人工智慧技術今後的任何發展都應建立在嚴謹和獨立的科學研究基礎上,並吸收除科學、技術、工程和數學(STEM)之外的其他學科,例如文化研究、教育、倫理學、國際關係、法律、語言學、哲學、政治學、社會學和心理學等,促進開展跨學科的人工智慧研究。
111. 認識到人工智慧技術為助力推進科學知識和實踐提供了大好機會,特別是在以往採用模型驅動方法的學科中,會員國應鼓勵科學界認識到使用人工智慧的惠益、不足和風險;這包括努力確保通過數據驅動的方法、模型和處理方式得出的結論完善可靠。此外,會員國應歡迎並支持科學界在為政策建言獻策和促進人們認識到人工智慧技術的優缺點方面發揮作用。
【政策領域 9:傳播和信息】
112. 會員國應利用人工智慧系統改善信息和知識的獲取。這可包括向研究人員、學術界、記者、公眾和開發人員提供支持,以加強表達自由、學術和科學自由、信息獲取,加大主動披露官方數據和信息的力度。
113. 在自動內容生成、審核和策管方面,會員國應確保人工智慧行為者尊重並促進表達自由和信息獲取自由。適當的框架,包括監管,應讓線上通信和信息運營商具有透明度,並確保用戶能夠獲取多樣化的觀點,以及迅速告知用戶為何對內容進行刪除或其他處理的相關程式和讓用戶能夠尋求補救的申訴機制。
114. 會員國應投資於並促進數字以及媒體與信息素養技能,加強理解人工智慧系統的使用和影響所需的批判性思維和能力,從而減少和打擊虛假信息、錯誤信息和仇恨言論。此種努力應包括加強對推薦系統的積極和潛在有害影響的了解和評估。
115. 會員國應為媒體創造有利的環境,使媒體有權利和資源切實有效地報導人工智慧系統的利弊,並鼓勵媒體在其業務中以合乎倫理的方式使用人工智慧系統。
【政策領域 10:經濟和勞動】
116. 會員國應評估並處理人工智慧系統對所有國家勞動力市場的衝擊及其對教育要求的影響,同時特別關注經濟屬於勞動密集型的國家。這可以包括在各級教育中引入更廣泛的跨學科“核心”技能,為當前的勞動者和年輕世代提供可以在飛速變化的市場中找到工作的公平機會,並確保他們對於人工智慧系統的倫理問題有所認識。除了傳授專業技術技能和低技能任務知識之外,還應教授“學會如何學習”、溝通、批判性思維、團隊合作、同理心以及在不同領域之間靈活運用知識的能力等技能。關鍵是要在有高需求的技能方面保持透明度,並圍繞這些技能更新學校課程。
117. 會員國應支持政府、學術機構、職業教育與培訓機構、產業界、勞工組織和民間社會之間的合作協定,以彌合技能要求方面的差距,讓培訓計畫和戰略與未來工作的影響和包括中小企業在內的產業界的需求保持一致。應促進以項目為基礎的人工智慧教學和學習方法,以便公共機構、私營公司、大學和研究中心之間能夠建立夥伴關係118. 會員國應與私營公司、民間組織和其他利益攸關方(包括勞動者和工會)合作,確保高風險員工可以實現公平轉型。這包括制定技能提升計畫和技能重塑計畫,建立在過渡期內保留員工的有效機制,以及為無法得到再培訓的員工探索嘗試“安全網”計畫。會員國應制定並實施計畫,以研究和應對已確定的各項挑戰,其中可能包括技能提升和技能重塑、加強社會保障、主動的行業政策和干預措施、稅收優惠、新的稅收形式等。會員國應確保有足夠的公共資金來支持這些計畫。應審慎審查並在必要時修改稅制等相關法規,消解基於人工智慧的自動化造成的失業後果。
119. 會員國應鼓勵並支持研究人員分析人工智慧系統對於當地勞動環境的影響,以預測未來的趨勢和挑戰。這些研究應採用跨學科方法,調查人工智慧系統對經濟、社會和地域因素、人機互動和人際關係產生的影響,以便就技能重塑和重新部署的最佳做法提出建議。
120. 會員國應採取適當措施,確保競爭性市場和消費者保護,同時考慮可在國家、地區和國際各級採取何種措施和機制來防止在人工智慧系統的整個生命周期內濫用與人工智慧系統有關的市場支配地位,包括壟斷,無論是數據、研究、技術還是市場壟斷。會員國應防止由此造成的不平等,評估相關市場,並促進競爭性市場。應適當考慮中低收入國家,尤其是最不已開發國家、內陸開發中國家和小島嶼開發中國家,這些國家由於缺乏基礎設施、人力資源能力和規章制度等要素,面臨濫用市場支配地位行為的風險更大,也更容易因之受到影響。
在已制定或通過人工智慧倫理標準的國家從事人工智慧系統開發的人工智慧行為者,在出口這些產品以及在可能沒有此類標準的國家開發或套用其人工智慧系統時,應遵守這些標準,並遵守適用的國際法以及這些國家的國內立法、標準和慣例。
【政策領域 11:健康和社會福祉】
121. 會員國應努力利用有效的人工智慧系統來改善人類健康並保護生命權,包括減少疾病的爆發,同時建立並維護國際團結,以應對全球健康風險和不確定性,並確保在衛生保健領域採用人工智慧系統的做法符合國際法及其人權法義務。會員國應確保參與衛生保健人工智慧系統的行為者會考慮到患者與家屬的關係以及患者與醫護人員關係的重要性。
122. 會員國應確保與健康、特別是精神健康有關的人工智慧系統的開發和部署適當關注兒童和青年,並受到監管,使其做到安全、有效、高效、經過科學和醫學證明並能促進循證創新和醫學進步。此外,在數字健康干預的相關領域,大力鼓勵會員國主動讓患者及其代表參與系統開發的所有相關步驟。
123. 會員國應特別注意通過以下方式規範人工智慧應用程式中用於衛生保健的預測、檢測和治療方案:
(a) 確保監督,以儘可能減少和減輕偏見;
(b) 在開發算法時,確保在所有相關階段將專業人員、患者、護理人員或服務用戶作為“領域專家”納入團隊;
(c) 適當注意因可能需要醫學監測而產生的隱私問題,並確保所有相關的國家和國際數據保護要求得到滿足;
(d) 確保建立有效機制,讓被分析的數據主體了解對其個人數據的使用和分析並給予知情同意,同時又不妨礙他們獲取衛生保健服務;
(e) 確保人工護理以及最終的診斷和治療決定一律由人類作出,同時肯定人工智慧系統也可以協助人類工作;
(f) 必要時確保在投入臨床使用之前由倫理研究委員會對人工智慧系統進行審查。
124. 會員國應研究人工智慧系統對於心理健康的潛在危害所產生的影響及如何加以調控的問題,例如深度抑鬱、焦慮、社會隔離、成癮、販運、激進化和誤導等。
125. 會員國應在研究的基礎上,針對機器人的未來發展,制定關於人機互動及其對人際關係所產生影響的準則,並特別關注人類身心健康。尤其應關注套用於衛生保健以及老年人和殘障人士護理的機器人、套用於教育的機器人、兒童用機器人、玩具機器人、聊天機器人以及兒童和成人的陪伴機器人的使用問題。此外,應利用人工智慧技術的協助來提高機器人的安全性,增進其符合人體工程學的使用,包括在人機工作環境中。應特別注意到利用人工智慧操控和濫用人類認知偏差的可能性。
126. 會員國應確保人機互動遵守適用於任何其他人工智慧系統的相同價值觀和原則,包括人權和基本自由、促進多樣性和保護弱勢群體或處境脆弱群體。應考慮與人工智慧驅動的神經技術系統和腦機接口有關的倫理問題,以維護人的尊嚴和自主權。
127. 會員國應確保用戶能夠輕鬆識別與自己互動的對象是生物,還是模仿人類或動物特徵的人工智慧系統,並且能夠有效拒絕此類互動和要求人工介入。
128. 會員國應實施政策,提高人們對於人工智慧技術以及能夠識別和模仿人類情緒的技術擬人化的認識,包括在提及這些技術時所使用的語言,並評估這種擬人化的表現形式、倫理影響和可能存在的局限性,特別是在人機互動的情況下和涉及到兒童時。
129. 會員國應鼓勵並促進關於人與人工智慧系統長期互動所產生影響的合作研究,特別注意這些系統對兒童和青年的心理和認知可能產生的影響。在開展此類研究時,應採用多種規範、原則、協定、學科方法,評估行為和習慣的改變,並審慎評估下游的文化和社會影響。
此外,會員國應鼓勵研究人工智慧技術對於衛生系統的業績和衛生結果產生的影響。
130. 會員國和所有利益攸關方應建立機制,讓兒童和青年切實參與到關於人工智慧系統對其生活和未來所產生影響的對話、辯論和決策中。
五、監測和評估
131. 會員國應根據本國具體國情、治理結構和憲法規定,採用定量和定性相結合的方法,以可信和透明的方式監測和評估與人工智慧倫理問題有關的政策、計畫和機制。為支持會員國,教科文組織可以從以下方面作出貢獻:
(a) 制定以嚴謹的科學研究為基礎且以國際人權法為根據的教科文組織人工智慧技術倫理影響評估(EIA)方法,關於在人工智慧系統生命周期各個階段實施該方法的指南,以及用於支持會員國對政府官員、政策制定者和其他相關人工智慧行為者進行倫理影響評估方法培訓的能力建設材料;
(b) 制定教科文組織準備狀態評估方法,協助會員國確定其準備進程各個方面在特定時刻的所處狀態;
(c) 制定教科文組織關於在事先和事後對照既定目標評估人工智慧倫理政策和激勵政策效力和效率的方法;
(d) 加強關於人工智慧倫理政策的基於研究和證據的分析和報告;
(e) 收集和傳播關於人工智慧倫理政策的進展、創新、研究報告、科學出版物、數據和統計資料,包括通過現有舉措,以支持最佳做法分享和相互學習,推動實施本建議書。
132. 監測和評估進程應確保所有利益攸關方的廣泛參與,包括但不限於弱勢群體或處境脆弱群體。應確保社會、文化和性別多樣性,以期改善學習過程,加強調查結果、決策、透明度和成果問責制之間的聯繫。
133. 為促進與人工智慧倫理有關的最佳政策和做法,應制定適當的工具和指標,以便根據商定的標準、優先事項和具體目標,包括關於處境不利者、邊緣化群體和弱勢群體或處境脆弱群體的具體目標,評估此類政策和做法的效力和效率,以及人工智慧系統在個人和社會層面產生的影響。人工智慧系統及相關人工智慧倫理政策和做法的影響監測和評估應以與有關風險相稱的系統方法持續開展。這項工作應以國際商定的框架為基礎,涉及對於私營和公共機構、提供方和計畫的評估,包括自我評估,以及開展跟蹤研究和制定一系列指標。數據收集和處理工作應遵守國際法、關於數據保護和數據隱私的國家立法以及本建議書概述的價值觀和原則。
134. 尤其是,會員國不妨考慮可行的監測和評估機制,例如:倫理問題委員會、人工智慧倫理問題觀察站、記錄符合人權與合乎倫理的人工智慧系統發展情況或在教科文組織各職能領域通過恪守倫理原則為現有舉措作出貢獻的資料庫、經驗分享機制、人工智慧監管沙箱和面向所有人工智慧行為者的評估指南,以評估會員國對於本檔案所述政策建議的遵守情況。
六、本建議書的使用和推廣
135. 會員國和本建議書確定的所有其他利益攸關方應尊重、促進和保護本建議書提出的人工智慧倫理價值觀、原則和標準,並應採取一切可行步驟,落實本建議書的政策建議。
136. 會員國應與在本建議書的範圍和目標範疇內開展活動的所有相關國家和國際政府組織、非政府組織、跨國公司和科學組織合作,努力擴大並充實圍繞本建議書採取的行動。
制定教科文組織倫理影響評估方法和建立國家人工智慧倫理委員會,可以作為這方面的重要手段。
七、本建議書的宣傳
137. 教科文組織是負責宣傳和傳播本建議書的主要聯合國機構,因此將與其他相關聯合國實體合作開展工作,同時尊重它們的任務授權並避免工作重複。
138. 教科文組織,包括其世界科學知識與技術倫理委員會(COMEST)、國際生物倫理委員會(IBC)和政府間生物倫理委員會(IGBC)等機構,還將與其他國際、地區和分地區政府組織和非政府組織開展合作。
139. 儘管在教科文組織範圍內,促進和保護任務屬於各國政府和政府間機構的職權範圍,但民間社會將是倡導公共部門利益的重要行為者,因此教科文組織需要確保和促進其合法性。
八、最後條款
140. 應將本建議書作為一個整體來理解,各項基本價值觀和原則應被視為相互補充、相互關聯。
141. 本建議書中的任何內容既不得解釋為取代、改變或以其他方式損害各國根據國際法所負義務或所享權利,也不得解釋為允許任何國家、其他政治、經濟或社會行為者、群體或個人參與或從事任何有悖人權、基本自由、人的尊嚴以及對生物和非生物的環境與生態系統所抱之關切的活動或行為。
內容解讀
教科文組織《人工智慧倫理問題建議書》是首個關於以符合倫理要求的方式運用人工智慧的全球框架。它指導各國最大限度發揮人工智慧優勢,降低其帶來的風險。為此,建議書不僅包含價值觀和原則,還在所有相關領域提出詳細政策建議。
在《人工智慧倫理問題建議書》給會員國提供的指導中,“準備狀態評估”工具是核心之一。該工具幫助各國確定從業人員所需的素質和技能,以確保對人工智慧行業的有力監管。建議書還規定各國應報告其在人工智慧領域的進展和實踐,每4年提交一份定期報告。(科技日報2023年04月04日評)
聯合國教科文組織總幹事阿祖萊當天在新聞發布會上表示,人工智慧除套用於傳統科學研究領域外,當前還積極助力新冠疫情防控和疫苗研發等諸多方面,但同時也帶來隱私保護問題、性別偏見等挑戰。
阿祖萊說,世界需要為人工智慧制定規則以造福人類。教科文組織通過該領域首個規範性全球框架協定,是多邊主義取得的重要勝利。教科文組織將為各會員國落實《建議書》內容提供支持。(新華社2021年11月26日評)