《以倫理爲基準的設計》——將人類福祉擺在優先地位的願景

《以倫理為基準的設計》——將人類福祉擺在優先地位的願景

概要:電氣電子工程師學會關於人工智能及自主系統的倫理考慮的全球倡議是IEEE的一個項目。

電氣電子工程師學會(IEEE)關於人工智能及自主系統的倫理考慮的全球倡議(”IEEE全球倡議”)是IEEE的一個項目。IEEE是世界上最大的專業技術組織,致力於推進技術發展,造福人類,該組織在160多個國家擁有超過40萬會員。IEEE全球倡議為人工智能及自主系統社群提供了一個彙集多種聲音的機會,以便大家及時發現問題並形成共識。IEEE將根據《知識共享 署名-非商業性使用-相同方式共享3.0美國許可證》制定《倫理準則設計》(EAD)。根據該許可證的條款,組織或個人可以隨時自行採納本文件的各方面內容。還擬選取《倫理準則設計》的內容和主題提交正式的IEEE流程,其中包括標準制定等。IEEE全球倡議和《倫理準則設計》使得IEEE在更廣泛的範圍推出新項目,致力於在技術倫理領域開展開放、寬泛和包容的對話,這個項目被稱為IEEETechEthics™。

目前第一版報告正在全世界範圍徵詢反饋和意見從而形成第二版報告。

《以倫理為基準的設計》

--在人工智能及自主系統中將人類福祉擺在優先地位的願景(第一版)

(中文摘要)

為了從人工智能及自主系統(AI / AS)的潛力中充分獲益,我們需要超越臆想,不侷限於只是尋找更多計算的能力或解決問題的能力。我們需要確保這些技術與人類在道德價值觀和倫理原則方面保持一致。人工智能及自主系統遠不止於是實現功能性的目標和解決技術問題,而必須以一種造福於人們的方式行事,才能使人類與技術之間達成崇高的信任,讓人工智能及自主系統能夠在日常生活中被人們建設性地普遍使用。

正如亞里士多德所闡述的“幸福(Eudaimonia)”,它是一種將人類福祉定義為社會最高美德的實踐。幸福大致理解為“繁榮”,它始於有意識的沉思,對倫理的思考有助於定義我們希望怎樣生活。

通過將人工智能及自主系統的創造與其用戶和社會的價值觀保持一致,我們優先將人類福祉的增加作為算法時代進步的指標。

我們是誰?

電氣電子工程師學會(IEEE)關於人工智能及自主系統的倫理考慮的全球倡議(”IEEE全球倡議”)是IEEE的一個項目。IEEE是世界上最大的專業技術組織,致力於推進技術發展,造福人類,該組織在160多個國家擁有超過40萬會員。

IEEE全球倡議為人工智能及自主系統社群提供了一個彙集多種聲音的機會,以便大家及時發現問題並形成共識。

IEEE將根據《知識共享 署名-非商業性使用-相同方式共享3.0美國許可證》制定《倫理準則設計》(EAD)。

根據該許可證的條款,組織或個人可以隨時自行採納本文件的各方面內容。還擬選取《倫理準則設計》的內容和主題提交正式的IEEE流程,其中包括標準制定等。

IEEE全球倡議和《倫理準則設計》使得IEEE在更廣泛的範圍推出新項目,致力於在技術倫理領域開展開放、寬泛和包容的對話,這個項目被稱為IEEETechEthics™。

《以倫理為基準的設計》——將人類福祉擺在優先地位的願景

IEEE全球倡議的使命

確保每位技術專家得到教育、培訓和賦權,並在自主和智能系統的設計和開發中會優先考慮倫理問題。

“技術專家”,在這指的是任何參與人工智能及自主系統的研究、設計、製造或信息交流的人,包括實現這些技術的大學、組織和公司。

本文件體現了100多名全球思想領袖的集體智慧,他們分別來自學術界、科學界、政府和企業界,從事人工智能、法律和倫理、哲學、政策領域的相關工作。我們的目標是希望《倫理準則設計》中同仁們提供的見解和建議能為人工智能及自主系統技術專家未來的工作提供關鍵參考。為了實現這一目標,當前版本《倫理準則設計V1》(EAD v1)確定了人工智能及自主系統的領域中的問題並提出了可選建議。

IEEE全球倡議的第二個目標是基於《倫理準則設計》為開發IEEE標準提供建議。 IEEE P7000™-解決系統設計時倫理問題的流程模型,是第一個受到該倡議啟發的IEEE標準項目(已批准並且正在開發中)。 另外兩個標準項目,IEEE P7001™-自主系統的透明度和IEEE P7002™-數據隱私流程也已被批准。由此可見,該倡議對人工智能及自主系統的倫理問題產生了實質性影響。

結構和內容

倫理準則設計包括八個部分,每個部分圍繞著一個與人工智能及自主系統有關的特定話題進行闡述,分別由IEEE全球倡議相應的委員會組織探討。每個委員會都列出了涉及的議題及其可選建議。以下是各委員會的摘要以及各個部分所涉及的問題:

一、一般原則

一般原則委員會已清晰地說明適用於所有類型人工智能及自主系統的一般性的倫理關注,即:

1.體現人權的最高理想;

2. 排列出對人類和自然環境最大利益的優先順序;

3. 隨著人工智能及自主系統逐漸演化成為社會技術系統,緩解其帶來的風險和負面影響。

委員會的目標是將其確定的原則、議題和建議選項,最終用於鞏固和支撐人工智能及自主系統新倫理治理框架下的未來規範和標準。

議題:

● 我們如何確保人工智能及自主系統不侵犯人權?(制定人權原則)

● 我們如何保證人工智能及自主系統是可以問責的?(制定責任原則)

● 我們如何確保人工智能及自主系統是公開透明的?(制定公開透明原則)

● 我們如何擴大人工智能及自主系統技術所帶來的利益,最小化其被濫用的風險?(制定教育和認知原則)

二、將價值觀嵌入自主智能系統

為了開發成功而有益於社會的自主智能系統,對技術社群至關重要的是,需要理解和能夠將相關的人類規範或價值觀嵌入到他們的系統中。“價值觀嵌入自主智能系統委員會”針對嵌入價值觀於自主智能系統已採取了較寬廣的目標,以三管齊下的方式協助設計者:

1. 識別受自主智能系統影響的特定社群的規範和價值觀;

2. 將這些特定社群的規範和價值觀建置於自主智能系統中;以及

3. 評估社群中的這些規範和價值觀,在人類與自主智能系統間的一致性與相容性。

議題:

1. 擬嵌入自主智能系統的價值觀並非放諸四海皆準,而是在很大程度上針對特定的用戶社群和任務。

2. 道德超載:自主智能系統通常會受到多重而可能相互矛盾的規範和價值觀的約束。

3. 自主智能系統可能會有內置數據或算法的偏頗,從而不利於某些群體成員。

4. 一旦建立了相關的規範集(自主智能系統在特定社群中的特定角色),尚未明確如何將這些規範嵌入到計算機架構中。

5. 建置於自主智能系統的規範必須要與相關社群的規範相互兼容。

6. 讓人類和自主智能系統之間達到正確的信任水平。

7. 對自主智能系統價值觀的一致性進行第三方評估。

《以倫理為基準的設計》——將人類福祉擺在優先地位的願景

三、指導倫理研究和設計的方法論

現代的人工智能及自主系統組織應該確保人類福祉、賦權和自由作為其發展的核心。為了創造有助於實現這些宏偉目標的機器,“指導倫理研究和設計的方法論委員會”提出了若干議題和建議選項,以保障相關組織所採用的系統設計方法可以創造人類價值,如《世界人權宣言》中所定義的人權。與人類價值相一致的設計方法應該成為現代人工智能和自主系統組織關注的焦點,以推動人類基於倫理準則的向前發展。機器應該服務於人類,而不是相反。系統設計方法符合倫理,才能確保人工智能在追求商業上的經濟效益和社會中的社會效益之間達到均衡。

議題:

1. 倫理學不只是一門專業學位課。

2. 我們需要跨學科和跨文化的教育模式來應對人工智能及自主系統中的獨特問題。

3. 區分嵌入在人工智能設計中不同文化中的價值觀。

4. 行業內缺乏基於價值觀的倫理文化和實踐。

5. 缺乏具有價值觀意識的領導層。

6. 缺乏賦權,以致於沒有引起人們對價值觀的關注。

7. 技術社群缺乏主人翁意識和責任意識。

8. 吸納不同利益相關者進而為人工智能及自主系統發展創造良好環境。

9. 文件匱乏阻礙倫理設計。

10. 算法不一致或對算法缺乏監督。

11. 缺乏獨立的審查組織。

12. 使用黑箱組件。

四、通用人工智能(AGI)和超級人工智能(ASI)的安全與福祉

未來具高能力的人工智能系統(有時被稱為通用人工智能;AGI),可能對世界產生像農業或工業革命一般規模的變革性影響,帶來前所未有的世界繁榮。“通用人工智能和超級人工智能安全福祉委員會” 提出了若干議題和建議選項,通過人工智能社群一致的努力,協助確保這種轉變向著正面的方向發展。

議題:

1. 隨著人工智能系統能力的提升-即評估其在橫跨更多樣化領域之際,具較高度自主性優化更復雜目標函數的能力-非預期或非刻意的行為變得越來越危險。

2. 改良未來具更廣泛能力的人工智能的安全性可能會有困難。

3. 研究人員和開發人員在開發和部署愈加自主和有能力的人工智能系統時,將面臨一系列逐漸更復雜的倫理和技術安全議題。

4. 未來的人工智能系統對世界可能具有像農業或工業革命般規模的影響。

五、個人數據與個人訪問控制

數據不對稱是個人信息領域的一個主要的倫理困境。

為了解決這種不對稱性,“個人數據和個人訪問控制委員會”提出了若干議題和可選建議,以表達人們的一項基本需求:作為唯一身份的守護者,人們能夠定義、訪問和管理其個人數據。委員會認識到,儘管沒有完美的解決方案,任何數字工具都可能被黑客攻擊,但是,委員會建議啟用一個人們可以控制他們的自身感覺的數據環境,並提供了工具和發展實踐的案例,以消除數據不對稱,推動未來往積極的方向發展。

議題:

1. 個體如何在算法時代定義和組織他/她的個人數據?

2. 個人身份信息的定義和範疇是什麼?

3. 如何定義”對個人數據的控制”?

4. 如何重新定義”數據訪問“以尊重個人?

5. 如何重新定義“對個人數據的同意”,以使其尊重個人?

6. 那些看起來微不足道分享的數據會被誤判為個人不希望共享。

7. 數據處理程序如何確保訪問和收集數據的結果(正面和負面)對個人是明確的,以便用戶在真正知情的情況下選擇“同意”?

8. 一個人是否能有個性化的人工智能或算法守護者?

《以倫理為基準的設計》——將人類福祉擺在優先地位的願景

六、重構自主武器系統

相對於傳統武器和不以造成傷害為目的的自主系統,以造成物理傷害為目的的自主系統會產生額外的倫理後果。有關這種自主系統的專業倫理可以而且應該有更高的標準,得到更廣泛的關注。概括地說,“重構自主武器系統委員會”建議技術組織接受如下內容:對武器系統進行有意義的人類控制對社會有益;用審計追蹤機制確保問責制的有效運行,從而確保實現這種控制;創造這些技術的人瞭解其工作的可能後果;專業倫理準則能恰當地應對那些旨在造成傷害的武器系統。

議題:

1. 專業組織行為準則通常存在重大的漏洞,它們據此會忽視持有者的工作以及他們所創造的工件和介質,這些持有者及其作品都要在同等程度上遵循相同的價值觀和標準。

2. 人工智能、自主系統和自主武器系統等重要概念的定義混亂不清,這阻礙了對關鍵問題進行更具實質性的討論。

3. 自主武器系統天然地可用於隱蔽目的,且不可溯源。

4. 有多種方式可以用來減輕對自主武器系統之行動的責任。

5. 自主武器系統可能具有不可預測性(視其設計和戰術應用而定),(機器)學習系統使預測其應用的問題更加複雜。

6. 使自主武器系統開發合法化的努力創立了一些先例,這些先例在中期內在地緣政治上具有危險性。

7. 將人類監督排除在戰場外,很容易導致無意中侵犯人權,以及無意中升級緊張局勢。

8. 自主武器系統有各種各樣的直接和間接客戶,這將造成一種複雜且令人擔憂的擴散和濫用的局面。

9. 自主武器系統中的自動化類型天然地鼓勵衝突快速升級。

10. 尚無有關自主武器系統的設計保證驗證方面的標準。

11. 很難理解自主武器系統和半自主武器系統相關工作的倫理邊界。

七、經濟/人道主義議題

旨在減少我們日常生活中的人類干預的技術、方法論和系統正在快速發展,並準備以多種方式改變個人的生活。“經濟/人道主義議題委員會”的目的是找到構成“人類與技術”全球生態系統的關鍵驅動因素,闡述其帶來的經濟和人道主義後果,並指出可以實施解決方案的關鍵機會,以化解關鍵節點的緊張局勢。委員會的目的是:就人類及其機構和新興的信息驅動技術之間的關係中存在的主要擔憂提出一個務實的方向,促進跨學科跨部門的對話,從而更充分地聽取專家及同仁就這些問題方向性的思考。

議題:

1. 媒體對人工智能及自主系統的誤解會迷惑公眾。

2. 人們通常沒有從除了市場以外的角度來看“自動化”。

3. 在機器人/人工智能時代,就業的複雜性被忽視。

4. 技術變革太快,現有的勞動力培訓/再培訓方法跟不上。

5. 任何人工智能政策都可能會減緩創新。

6. 世界各地的人工智能和自主技術的發展水平不均衡。

7. 缺乏對個人信息的訪問和理解。

8. 需要增加發展中國家在IEEE全球倡議中的積極代表

9. 人工智能及自主系統的出現可能加劇發達國家和發展中國家之間及其內部的經濟和權力結構差異。

《以倫理為基準的設計》——將人類福祉擺在優先地位的願景

八、法律

人工智能及自主系統的初期發展引發了很多複雜的倫理問題。這些倫理問題幾乎總是直接轉化為具體的法律挑戰,或者引發出一些困難的附帶法律問題。 “法律委員會”認為,這方面有很多工作需要律師來參與,但迄今為止,儘管是在迫切需要的領域,卻很少有從業者和學者參與進來。律師需要參與這些領域中與監管、治理、國內和國際立法相關的討論。人工智能及自主系統為人類和我們的地球帶來了巨大利益,值得律師們深思熟慮地為未來付出努力。

議題:

1. 我們如何提高自主和智能系統的問責制和可驗證性?

2. 我們如何確保人工智能是公開透明的,且尊重個人權利?

3. 如何設計人工智能系統,以確保受這些系統的危害時可施以法律問責?

4. 如何確保以尊重個人數據完整性的方式來設計和部署自主和智能系統?

這份文件是如何準備的

本文件採用開放、協作和共識的建立方法,遵循IEEE標準協會的“行業連接”項目程序開展。隨著行業不斷磨練和改進其對新興技術問題的思考,“行業連接”項目旨在促進組織和個人之間的合作,幫助孵化潛在的新標準活動和標準相關的產品及服務。

如何引用《倫理準則設計》

請按照以下方式引用《倫理準則設計》第1版:

IEEE關於人工智能及自主系統的倫理考慮的全球倡議。 《倫理準則設計:人工智能及自主系統以人類福祉為先的願景(第一版)》 IEEE,2016.


分享到:


相關文章: