據報道,近日歐盟委員會發布人工智能倫理準則,以提升人們對人工智能產業的信任。同時,歐盟委員會宣佈啟動人工智能倫理準則的試行階段,邀請工商企業、研究機構和政府機構對該準則進行測試。
據悉,該準則由歐盟人工智能高級別專家組起草,列出了“可信賴人工智能”的七個關鍵條件,包括人的能動性和監督能力、安全性、隱私數據管理、透明度、包容性、社會福祉、問責機制,以確保人工智能足夠安全可靠。歐盟將“人工智能”定義為“顯示智能行為的系統”,它可以分析環境,並行使一定的自主權來執行任務。
歐盟數字經濟和社會專員瑪利亞·加布里爾表示,算法做出的任何決定都必須經過驗證和解釋。當保險公司的系統拒絕了一次索賠後,客戶應當能詳細地知曉緣由。他還強調,需要確保人工智能系統的公平。如果招聘系統使用的算法是由一家僅僱用男性員工的公司數據生成的,其算法就可能會篩除女性應聘者,“這樣帶有偏見的數據輸入將會帶來倫理困境”。
不過,報道指出,歐盟此舉也受到一些質疑,像準則圍繞的核心——“可信賴人工智能”的定義尚不明確,且目前還不清楚未來監管如何實施。
閱讀更多 廣州日報 的文章