人工智能是把“雙刃劍”,在科技發展的同時,隱私洩露成最大隱患

人工智能亦稱智械、機器智能,指由人制造出來的機器所表現出來的智能。通過醫學、神經科學、機器人學及統計學等的進步,有些預測則認為人類的無數職業也逐漸被人工智能取代。

人工智能是把“雙刃劍”,在科技發展的同時,隱私洩露成最大隱患

人工智能如同一把“雙刃劍”,應用不當,可能帶來隱私洩露風險

雖然人工智能能為人類帶來諸多方便,但是如果應用不當,就可能帶來隱私洩露的倫理風險。人工智能應用需要以海量的個人信息數據作支撐。數據是人工智能的基礎,正是由於大數據的使用、算力的提高和算法的突破,人工智能才能快速發展、廣泛應用,並呈現出深度學習、跨界融合、人機協同、群智開放、自主操控等新特徵。人工智能越是“智能”,就越需要獲取、存儲、分析更多的個人信息數據。可以說,海量信息數據是人工智能迭代升級不可缺少的“食糧”。獲取和處理海量信息數據,不可避免會涉及個人隱私保護這一重要倫理問題。

人工智能是把“雙刃劍”,在科技發展的同時,隱私洩露成最大隱患

人工智能若得不到合理管控,人類將被置於隱私“裸奔”的尷尬境地

今天,各類數據信息採集無時不有、無處不在,幾乎每個人都被置於數字化空間之中,個人隱私極易以數據的形式被存儲、複製、傳播,如個人身份信息數據、網絡行為軌跡數據以及對數據處理分析形成的偏好信息、預測信息等。可以預見,在不遠的未來,越來越多的人工智能產品將走進千家萬戶,在給人們生活帶來便利的同時,也會輕易獲取更多有關個人隱私的數據信息。藉助獲取的數據信息,基於日益強大的數據整合、處理能力,人工智能技術可以為用戶精準“畫像”,而其中就潛藏著不容忽視的隱私洩露風險。如果人工智能應用得不到合理管控,人類將被置於隱私“裸奔”的尷尬境地。

人工智能是把“雙刃劍”,在科技發展的同時,隱私洩露成最大隱患

加強隱私保護,是人工智能應用必須堅守的底線

在人工智能應用中加強隱私保護,需要加強人工智能應用的風險研判和防範,綜合運用技術創新、倫理規範、法律制度等手段方式,防止其“野蠻生長”,確保在符合倫理規範的前提下實現人工智能健康發展。

未來人工智能技術無論如何發展、發展到什麼程度,歸根結底都是為了輔助人、服務人,為使用者提供便利,而不能成為肆意損害人格權利、惡意洩露個人隱私的工具。這是人工智能應用必須堅守的底線,否則人工智能技術就會失去價值,也難以走遠。


分享到:


相關文章: