算法是否會讓人們更平等?

L60

事實上並不會。

威廉·吉布森曾經寫過,未來已經到來,只是還未普及而已。這句話經常被用來說明富人更容易接觸到更多的技術,但當窮人更容易受到影響時又會發生什麼呢?

弗吉尼亞·尤班克斯(Virginia Eubanks)在《自動化不平等》(Automating Inequality)一書中指出,窮人是新技術的試驗場,這會加劇不平等。這本書於上週出版,開篇描寫了美國救濟院的的歷史,白描出一副從16世紀60年代延綿至20世紀的圖景。隨後,她又詳述了過去百年窮人的待遇,從20世紀初直到今天這個社會服務體系日益依賴算法的時代。

這樣的自動化是否是有益的?尤班克斯在這個問題上的立場沒有給不確定性留下空間。她的觀點是,苛刻且道德主義的貧窮觀成就了救濟院,如今的自動化和預測性的決策制定工具已經暗含了這些理念。這些算法可能使得人們難以獲得服務,同時迫使人們不得不面對私人數據蒐集過程中的入侵問題。作為例證,尤班克斯介紹了三個不同項目:印第安納州的醫療申請流程、洛杉磯針對無家可歸者提供的服務以及匹茲堡的兒童保護服務。

尤班克斯同《麻省理工科技評論》談到了社會服務實現自動化後,她個人體驗過的預測性算法,以及這些有缺陷的工具是如何讓不平等問題凸顯出來,使得我們不得不直面如何一勞永逸地解決貧困人口待遇這一問題。

過去的救濟院和今天數字時代的救濟院有什麼相似之處?

這些高科技工具,我稱之為“數據分析體系”,實際上不只是革命,而是進化。它們同美國的扶貧政策歷史很好地融合在了一起。

我最初開始這項工作的時候,我以為這些數字工具可能是在20世紀80年代進入公共援助和公共服務領域的,當時正是個人電腦開始普及的時代,或者是在20世紀90年代福利政策改革時期。但事實上,數碼工具的應用興起於20世紀60年代末到70年代初,當時的一項全國福利維權運動打開了公共援助的大門。

與此同時,民權運動發生了反彈,經濟出現了衰退。所以當選的公職人員、官僚和行政官員都處於這樣的處境:中產階級反對公共援助規模的擴大。但中產階級也無法再基於歧視性原因利用進入策略將某些人排除在福利救助名單之外。這正是技術得以應用的時刻,在技術融入系統之後,可以明顯看到福利救助名單的急劇減少,這種趨勢基本上一直持續到今天。

機器學習工具將取代上面提到的這些算法。您的研究是否涉及人工智能融入日常系統後將會出現的問題?

我沒有直接的答案。但是我要指出的是我們在報道中經常把匹茲堡兒童保護系統寫成某種人工智能或機器學習系統。但事實上,它只是一個簡單的統計迴歸模型。

我認為這非常有趣,人們傾向於認為系統有著大量算法支撐,並認為它們比實際更復雜、更難理解。我懷疑這些系統在上線時會搞點技術層面的小把戲,往往會讓人們覺得他們沒有充分理解這些系統,無法做出評論。但事實並非如此,我認為現在談論這些問題的人中有很多人有能力、有信心參與相關問題的討論,他們也應該參與。

有個接受食品救濟券的女人告訴你說,負責她的社工會瀏覽她的購物記錄。她說了句很有意思的話“你應該關注發生在我們身上的事,你就是下一個”。你似乎很驚訝。你還見過其他例子嗎?類似這種關注普通人和技術關係問題的?

這本書是從一個案例開始的:我的伴侶遭到襲擊和毒打。在他做完手術後,我打算去藥店買一些止痛藥,這時工作人員告訴我說我們的健康保險過期了。驚慌失措中我打電話給保險公司,工作人員說我們沒能在保險截止之前續期。

我當時說:“這聽起來很奇怪,你知道麼,幾個星期前提出的索賠你們都支付了,從那個時間算起肯定有個開始時間吧。”然後他們說:“哦,這肯定是技術失誤,有人不小心清除了你們的開始時間或者其他什麼原因。”

我很懷疑,他們很有可能在調查我們是否涉嫌騙保時中止了保險週期(當時我一直在研究這種欺詐檢測工具)。我們當時恰好符合最常見騙保行為的幾個指標:在襲擊發生前我們只剩幾天的保險,我們還沒結婚,他為了緩解病痛使用了管制藥物。

我永遠都不會知道他們是否調查過我們,但無論如何,工作人員說我們欠6萬美元的醫療費用,因為索賠過程並不在保險週期內。這給我們帶來了極大的壓力。

所以無論窮人、工人階級、職業中產階級或是精英階層,這些系統已經無形地應用在同我們日常互動的眾多服務中了。我和伴侶能夠克服這樣的經歷是因為有資源幫助我們,另一個原因是這種事只發生過一次,我們並沒有被這樣的情況包圍。我們並沒有從兒童保護服務機構、醫療補助機構、食品救濟券發放機構以及警方那裡感受到強大的壓力。

我認為對於需要同時應對這些系統的人來說,可能會困難更多。

這些工具有帶來益處嗎?

我持樂觀態度的原因之一來自系統驚人的診斷能力。這些工具使得國家的不平等具體化、形象化。系統失控的地方就是嚴重不平等現象存在且需要我們去解決的地方。所以我相信,把已經發生的運動和對類似系統的高度關注結合起來,真的能夠帶來很大動力,創造出更加公正的社會系統。

本文原刊《麻省理工科技評論》中英文APP,2018年2月上。


DeepTech深科技

其實應該討論的是絕對化的平等是算法的目的嗎?

大數據和算法提更跟便利的途徑獲得信息,這些信息幫助我們很好的進行資訊的分析整理,從而更快速的得出解決方案。


但希望算法會讓人絕對平等,顯然是不現實的。

算法不是法律和制度,因此不可能成為衡量人與人之間平等的標準。最簡單的例子就是:西方法庭中的陪審團機制如果。如果全部按法條來執行,雙方律師提供證據,完成辯護、然後用計算機做案件的勝負判定,那麼估計90%的罪犯都無罪開釋了。而很多可以量刑減免的,也可能會一視同仁地根據法條執行。這也是為什麼西方社會。尤其美國會建立陪審團制度。

立特方典:藝術 設計 旅行 遊學 培訓



分享到:


相關文章: