在網上搜索“機器人”的圖片,不出意外,結果應該就和小編下面查到的差不多。仔細看看,有沒有覺得哪裡不對勁呢?
大多數人應該和小編一樣,沒看出什麼異常。然而,來自新西蘭坎特伯雷大學的Christoph Bartneck教授卻指出:這樣的結果大有問題——為什麼機器人就一定要是白色的呢?
教授發現,人們會將具備擬人化特徵的機器人歸類於某個種族,導致人類對該種族的偏見會被投射到機器人身上。“我們希望本研究能夠鼓勵機器人設計師們創造出代表他們群體多元化特徵的機器人,沒有必要把所有機器人都設計成白色。”Bartneck如是說。
不少人或許會對這樣的研究嗤之以鼻。畢竟,如果我們詢問機器人制造公司,為什麼要將他們的機器人設定為白色,他們十有八九會告訴你:因為白色跟各種家庭裝飾都很百搭呀!
Bartneck教授並不這麼認為,他在IEEE的一段專訪作為我們提供了進一步的瞭解。
首先,我們想探究人類是否將機器人與種族相關聯。其次,如果答案是肯定的,那這種對機器人種族的歸類是否影響人類對待這些機器人的行為。更詳細地說,我們會讓參與者回答一系列問題,包括對某一機器人的種族分類(選項包括“不賦予種族”)。另外, 我們也使用了“射手偏見”框架(shooter bias framework)。
在射手偏見研究中,參與者被賦予警察的角色,當面對人們手持槍械或其他友好物體的圖像時,他必須決定是否射擊。圖像僅顯示一瞬間,研究中的參與者來不及做出合理的思考,他們必須在不到一秒的時間內採取行動。若參與者在決定開槍時對黑色機器人(對比白色機器人)開槍更加快速,在決定對沒有武器的機器人不開槍時對白色機器人(對比黑色機器人)下決定更快速,我們就會認為這位參與者對機器人存在種族偏見。
我們在調查中直接要求人們選擇“該機器人是什麼種族”時,只有11%的被調查者選擇了“不適用”選項。我們的隱性衡量標準證明了人們確實種族化機器人並據此調整他們的行為。我們調查的參與者顯示他們存在對機器人的種族偏見。
此外,我們的“射手偏見”研究顯示,無論圖像中出現的是人類還是機器人,與武裝的白人相比,參與者更快地射擊武裝的黑人;同時更快地避免射擊手無寸鐵的白人,而不是同樣解除武裝的黑人。這些發現說明了射手偏見既存在於人類之中,同時也存在於機器人之中。
這種偏見明確表現了對黑人的種族歧視,更是將這種歧視自動延伸至種族化為黑人的機器人。許多工程師都忙於實現機器人基本功能,如行走與在所處環境中移動。這是他們最為關注的問題,以至於他們沒有那麼重視研究所產生的社會影響。
大部分時候,機器人的設計是由內而外的,意味著各功能部件先被搭建並測試,最後再添加一個外殼包裝。至於這層包裝將如何影響人類使用者,或更寬泛地說,機器人整體將如何被其使用者所感知,絕大多數時候只有事後才會被想到。
因此,幾乎沒有機器人創造者思考過種族歧視問題。多年來,人機交互(HRI)社區的成員們在嘗試更深理解人類與機器人是如何交互的。我們試圖幫助機器人創造者將機器人設計得與社會更加融合。種族歧視對人類與人類社會整體都正在造成大量傷害。
今天,種族歧視依然真實地存在,黑人平權運動更加證明了這個問題的重要性與緊急性。與此同時,我們將推出社交機器人,目的是與人類互動,融入人類社會。這些機器人將成為未來的護工,教育人員與陪伴者。
在谷歌圖片中搜索“類人機器人”,你幾乎只會搜到擁有閃亮白色表面或金屬外表的機器人圖片。現在幾乎沒有非白人外表的擬人機器人。大多數主流社交機器人研究平臺,如Nao、Pepper與PR2,機器人均使用白色材料,並且看起來是白人。
我們根據各社會分類下的社會觀念導致的刻板印象去評價他人。比如,歧視經常是社會刻板印象的一種體現。如果機器人將被用於教師,好友或護工並且這些角色都只被白人機器人取代,這將會是一個嚴重問題。
我們希望我們的研究能促使人類進行反思,是什麼社會與歷史因素導致了來自如此多元化的種族群體的工程師們幾乎只設計生產很容易被當做白人的機器人,他們為何尚未意識到這一點。
閱讀更多 鳳凰機器人 的文章