如果讓將機器人設置好完整的法律程序,讓它們來當法官,會不會很公正?

Ac248842091


當然不可能,至少在可預見的將來都是不可能的,但電腦或人工智能是非常有用的幫手。

一個很簡單的道理,法律是社會科學,很多時候沒有標準答案,殺人一定是死刑嗎?協助自殺正當防衛之類要怎麼辦?有人說那把影響因素也輸入呀,可法官的工作就是考慮要不要把這些因素考慮在內,所以起作用的仍然是法官,而非電腦。

律師欺騙法官其實不容易的,但如果判案的電腦,我覺得騙電腦其實更容易。

法律是社會科學,還有心理學美學史學之類的都算是社會科學,都沒有標準答案的,電腦都很難取代。


王徵全律師


這個問題很有趣啊。

客觀上說,機器人真做法官了,可能會有如下好處

第一,不會情緒化,不會有太多主觀因素干擾,那麼自然比人理性,這是毋庸置疑的。

第二,不會疲憊,因為精神狀態不佳犯錯,這樣會提高工作效率。

第三,只要設置恰當,可以旁類貫通,且知識上絕對無差錯,那麼自然會降低一些不應該的誤判。

第四,人類有太多人性的弱點,機器人不會去貪圖榮華富貴,可能會廉政的多。

但是是不是就會更公正呢?

個人認為,就要看大家對公正的理解了。

如果說,公正完全指的是一切依靠法條和程序來,不需要顧及受害人的情緒,行兇者的背景故事,社會的影響,輿論的狀態,那麼自然機器會比人公正。

但是如果公正是指,即使同樣都是殺人犯,我們總會有惻隱之心,區分惡劣,照顧受害者情緒,那麼機器當然不會有那麼一點點法官的個人主觀情緒。

個人認為,法律是冰冷的,需要不偏不倚,但是法律也是需要溫暖的,有時候也需要一些人文主義的關懷,有一些人之常情。

崑山案,如果是個機器人判定,我想最終也許不是你們想看的結果。

另外,機器也是可以人為干涉的,程序畢竟也是人設置的,法條最終也是人定的。

因此,最終所謂的公正,離不開的是每一個環節。

一個社會,隨著技術的發達,我相信很多行業的確都會慢慢的能夠被機器取代,律師這個職業也是,人腦哪有機器記得多,記得準,記得塊。

這也許是大趨勢,但是我想,公正本身還是無法依靠機器來完成的,因為機器的背後永遠都是人。

人心如果壞了,操控個機器還不是容易。


廖彩琳律師


答案是可行的。

盡力排除人的干擾是法制的終極追求,那麼讓機器人來審理案件無疑是公正的體現。

人類制定一系列的法律法規不就是為了懲戒惡行,宣揚正義嗎?可法律是無情的,人確是有血肉,本性也會有弊端。所以真正公正廉明的法官是很少的,別忘了法官也是官。官當久了,官僚主義、形式主義很容易就滋長出來。

因此為了避免法官的私心,以前的解決辦法就是儘量的完善法律條文,使精確和細緻化,以此來降低法官的腐敗和法官的權利,用法律來審判。想想看,細化條例是為了遏制法官的腐敗,既然如此,那還不如直接用人工智能來當法官。

其次,專門跟法律法規打交道的群體——律師。說實在的,律師這個群體其實最考驗人性了,因為他們知道哪些事在法律流程上是合法的,可卻不道德;相反他們也知道哪些道德的事,在法律上卻不合法。

如果法官不再是人類,那麼律師們更多的是把精力放在如何跟法律鬥智鬥勇,而不是跟法官。這樣一來可以不斷的完善我們的法律,也會不斷地促進律師團隊。這樣一來,律師會有一個更加重要的工作,這也是現在我國普遍缺少的,那就是知法懂法。

為什麼中國公民對法律的瞭解度如此低,因為我國人口如此多,每天的各種案件如此多。以至於公民只有在被告或原告的時候才會對法律有一些瞭解。也才知道原來自己做得這些事為有違法律的。

哪怕人工智能在審判中的定位只是輔助,只是分析類案推送、偏離預警等工作,也會很大程度地降低法官的負擔,提升透明度和效率。

一些人排斥人工智能是因為目前的人工智能仍不夠智能,它們無法替代人類做價值判斷。但技術都是一步一步取而代之的,而不是一步登天。

更多優質內容,請持續關注鎂客網~~


鎂客網


明確告訴你,不會。按你的提問就知道你法律絲毫不知。法律是對個案的解釋和延伸而形成的,同樣是殺人,法律規定有多種量刑方式。比如,刑法第48條 死刑只適用於罪行極其嚴重的犯罪分子。對於應當判處死刑的犯罪分子,如果不是必須立即執行的,可以判處死刑同時宣告緩期2年執行。

死刑除依法由最高人民法院判決的以外,都應當報請最高人民法院核准。死刑緩期執行的,可以由高級人民法院判決或者核准。如何界定這個犯罪分子所犯之罪是不是極其嚴重?如何判定是否必須立即執行?如何確定到底緩刑2年還是3年?

另外題主還不瞭解而今的人工智能,所謂人工智能,是指機器的深度學習,從而作出相近的判斷。至少目前的技術是根本無法做到精準判斷的。所謂深度學習,指的是向機器灌輸無數案例和計算方法。比如現今非常流行的人臉識別,規定一張人臉的128個特徵的3D數值,通過相對固定的計算方式,從兩張照片中求出近似值。打個通俗易懂的比方,一個人的鼻尖最高點實際參數為,32 78 56,通過算法正面識別值為31 78 50 ,從而得出近似值約為98,就是通常說的相似度。但機器並不知道他們是不是同一個人,需要人為給出一個界限,比如相似度90以上為同一人。所謂深度學習就是,當這個人側臉的時候,獲取的參數為32 78 x ,機器會通過以往識別過的第三參數求平均值來補充這個人缺失的第三參數。同一個國家甚至同一個洲,人臉參數差別都不會太大。所以已知一二參數加上模擬第三參數,可以得出70%左右的相似值,再加上其他點位的參數佐證,基本能獲取80-95%的相似度求得是否為本人。

說這些只為講明人工智能原理,以上參數均是舉例使用,不是實際數據。

也就是說,所謂人工智能,至少目前看來只是以後記憶力完美的人工智障。人工智能也永遠不可能做到像美國電影那樣,可以有自主知識甚至操縱人類。公正不偏私是可以的,畢竟它是機器,沒人和誰關係更好的可能。但它確實不知道怎麼去判斷一個罪犯到底該判多少年。看電影,請用些腦子。

-------人工智能企業技術主管權威發佈


活的不如一呮狗


看過三體作者劉慈欣寫的一篇科幻小說:某個高度發達的外星文明前來地球,結果來的不是入侵而是逃荒,原因是幾千年前他們就實現了機器人執法保證法律的絕對執行力,機器人擁有絕對執法權。他們實現了機械化生產,工人無人招聘,工人通過勞作獲得報酬成為第一批反抗軍,但是擁有絕對執法權的機器人消滅了叛亂。剩下了都是有錢人了吧?都擁有自己的公司和地盤,但是更有錢的人合法的繼承(或者說購買?)他們的公司。(更有錢的擁有你沒有的東西你就要購買吧?)最後他們星球所有的財產都合法的屬於一個人,其他人出了家門就是那個人的地方,而絕對執法的機器人就會把他們遣返回自己的房間,最後他們賣掉了自己最後的房子無處可去,機器人根據法律把他們全部當成非法入境者全部逐出星球。小說是誇張的手法,但是道理差不多,如果你說不讓機器人擁有絕對執法權或者在法律法規裡面留後門,那麼他和人為執法的差別最多是降低工作強度


名字到底能多長長長呢


首先從結論上來說,我認為不論再高性能的機器人登場,也不能夠讓機器人進行法官判決,最多是讓機器人進行判決輔助。因為機器人不擁有感情,沒有心。司法除了需要考慮到現存的法律規範、知識、過去的先例、學說研究之外,還需要顧及到社會公平、正義,需要感知受害人或者群體的情感。如果真的有那麼一天,或許那將是機器人統治人類之後!

社會原本就是一個“人”組成的團體,既然是人組成的,那就有各種思想的彙集,法律也是這種思想上升到一定境界的集合體,可以說是“道德”的昇華。比如不能夠偷盜這件事情,如果人人認為偷盜無所謂,那麼這個社會每人都是“神偷”。如果此時判決出現偷盜有罪,那麼會有很多人覺得不妥。再舉個例子,有人因為要贍養父母,而去偷盜,如果不去這樣做,家中的父母就會被餓死,那麼如果這樣做了就屬於觸犯了“法律”。這個要如何判決?相信設定好的機器人只是通過理性來看待,而忽略了感性的因素。擔當司法判決的人,通過感知社會上不同的情況,以法律為準繩進行“人為”判決,這點是電腦永遠也無法擔任的。

部分文章介紹:

《日本製造業“晚節末路”:真的只能淪為下游供應商?》

《雷克薩斯豪車隨意換!豐田即將推行新業務,汽車界變革來臨》

《年年虧錢,索尼為何還要堅持做手機?背後是老謀深算》


日本二三事


機器人設置完完整的法律程序,開機上電自檢,就會程序混亂,宕機。

我們的法律不完善是社會人皆知的,不然不會有那麼多人貪汙受賄,圖財害命。一個機器人法官的存在肯定會被壞人利用,而且利用的很徹底。真人法官,貪汙受賄還得分人看情況,你的官級不大,勢力不足,受賄底氣都不足,審判時還要看雙方的勢力財力,法官也是人,也要過日子,也有想平平安安的生活,但是機器人法官就不會了,不用擔心會被害,被要挾,不用擔心家人的安全,只要勢力要求設置弄死人的審判程序,審死個人都不會帶一點憐憫心的,可以說是“說死人就死人”,危害性比槍支還可怕。

那麼,沒有這種勢力要挾的存在參與,機器法官就真的公正嗎?仍然不會,原因在實際案件情況的複雜性,法律再完善也不能全部列舉窮盡所有的特殊情況,而且每一件案子都具有特例性,都不盡相同,真人法官都會頭疼的問題,機器人也會出現運算失常。

對於法律公平這件事,是最能體現人性的。機器就是機器,它沒有人性,機器可以乾的是不需要摻入人性感情的工作,比如流水線、搬運工作等等,像法律審判、感情調節等等融入感情人性的高級工作,機器做不了。

但是,利用真正具有人類感情意識的機器人進行法律審判,這將不是法律是否公平的問題了,因為你無法知道機器法官芯片裡到底在想幹什麼,是否他比真人法官懷著的心理還要恐怖一千倍,這將是一個惡魔,有著人類的情感,卻不用擔心家人的安危,“他”的所有優點就是我們的危險點。“他”可以無限控制情緒,不會情緒化,他可以激怒你,然後告你汙衊法官,判你的罪過,“他”可以不接受賄賂,“他”可以不顧家人,它的設計者,“他”可以假裝同情你,利用你,等等,曾經我們能想到的整人損招,他都會想到。

每一個生活在“他”周圍的人類時刻都在他的審判中。

所以說,一臺機器,不智能就不能夠充當法官,一旦智能了,又是人類的心頭病。法律與公平這個事,還是人類自己關起門來互掐比較好,不要讓惡魔摻進來。


快樂剪影


所謂法就是人類社會對於人類行為進行約束的條約,所謂律是人類在從事生產活動、生活活動中要遵循的法;兩個字合起來稱之為法律。從這一點上看法律一定是人來指定的規矩,也是隻有人類才可以理解的條約並應該由人類來執行和遵守的規矩。除了人類以外至今還沒有發現任何能夠稱之為法律的東西。AI技術如果在法律上應用只能存在兩種情況,一種是人類給它設定法律責任讓其去判斷人類行為對與否從而應用法律條文來做出決定;第二種是AI技術本身根據自己認定的科學依據作為標準對人類的行為的對錯予以判定。第一種最大的問題是AI技術是否可以完全理解人類賦予它法律條文的解釋意義,也可以說AI技術是否真的能夠理解人類的法律條文從而對這些行為做出正確的判斷。就現階段的發展狀況,這種充分理解顯然是不行的,我們人類自己還可以對同樣條文做出不一樣的解釋呢,何況機器。所以第一種應用顯然不可以實施。

再說第二種,機器根據自己的理解設立條約,機器的生產原理本身就是人類的產物,人類對科學還沒有達到百分之百的前提下,機器的認知就不可能是百分之百的正確的,一個不是完全正確的法律條文去約束人類的行為顯然也是一種悖論。所以第二種方案也不可實施。綜上所述,讓機器當法官就現階段是絕對不可以的。至於以後會不會那就不知道了,因為人類還在進化,機器還會推陳出新,社會還在進步,是否又一天機器法官能夠出庭也未嘗不可。這就是答案。謝謝閱讀


能量平衡德行天下


不要把人工智能想的太完美,首先我們都知道,法律推論的一個過程就是,大前提加小前提,等於判決結果,大前提就是法律規範,或者說法律規定,比如說,按法律規定,故意殺人的處什麼什麼,有期徒刑,無期徒刑,死刑,這就是法律規範,也就是大前提,它規定了什麼情況下會被判處什麼樣的刑罰,小前提就是事實,這個事實就是是否成立殺人,最後到最後的判決結果,是否成立是故意殺人罪其實。似乎很簡單,其實所有的事情,都貌似很簡單,比如說,如何把大象裝進一個冰箱裡,我們可以說,很簡單啊,打開冰箱,把大象放進冰箱,關上冰箱門。這不是很簡單嗎?到我們都知道問題的關鍵不在於此,法官判決的難點也不於此,它的難點就在於我們如何認定一個人是殺人,如何認定他是故意的、不構成正當防衛、緊急避險、具有期待可能性等等,比如故意,怎麼判斷,機器能判斷嗎?機器怎麼判斷故意呢?你讓一個程序員,他怎麼寫程序來,讓機器判斷他是否是故意呢?我們先看看學理對於故意的判斷,明知道會發生某種結果而追求或者放任,那麼如何判斷明知呢?他又怎麼判斷他的追求或者放任呢?這些機器他都不能判斷,人工智能也不能判斷,你就算告訴他1萬種,明知的情形,他依然不知道,1萬第10001種的情形到底是不是故意,那麼人工智能,在這種情況下,他有什麼用呢?

----------------------------------------------------------------------------

我前面的回答是用語音輸入的軟件自動打出來的,目前人工智能連語音輸入都不能很好的理解人的停頓,語境這些,你讓他去理解人與人之間的糾紛?很多人的回答都先預設一個立場,人工智能是無所不能的,然後再以人工智能的優點去批評法官的短處。如果是這樣的話,別說法官,世界上所有的職業都不應該存在。

建築工人可能會偷懶,讓無所不能的人工智能代替吧!

農民賣的菜可能有激素,讓人工智能種菜吧!

餐廳可能有地溝油,讓人工智能代替吧!

最後的最後,為了正義,消滅人類這種醜陋的生物吧?


lyn1123


關鍵是人類未必會放棄自己的控制慾,還因為機器不可能一步到位的完成自己的使命,要在不斷的試錯中找到可行的運行方式。再則還有魔高一尺,道高一丈之說,現在能做到的只是在統計上的概率比較,司法上的陪審團制度,是為了讓古板的律條和時代的背景更同步,使法律起到更重要的懲戒作用,建立統計學上的機器審案判決,會和社會的當下處境脫節的。大數據被神話了,因為它假設的條件都是變化的,而不是它希望的不變化的,也不可能是不變化的。就算人工智能到了可以自主思維的程度,又難以想象它的思維就是如人類一樣。真一樣了,就應該有人類不完美的缺陷,必要性就只是判案的成本了。真比人類完美了,又是無法想象的,完美的人類又該是什麼樣的?完美的法官如何對待不完美的社會和犯罪行為?完美就是我們以為的排除所有負能量的正能量。一個充滿正能量的社會還是不可想象的,正能量的社會不存在,卻要有一個正能量的法官,它肯定又是百分之百的脫離社會的,結果又難免是無事生非了。如果一個具有獨立思考能力的智能機器人法官,它的獨立是建立在數字上,是無情感因素的,那麼它理解的世界就是另類的,情感是種生存內在情緒表現,它是人類感官的反應,又是生存需要的判斷決定取捨。數字沒有這些人類的屬性具有的因素,數字運作下的結果未必就是人類能理解的結果,世界到底是數字的還是人類感官以為的?我們用數學解釋世界,是發明了數學的方法?還是發現了數學的存在就是原本的世界本源?如果是這樣,人類只是人類自己的一個認識世界的切入點,未必就是真實的客觀世界。而機器也許又選擇了一個不同於人類的切入點,純數學的直達客觀世界的本源。當人類把自己已知的數學知識交給機器,機器就按數學的方式去認識世界,而不是人類的感官和感受。如果數學是客觀世界的本質,兩個不同“物種”看到的世界一定是不一樣的?還是一樣的?大概我們會更會以為是不一樣的,甚至深信肯定是不一樣的,人死了是世界就不存在了,還是人不存在了?我們堅信的又是後者。一個是感官的,一個是數學的,就算有了結果,還有一個人類可以讀懂的問題,客觀這個謎團太大了,如何的互相交換各自理解的問題,又是一個更大的問題,人類相信客觀又做不到客觀,所以永遠的在哪自圓其說,自娛自樂。像洞穴中的蟻群一樣,只有智能機器人也許會幫我們搭起一座走向客觀的橋樑。如果讓它做一個法官,也太委屈了這位天才,法律和科學比較之下就太市俗了。它的最大企圖一定是想著怎麼去告訴人類,自己理解到的那個客觀世界,也許只能是數學的,不能是感官的立體的,關鍵是如何還能讓人類能“看到”一個不一樣的客觀世界,或者徹底的顛覆人類的認知,只相信和依賴感官,而把邏輯只作為一種手段,也許客觀只是邏輯的,如此應該更相信客觀只是數學的。


分享到:


相關文章: