人工智能與期刊發展融合的機遇、挑戰和實踐路徑研究

人工智能与期刊发展融合的机遇、挑战和实践路径研究

人工智能与期刊发展融合的机遇、挑战和实践路径研究

摘要:

【目的】探討人工智能與期刊發展融合的機遇、挑戰,以期構建二者融合的實踐路徑。

【方法】在問題導向下,打破學科壁壘,從信息學、系統學、倫理學、法學角度,以綜合調查法、文獻分析法等研究方法研究人工智能與期刊發展的融合。

【結果】人工智能與期刊發展融合的機遇主要得益於政治支持、技術支持、觀念支持和行為支持,而挑戰則來自於技術和倫理。為更好地實現人工智能與期刊發展的深度融合,要正確理解人工智能在期刊發展中的“雙刃劍”屬性,借鑑國外先進經驗,堅持“問題意識—佔有數據—制定算法”的問題解決進路,構建“系統平衡、倫理平衡、干預平衡”的規約保障機制。

【結論】人工智能技術與期刊發展融合涉及技術與倫理的雙重共振與重構,是行業發展的大勢所趨。

關鍵詞:人工智能(AI);期刊;技術;倫理;算法;大數據;平衡

1956年,“人工智能”(Artificial Intelligence,簡稱AI)一詞首次被提出,經過半個多世紀的發展,人工智能已成為當前炙手可熱的技術革新風口和產業轉型抓手。2017年7月,國務院印發《新一代人工智能發展規劃》,更將人工智能發展上升到國家戰略高度。期刊作為知識生產和文化傳播產業的重要前沿陣地,也應該在相關國家政策規劃的導向下,順應發展趨勢,積極探索與人工智能技術的融合應用。

在業內,人工智能也逐漸進入研究者的視野。比如有研究者針對人工智能對學術出版流程再造、學術不端行為檢測、出版模式創新、論文指派和第三方專業評議等方面進行了有益探索。只是囿於現實案例,目前人工智能與出版業融合的研究尚屬鳳毛麟角,更遑論人工智能與期刊融合的研究了。且這些研究多侷限於出版學、新聞學的切入角度與研究方法,而未曾意識到人工智能與新聞生產、出版發行等的融合是涉及信息學、系統學、倫理學、法學等多個學科的跨界合作,是技術與倫理的雙重共振,因此從宏觀把握人工智能與出版業發展的研究相當少見,而這也導致了相關領域研究的淺表化、碎片化和偏狹化。

上述場域都為研究人工智能與期刊發展融合提供了充分而迫切的現實環境和問題語境。因此本文秉承問題意識,打破學科壁壘,擬從信息學、系統學、倫理學、法學角度切入,探討人工智能與期刊融合的機遇、挑戰和實踐路徑,以期在理論上豐富期刊研究的內容和方向,在實踐中為期刊主動適應行業轉變,合理制定發展規劃,調整發展路徑,構建智能化期刊發展模式提供借鑑。

1.人工智能與期刊發展融合的機遇

1.1政策支持

1.1.1國家政策支持

從2015年提出《中國製造2025》,到2017年首次進入《政府工作報告》,再到2018年的大力推行;從產業到民生的多領域覆蓋,從實體經濟到精神文化的全方位升級,我們清晰地看到,當人工智能成為引領科技進步的重要驅動力時,我國緊追世界頂尖技術、加快技術創新、推動產業升級的國家意志。在國家政策支持下,科研投入的增加、人才紅利的注入預期和技術革新的摺疊效應,有利於加快人工智能與期刊的融合。

1.1.2行業政策支持

就行業政策而言,2017年4月,《文化部“十三五”時期文化發展改革規劃》提出要“大力培育基於大數據、雲計算、物聯網、人工智能等新技術的新型文化業態,形成文化產業新的增長點”。同年7月,《2016-2017中國數字出版產業年度報告》顯示,人工智能技術正在重塑出版流程。“語音錄入、機器協助校稿、機器寫作,增強用戶交互體驗等方興未艾,很多機器人正在我們這個行業得到逐步的應用。”這些行業政策成為催生人工智能與期刊深度融合的集結號。

1.2技術支持

如果說政策支持是人工智能與期刊深度融合的導向因素,那麼技術支持就是人工智能與期刊深度融合的可行基礎。技術支持包括兩個方面:一是人工智能基礎技術支持,二是人工智能行業技術支持。

1.2.1人工智能基礎技術支持

人工智能技術從對人腦的模仿到自主深度學習,從提高勞動效率到替代智人勞動,從對數據的簡單佔有到算法技術的利用,其技術進入了摺疊式地增長。所謂摺疊式的增長,舉例而言,就理論而言,一張紙可以無限摺疊,不斷重複之後,其厚度可以達到從地球到月球。而當摺疊厚度達到地球與月球距離的一半時,此時,只需要再摺疊一次就可以到達月球了。這就是摺疊效應的威力。而現在人工智能技術的發展也正向這個方向趨近。在人類的努力下,目前,人工智能技術實現了“‘數據—信息—知識—智慧—頓悟’的信息處理的智能化晉級管道”,而人工智能基礎技術的提升為其與行業技術融合奠定了基礎。

1.2.2人工智能行業技術支持

目前,人工智能在出版領域的技術介入與升級呈現上升和迅猛態勢。在《2016-2017中國數字出版產業年度報告》中就數字出版提到了兩個顯著特徵:一是數字教育出版生態圈逐步形成,二是學術期刊集群化向縱深發展。這兩個發展都離不開一個關鍵概念——“垂直領域”,而“垂直領域”的發展又離不開關鍵技術——人工智能。人工智能在出版領域的技術介入與升級表現在數字出版領域的典型例子是:人工智能審核相關稿件,並將關鍵詞、作者背景、重複率、所生產內容價值、適用受眾性等條件設為定量,根據一定的算法,決定是否通過,並決定是否向讀者推送,以及確定向哪些讀者推送等。人工智能技術在出版行業的介入與升級,使得知識傳播的專項服務、深度服務、私人訂製成為可能。

1.3觀念支持

人工智能環境下,“計算思維”得到有力普及。問題、數據、算法,是“計算思維”最重要的三個元素。就“計算思維”看來,所有問題的解決,基本上都是按照提出問題、佔有數據、設計算法這個基本思路。表現在期刊發展領域,人們根據自己擬解決的具體學術問題,從佔有相關專項數據而非傳統的綜合海量數據的平臺,進行垂直搜索、篩選,從而解決問題。從某種意義而言,正是這種“計算思維”的普及,倒逼著學術期刊走向集群化發展,“從綜合性全領域海量平臺向同一垂直領域(如科技、財經等)專業平臺轉變”。

1.4行為支持

近年來,我們看到世界頂級互聯網公司在“智能+經濟”模式下,在人工智能技術方面的主動進取與大力投入。如谷歌的谷歌大腦、IBM的Watson、微軟的Adam、Skype,又如百度的深度學習、華為的“達芬奇計劃”等,在文本獲取、自然語言處理、機器翻譯、深度學習、信息傳遞等與期刊發展密切相關領域進行了可視而有力的技術創新。我們也看到了和期刊發展聯繫緊密的知網、萬方等文獻數據庫在人工智能技術方面的積極探索。如2018年知網與貴州省大數據發展管理局聯合打造了國內首個人工智能大數據決策平臺“貴州大數據智庫平臺”,旨在“提供更為完善可靠的決策報告,真正實施政府科學決策和精準施政”。如龍源數字傳媒其人工智能平臺的“知識樹”系統“目前已能夠完成在數千萬篇文章中尋找已獲取授權的內容,然後基於編輯所定義的部分內容自動編輯剩餘內容,繼而對接亞馬遜等圖書電商平臺並將所編輯的內容輸出到各種數字出版分發渠道等一系列圖書編輯”。

世界頂級互聯網公司在人工智能方面的積極作為給“人工智能+”模式提供了技術支持;知網、龍源數字傳媒等文獻數據庫與出版實體或平臺與人工智能的積極融合,則為“人工智能+出版行業”模式提供了實驗與實踐的寶貴經驗。他們的嘗試與努力共同為人工智能與期刊發展的深度融合奠定了技術基礎,提供了行業示範。

2.人工智能與期刊發展融合的挑戰

2.1技術挑戰

2.1.1數據依賴與“人工愚蠢”

現代人認知方式的改變可能是導致“人工愚蠢”的一個非常重要的原因。以前人們獲得認知的途徑來自於個體對知識的學習與實踐、理解與體悟、內化與外顯,即來自於人類智慧,而“智慧是人類心性、智性和靈性經過上萬年多方因素的積累和沉澱,它是一種感覺、意識、品位、興趣、品質、信仰、情誼等的有機複雜體”。但是,人工智能的便利,使得人們能夠跨過知識積累,直接利用互聯網、大數據、雲計算、圖像識別等技術,通過搜索、篩選、概率、判斷來完成認知。只是,“人們藉助智能機器而實現的認知延展實際上超越了人的判斷能力,超越了整個社會總體的理解和掌控能力”,那麼這時,人類便會面臨一個如何在個體知識譜系一片空白的情況下進行合理決策的問題,也就是說海量數據—智能搜索—判斷決策這個行為模式很可能是在無知狀態下做出的選擇。正如有學者提出的擔心,“令人玩味的是,智能化時代人類最需要的可能不再是知識論而是無知學,即人們迫切需要了解的是怎樣在無知的情況下做出恰當的決策”。在知識爆炸的時代,因人工智能帶來的認知方式改變以及這種改變的便捷,反而有可能導致人類不耐知識的長期積累過程,而依賴智能平臺與大數據,追求短、平、快的即時認知,造成“人工愚蠢”。

這種“人工愚蠢”若出現在期刊出版領域就可能會遭遇以下尷尬:期刊同質化嚴重、期刊創新性匱乏、期刊自我評價與定位困難等。以選題策劃—內容採集—內容寫作—內容分發—效果反饋等相關出版生產環節為例,人工智能基於相關數據,設計算法,通過一系列的量化指標進行篩選,可能會出現以下狀況。一是選題上可能會過多地關注既有熱詞,從而缺乏前瞻性。而前瞻性,才是科學研究改變世界、推動社會進步的重要支點。一窩蜂去追逐所謂的熱點,只會造成期刊的同質化。二是在內容採集上很可能會因為計算機科學“重相關而輕因果”的數據蒐集特徵,造成內容採集數據的偏狹,影響信息收集的精準。三是在內容寫作上,有可能過於模式化、平面化、碎片化,缺乏創造性、因果關聯性和深度複雜性。而在寫作中,後者才是區別、評議作品的重要因素。著名作家韓少功曾在《當機器人成立作家協會》一文中探討了人工智能與文學的關係問題。他認為機器人能勝任一些“類型化”寫作,但在本質上,機器人寫作只是“一種高效的仿造手段,一種基於數據庫和樣本量的寄生性繁殖,機器人相對於文學的前沿探索而言,總是有慢一步,低一檔的性質,總是有隻能作為‘二梯隊’裡跟蹤者和複製者的性質”,“文學之所以區別於下棋和揪魔方等一般娛樂,就在於文學長於傳導價值觀。好作家之所以區別於一般‘文匠’,就在於前者總是能突破常規俗見,創造性地發現真善美,守護人間的情與義”。因此,在內容寫作上,如何樹立一種嵌入倫理責任的技術觀是在人工智能技術發展中應當思考的問題。四是在內容分發上,這種依賴於數據的個性化化和針對化的分發,很可能會導致不在數據篩選條件、甚至是不在數據庫範圍之內的潛在讀者的隱形;又或者因為濫用數據與數據推送,導致既有讀者的反感,從而造成既有讀者的流失。五是在效果反饋階段,利用算法蒐集、分析、處理相關反饋數據,這就涉及一個數據佔有量的問題。人工智能平臺佔有的數據越多,其得出的結果才越可能有效,反之,其結果可能會與實際情況產生大量偏差。而在實際工作中,僅以期刊為例,其發行渠道、發行量和讀者定位等因素都決定了其受眾有限,而這也必然會導致其反饋數據的有限。在這種有限的數據下進行相關分析得出的結論也很可能存疑。而這會造成期刊自我評價與定位的困難。

2.1.2人工智能生成物版權歸屬和責任認定的法理爭議

假設有一天,就像微軟小冰創作了100%人工智能詩集《陽光失了玻璃窗》,人工智能論文寫作機器人完成了一篇100%人工智能科技論文(綜述性的論文也許會成為此領域的突破口),其知識版權是屬於人工智能論文寫作機器人這個人工智能生成物,還是論文寫作機器人的製造商?又或者是機器人的購買者,還是使用者?抑或根本無所謂版權?另外,如果這些人工智能生成物創作的產品出了問題,其責任認定也是個問題。如《錦繡未央》剽竊案後牽出了幕後“神器”——“網文寫作軟件”,一秒成文,37小時能寫1億字。其剽竊行為的責任歸屬該如何劃定呢?《中華人民共和國著作權法》第十一條規定:“著作權屬於作者,本法另有規定的除外。創作作品的公民是作者。由法人或者其他組織主持,代表法人或者其他組織意志創作,並由法人或者其他組織承擔責任的作品,法人或者其他組織視為作者。”因此,從某種意義上而言,人工智能生成物版權歸屬和責任認定這一問題的根本糾結,是在法律上將人工智能定性為“工具”還是“虛擬人”的問題,是“一個把倫理學、本體論和認識論高度糾纏在一起的問題”,而這種法理上的爭議還有待界定與釐清。

2.1.3大數據≠全數據

我們需要打破的一個認識盲區就是,大數據不等於全數據。或囿於數據蒐集條件、或囿於蒐集者的認知、或囿於被調查者信息的隱私保護,相關大數據很可能是隻是碎片而非整體,這使得人工智能用以決策的數據依據本身就先天不足,從而導致決策結果失準。比如我們在期刊發展中涉及的基礎作者儲備、審稿專家篩選就可能因為涉及其個人隱私而影響數據收集和有用分析。又如在期刊精準推送中,就可能因涉及對讀者閱讀習慣相關數據攫取的規範與界限而影響數據佔有與結果決策。

2.2倫理挑戰

2.2.1信息裸奔下的數據安全

在期刊運作的各個環節都會涉及到大量信息數據,比如期刊信息、作者信息、評價信息、讀者信息、銷量信息、用戶行為信息等等,這些往往涉及隱私。在人工智能時代,信息近乎裸奔,如何從法理上重新界定隱私和保護隱私?期刊社如何佔有數據但不侵權?如何運用數據但不要控制數據以及數據背後的群體?數據提供者——如作者、審稿專家、讀者等——如何破除“透明人”的思想顧慮並實現法理上的自我保護?這需要從人工智能技術、行業發展、法律倫理等多個方面進行研究和探索,界定和釐清。

2.2.2算法不透明、不可解釋性和不可追責

人工智能的“算法歧視”案例時有出現,比如APP“大數據殺熟”。人工智能算法的不透明、不可解釋性主要來源於以下三個方面。一是人工智能算法的設計目的、數據運用、結果表徵等受制於開發者、設計者的主觀價值選擇。二是算法佔有的數據可能受制於既往數據的片面與偏頗。三是“深度學習”的開發使得算法越來越不透明。“深度學習”被業內人士戲稱為“當代鍊金術”:“處理數據的神經網絡,通常由數十個或者上百個(或者更多)神經元組成,然後用數層邏輯結構組織起來,運算過程及其複雜。智能程序自己給自己設定算法和權重,而最後為什麼輸出了某個決策,人類並不能完全理解。”。

這種算法的不透明、不可解釋性導致了算法的不可追責性。“人工智能造成的歧視和不公,很大程度上是對監管、異議、上訴等‘免疫’的,因為它非常不透明。”正如某些學者所言,“由於代碼的不透明,加之算法本身的自我學習和適應能力,使得‘將算法歧視歸責於開發者’變得很困難”。在人工智能與期刊發展融合中,在題材的策劃、稿件的選擇、讀者的定位、信息的反饋等過程中,要注意三個避免:一是要避免人工智能相關軟件受制於既往數據的片面和偏頗,比如既往稿件選擇往往帶有期刊傾向,那麼以這個數據為基礎進行的算法,當然會自帶算法歧視;二是要避免人工智能相關軟件受制於開發者與使用者的使用目標和評估體系,比如責編既往用稿的傾向、題材的好惡等;三是要避免人工智能相關軟件因為自主學習、自我設定算法和權重,作出令人費解的決策,比如題材上因為追逐熱點而忽略了前瞻,又如因強調條件符合甚至在既有條件上作相應引申而放棄潛在優秀作者。

2.2.3算法權力的邊界不明

人工智能時代的一個顯著特徵,就是數據具有話語權。“讓數據說話”成為佔據人們思維、解決所遇問題、甚至進行社會管理的重要的決策方法,並最終形成了“讓數據說話”的算法權力。這種算法權力因其對人的身份、認知、行為、傾向、情感乃至意志具有精準的認知與操控力而在政治、經濟、文化領域時有越界。比如“劍橋分析”軟件通過測驗手段暗中獲取用戶私人信息並將其用於有針對性地投放政治廣告等其他目的;又如某互聯網巨頭企業的首席科學家曾坦承,大公司的產品常常不是為了收入而做,而是為了用戶的數據而做,在某一個產品上收集的數據,會用於在另一個產品上獲利;至於文化領域,某些“抄襲神器”對創作的干擾、版權的侵略,程式化寫作機器對讀者閱讀品味的固化,個性化信息推送對讀者閱讀選擇權的干擾甚至侵權也時有發生。於是,這種算法權力的邊界問題日益成為學界關注的焦點。

要提醒和警惕“誰最有可能獲得和控制大數據,並把大數據作為一種不正當操控手段”,“機器需要給自己‘劃線’”,“要讓人工智能的製造者給自己的智能‘劃線’”。從倫理學角度而言,在人機混合系統發生的問題,往往不是人工智能技術本身的問題,而是人的問題。如何避免少數精英或大公司操控數據、控制他人?如何避免期刊在用稿、審稿、文章推送閱讀等方面的越界干擾?如何使得佔有大量數據的文獻數據庫與期刊發展實現雙贏而非互相制控?……這些問題都有待商討。

3.人工智能與期刊發展融合的實踐路徑

要實現人工智能與期刊發展的融合,是一場跨越學科,涉及問題認識、經驗總結、解決思路與實踐範式的綜合探索,是技術與倫理的雙重共振與重構。在筆者看來,這至少需要做到以下四點:

3.1正確理解人工智能在期刊發展中的“雙刃劍”屬性

我們應該正確理解人工智能在期刊發展中的“雙刃劍”屬性,對其可能提供的機遇和遭遇的困境從技術上、心態上、法律上、倫理上都做好積極的準備。比如人工智能對生產效率的提升與人類就業權的傾軋,數據帶來的決策便利與數據依賴導致的“人工愚蠢”,人工智能生成物的創新與追責法律空白,算法權力的權威與邊界,等等。只有明白了人工智能在期刊發展中的“雙刃劍”屬性,才能為二者的高質量融合、人機系統的和諧存在、工具理性與價值理性的平衡創造條件。

3.2借鑑國外人工智能與期刊發展融合的先進經驗

他山之石,可以攻玉。我們應該主動借鑑美國等人工智能研究前沿國家在人工智能與期刊發展融合方面的典型案例、經驗教訓與發展啟示,為解決本土問題拓展思路。這種經驗探索往往立足技術,兼顧倫理,指向社會,惠及行業。大致可分為宏觀層面經驗啟示和微觀層面經驗啟示。

第一,宏觀層面經驗啟示。(1)比如人工智能安全法理方面的經驗。歐盟率先在數據和算法安全領域做出了立法的嘗試,2016年4月27日歐洲議會通過、2018年5月生效的《一般數據保護條例》對個人數據的收集和存儲使用,規定了更高的透明度與管控。它規定,商業公司有責任公開“影響個人的重大決策”是否由機器自動做出,且做出的決策必須要“可以解釋”(explainable)。根據這項“史上最嚴的隱私條例”,違規最高罰金可達公司全球總收益的4%或2000萬歐元。在老牌科技出版巨頭Elsevier、學術出版領域的內容分銷商英捷特(Ingenta)等紛紛表現出對數據與信息的濃烈興趣與加速佔有時,這項法例的執行會有利於期刊領域嵌入人工智能技術後,對作者、讀者、審稿專家、科研成果等隱私或信息的保護,其在信息收集上的“最少必須”原則,也會對大型學術出版集團形成數字利維坦主義起到防範作用。(2)比如人工智能政策制定與規劃執行方面的經驗。在人工智能研究領域有著超級話語權的美國,對人工智能領域,美國政府採取輕干預、重投資政策。2016 年10 月,其發佈的《國家人工智能研究與發展戰略規劃》,專門有人工智能安全的論述,提出人工智能服務於國家安全戰略,以及對人工智能系統自身的安全和系統行為的可解釋性等方面的保障措施。人工智能期刊出版領域,比如Elsevier也是通過“不斷收購來為數據分析鋪路(比如Mendeley,Plum),其中也包括一些強大的內容源定位系統(比如bePress,SSRN)”。(3)比如人機系統出現問題後的法律追責。為應對人工智能的普遍應用可能對社會運行產生的衝擊,美國立法機構已經著手考慮,對人工智能技術可能在刑事司法等領域的濫用,予以必要規制。而這將對期刊出版領域的人工智能生成物版權歸屬和責任認定提供法律依據。(4)比如對人機勞動關係的界定。德國政府在推行“改善勞動條件計劃”中,規定有危險的崗位由機器人代替。這對於人工智能嵌入期刊出版領域後,人機交互協作系統的分工與平衡具有參考價值。

第二,微觀層面經驗啟示。這主要表現為人工智能最新技術在期刊出版領域的應用。(1)在期刊審稿領域的經驗。如2016年年底,Aries系統公司宣佈將元文獻計量智能(Meta Bibliometric Intelligence)集成到其編輯經理(Editorial Manager)這一學術刊物稿件和同行評審跟蹤系統中,以幫助科技出版商和編輯在同行評審期間利用人工智能估算一篇稿件的未來引用次數和影響。多項測試標明,該項技術在新稿件影響力評估的速度、準確性和一致性方面遠遠超過了人的能力,尤其是在識別 “超級明星文章”——代表著前1%的高影響因子論文時,它的表現比同組編輯好2.2倍,這可以幫助編輯做出更加準確的論文出版決策。(2)在期刊信息採集與搜索領域的經驗。隨著人工智能時代的到來,Elsevier已經將其發展戰略有意識地從內容許可轉向預印本、分析、工作流和決策支持,將自己描述為一個“信息和分析”公司,這些努力使其成為開放獲取市場的重要角色,其所有的期刊和圖書資源都支持文本與數據挖掘(Text and Data Mining)。(3)在期刊內容分發領域的經驗。學術出版商泰勒-弗朗西斯(Taylor & Francis)與丹麥人工智能創業公司UNSILO合作,“目標是基於在線用戶已經閱讀的內容向他們推薦其他內容,最終實現讓任何內容都能通過機器學習與知識網絡建立語義聯繫”。這些具有行業領先地位的科技出版或內容分發期刊出版領域對人工智能技術極具前瞻的選擇、應用、反饋、調整都為中國期刊發展過程中嵌入人工智能技術提供了極具參考價值的借鑑樣本。

3.3堅持“問題意識—佔有數據—制定算法”的問題解決進路

問題作先行,數據是基礎,算法是關鍵。在考慮人工智能與期刊發展融合過程中,我們應該也進一步普及“計算思維”。堅持問題導向,然後蒐集、分析數據,設計合理算法,從而解決問題。人工智能與期刊發展過程中遇到的大大小小的技術、法律、倫理的問題,都可以嘗試按照這種問題解決進路進行解決。

3.4構建“系統平衡、倫理平衡、干預平衡”的規約保障機制

要正確處理人工智能與期刊發展融合過程中的三個平衡:一是人機交互協作的系統平衡,二是工具理性與價值理性之間的倫理平衡,三是涵蓋“干預原則、干預程度、干預路徑”三項內容的干預平衡。

3.4.1人機交互協作的系統平衡

人工智能在期刊領域的嵌入重新定義了勞動主體,人機交互協作系統成為新的勞動主體登上歷史舞臺。隨著人工智能在期刊用戶系統、內容生產系統、分發推送系統等多領域的覆蓋,人工智能與智人從分工到權責、從認知到行為、從決策到後果,都相互滲透、交織、黏連,人們越來越難以釐清某種認知、行為、權利、責任應該歸屬於某一智人或是某一人工智能,而更易於見到上述因素背後的人機交互協作系統,因此人機交互協作系統的平衡實現便對期刊的智能化具有重要意義了。

3.4.2工具理性與價值理性之間的倫理平衡

技術的顛覆往往引發倫理的共振。人工智能在期刊出版領域的強勢技術介入,在顯示技術力量的同時也對倫理提出了新要求。比如數據收集與數據共享之間的平衡,佔據大量期刊數據資源的內容分發商對學術成果傳播和商業利益攫取的平衡等。2012年,學術界掀起了對Elsevier的大型抵制運動,16000餘名科學家在名為“知識的代價”(The Cost of Knowledge)的網站上籤署了不給Elsevier旗下期刊投稿、審稿和擔任編輯的承諾書,以期推動科研成果變得更透明化和更易獲取。“知識的代價”到底該由誰決定?又該如何定價?工具理性與價值理性之間的倫理平衡該如何實現?這都值得我們認真思考。

3.4.3涵蓋“干預原則、干預程度、干預路徑”等三項內容的干預平衡

就干預原則而言,至少應該包括開放包容、公平正義、安全穩定、合理引導等四項內容。人工智能技術嵌入期刊研究方興未艾,技術上的無限可能、倫理上的公平正義、社會意義上的安全穩定、策略上的合理引導是生成這一干預原則的重要原因。

就干預程度而言,宏觀調控、可控監管、保持活力是其努力方向。從某種程度而言,干預程度的合理把握是攸關人工智能與期刊融合成敗的關鍵。它以對人工智能技術介入期刊的科學理性認識為基礎,以對人工智能技術介入期刊的行業監管、法律規約、倫理構建為抓手,以對人工智能技術介入期刊的合理期待為依歸,宏觀調控、可控監管、保持活力是合理把握干預程度的三個重要旨歸。

就干預路徑而言,主要有三條:技術路徑、法律路徑和倫理路徑。技術先行、法律保障、倫理規約,只有三管齊下,齊頭並進,才能保證人工智能與期刊融合健康發展。

人工智能与期刊发展融合的机遇、挑战和实践路径研究

圖1 人工智能與期刊發展融合的實踐路徑

4.餘論

人工智能與期刊發展的深度融合,是期刊行業因為技術進步做出的主動選擇,也是行業發展的大勢所趨,其融合過程也是技術與倫理的雙重共振與重構過程。我們探討人工智能技術與期刊融合過程中出現的機遇與挑戰,其目的不是為了禁止使用該技術,而是為了更好地控制該技術;不是為了在工具理性和價值理性之間站隊,而是促使二者互補平衡;不是為了終結,而是為了更好地解放。正如有學者所言,“人工智能是一場開放性的人類科技—倫理試驗,其價值反省與倫理追問具有未完成性”。面對這一進行時態,開放的心態、審慎的態度、主動的介入、樂觀的期待應該是我們迎接人工智能時代到來的最合適的姿態!

人工智能与期刊发展融合的机遇、挑战和实践路径研究

點擊左下角“閱讀原文”,查看原文內容

本公眾號選發有優質傳播價值的內容,可能會對內容做部分刪節修改。我們極其尊重優質原創內容的版權,如本號所選內容未能聯繫到原文作者本人,請作者和我們聯繫。

人工智能与期刊发展融合的机遇、挑战和实践路径研究


分享到:


相關文章: