撤稿信息 | 武漢科技大學計算機科學與技術學院學者論文被撤稿

2020年4月1日,《Multimedia Tools and Applications》(2018 IF=2.101)發佈撤稿通知,署名武漢科技大學計算機科學與技術學院湖北省智能信息處理與實時工業系統重點實驗室學者於2017年12月發表在該刊的一篇論文《A novel semantic smoothing method based on log-bilinear model for bayesian text classification》被撤稿,該論文第一作者Jing Luo,通訊作者為Maofu Liu(英譯:劉茂福)。

撤稿原因:涉及抄襲文章、撤回日期/其他未知(Plagiarism of Article、Date of Retraction/Other Unknown)。

基金支持:文章顯示,本研究得到國家自然科學基金(61572223)的資助。

撤稿通知原文

https://doi.org/10.1007/s11042-017-5467-2

文章原文

https://doi.org/10.1007/s11042-017-5467-2

撤稿信息 | 武漢科技大學計算機科學與技術學院學者論文被撤稿

撤稿通知顯示

“主編收回了這篇文章,這篇文章是作為特刊‘使用大數據的多源弱數據管理’的一部分發表的,因為它顯示了大量的文本重疊,最明顯的是與引用的文章:Zhou, X., Zhang, X. & Hu, X. Semantic smoothing for Bayesian text classification with small training data. Proceedings of the 2008 SIAM International Conference on Data Mining (2008).
https://doi.org/10.1137/1.9781611972788.26所有作者都同意這一撤回。”

該文摘要(英譯)

“建立貝葉斯文本分類器面臨的一個主要挑戰是數據稀疏性問題,特別是在訓練數據量很小的情況下。最近,對數雙線性語言模型作為神經語言模型的一種形式,已被證明是對抗數據稀疏性的有效方法。為了提高樸素貝葉斯分類器的性能,提出了一種基於對數雙線性模型的語義平滑方法。其核心思想是學習面向語義的詞彙表達,並在此基礎上進行語義平滑。採用噪聲壓縮估計進行快速估計大型文件收集培訓。我們在三個測試集(20NG、Reuters和WebKB)上進行了綜合實驗,以比較我們的平滑方法與其他方法。實驗結果表明,所提出的方法不僅優於兩種常用的貝葉斯文本分類平滑方法,在訓練文檔規模較小的情況下,也優於目前最先進的支持向量機分類器。”

(注:“撤稿觀察”-追蹤撤稿事件,營造誠信學術環境;原創作品未經許可請勿轉載,歡迎分享轉發。)


分享到:


相關文章: