11.26 AI每日精選:聯發科首發雙載波芯片天璣1000;訊飛註冊資本達22億

AI每日精選:聯發科首發雙載波芯片天璣1000;訊飛註冊資本達22億

以下新聞選自人工智能信息平臺“機器之心Pro”:花最少的時間,看最重要的新聞。

產品應用

1.聯發科發佈首款雙模雙載波5G芯片天璣1000

AI每日精選:聯發科首發雙載波芯片天璣1000;訊飛註冊資本達22億

機器之心 11 月 26 日消息,聯發科今日發佈旗艦級 5G 單芯片天璣 1000,它是首款 5G 雙模雙載波聚合芯片,相比友商旗艦,5G 信號覆蓋提升 30%,2 倍網絡速度。它同時支持 WiFi6,支持 5G+5G 雙卡雙待。 天璣 1000 首發 4 核 A77 CPU 和 Mali G77 GPU,安兔兔 V8 版本下跑分達 51 萬分,排名第一。它還搭載全新的 APU 架構 3.0,採用兩個大核,3 小核,一個微小核,性能比上代提升 2.5 倍,能效提升 40%。AI 跑分刷新蘇黎世跑分榜,達 5.6 萬,排名第一。

大公司新聞

1.科大訊飛股份有限公司註冊資本新增至約22億

AI每日精選:聯發科首發雙載波芯片天璣1000;訊飛註冊資本達22億

天眼查數據顯示,11 月 25 日,科大訊飛股份有限公司發生工商變更,其註冊資本由原來的約 21 億,新增至約 22 億。科大訊飛股份有限公司成立於 1999 年 12 月,法定代表人、最終受益人為董事長劉慶峰,經營範圍包括增值電信業務,專業技術人員培訓等。

2.微軟和能源技術公司 Baker Hughes 宣佈建立 AI 合作伙伴關係

工程專家稱人工智能可以幫助公司提高效率,減少碳足跡並幫助確保工人安全。現在,微軟正與能源行業技術公司 Baker Hughes 和 AI 開發人員 C3.ai 合作,通過其 Azure 雲計算平臺將企業 AI 技術引入能源行業。兩家公司表示,他們的聯盟將使客戶能夠簡化旨在解決庫存,能源管理,預測性維護和設備可靠性等問題的 AI 的採用。微軟全球商業業務執行副總裁 Judson Athoff 在新聞中說:「對於能源行業來說,這是一個重大變革的時代,具有遠見的公司正在探索如何利用技術使他們的運營更清潔,更安全,更高效。」

投融資

1.智能運維產品提供商「擎創科技」完成億元級B輪融資

11 月 26 日消息,智能運維產品提供商「擎創科技(EOITEK)」已於今年 7 月完成億元級別的 B 輪融資。本輪融資由新加坡淡馬錫旗下的科技基金 ST Telemedia 領投,由擎創既有股東火山石資本、元璟資本和晨暉創投跟投,由多維海拓擔任獨家財務顧問。目前,「擎創科技」已完成在主要關鍵行業的燈塔客戶開拓工作,因此本輪融資將更多地投放在擴大市場規模的方向上。

研究與技術

1.新加坡國立大學新研究,用於柔性軟機器人的新型金屬材料

近日,一個由新加坡國立大學研究人員組成的團隊已開發出一種新穎的方法以製造用於軟機器人的新型金屬基材料。這種新材料將鉑等金屬與燒過的紙(灰燼)結合在一起,具有更強的功能同時也保持了傳統紙和塑料的可摺疊性和輕便性。該新材料的重量是紙的一半,這也使其具有更高的功率效率。這些特性使這種材料成為製造柔韌而輕巧的假肢的強有力的材料選擇,例如使用其材料的假肢重量比傳統假肢輕 60%。這樣的假肢可以提供實時的應變感測,以反饋有關其彎曲程度的信息,從而為用戶提供更好的控制和即時信息。同時還無需外部傳感器,也避免了將給假肢增加不必要的重量。(Science Daily )

2.亞馬遜研究人員使用 NLP 數據集來改善 Alexa 的回答

去年 Adobe 進行的一項調查顯示,超過 50%的美國智能音箱用戶說他們會向自己的設備提問題。面對日新月異的智能音箱市場,谷歌、蘋果和微軟等技術巨頭都希望提高各自語音助手對問題的回答質量,因此他們試圖解決各自在自然語言處理(NLP)技術上的不足。為此,亞馬遜科學家最近訓練了一種 NLP 模型,能從一組比當前的基線更好的答案候選中選擇問題的答案。他們說,他們的方法「轉換和調整(TANDA)」基於谷歌的 Transformer,可以有效地快速適應僅僅只有少量培訓數據的新領域,同時獲得比傳統技術更高的準確性。(VentureBeat)

3.斯坦福大學、京都大學、佐治亞理工學院聯合新作,「自動中和文本中的主觀偏見」

近日,斯坦福大學、京都大學、喬治亞理工學院聯合推出新研究論文,該研究概述道:新聞,百科全書和一些社交媒體等文字工作者都在努力在文本中體現客觀。但是,偏見不可避免地會以不適當的主觀性形式出現,通過不同場景,預先設定真相,並由此產生疑問等等。這種偏見破壞我們的集體信任並加劇社會衝突。該研究介紹了一種新穎的針對生成的自然語言進行測試的平臺:自動地將不合適的主觀文本變成中性的觀點(「中和」有偏見的文本)。我們還提供有偏見的語言的第一個平行語料庫。該語料庫包含 180,000 個句子對,源自維基百科的編輯刪除了有偏見的句子中的各種構架,預設和態度。最後,我們提出,該任務有兩個強大的編碼器 / 解碼器基準。一個簡單但不透明的 CONCURRENT 系統使用 BERT 編碼器來識別主觀單詞,作為生成的一部分處理。另一項可解釋且可控制的模塊算法使用(1)基於 BERT 的分類器將這些步驟分開識別有問題的單詞,以及(2)嵌入新穎的聯接,分類器可以通過該聯接來編輯隱藏狀態編碼器的跨四個領域(百科全書,新聞頭條,書籍和政治書籍)。研究人員認為,這些算法是自動識別和減少偏差的第一步。

4.Quoc Le 等人新研究論文,「對抗樣本可改善圖像識別」

近日,Quoc Le再推新研究論文,在題為“對抗樣本改善圖像識別”一文中,其與其他研究人員針對研究概述道:對抗樣本通常被認為會威脅到 ConvNets。在這裡,我們提出相反觀點:以正確的方式能利用對抗樣本改善圖像識別模型。我們提出 AdvProp,一種增強的對抗訓練將對抗性樣本作為其他樣本,以防止過度擬合。當模型更大時,我們證明 AdvProp 改進了各種模型,在各種圖像識別任務上表現更好。例如,通過應用 AdvProp 使用 ImageNet 上的最新 EfficientNet-B7,我們實現 ImageNet 的顯著改善(+ 0.7%),ImageNet-C(+6.5%),ImageNet-A(+7.0%),StylizedImageNet(+ 4.8%)。藉助增強的 EfficientNet-B8,我們的方法實現了最新的 85.5%ImageNet top-1 精度,且無需額外數據。

5.使用 GPU 加速無監督降維算法 TSNE:從幾小時到幾秒

TSNE(T 分佈隨機鄰域嵌入)是一種流行的無監督降維算法,其用途非常廣泛,包括神經病學,圖像相似性和可視化神經網絡。但它的最大缺點是在大多數可用的實現中處理時間很長。RAPIDS 現在基於 CannyLab 開發的基於 GPU 的 Barnes-Hut 方法,提供了 GPU 加速的快速 TSNE。RAPIDS 的 cuML 機器學習庫中的 TSNE 的運行速度比相應的 CPU 實施快 2,000 倍,並且比當前 GPU 版本使用的 GPU 內存少 30%。一名名為 Daniel Han-Chen 的機器學習愛好者在其博客介紹了一些相關用例示例,然後將 cuML 的 GPU TSNE 實現與 scikit-learn 進行比較的基準測試。最後,他詳細解釋了 TSNE 的工作方式以及如何在 cuML 中對其進行優化以在 GPU 上運行。


分享到:


相關文章: