自動文本摘要是機器學習算法正在努力的方向之一,微軟近期發(fā)布的相關論文也表明了這一趨勢。對于那些每天要閱讀大量文字信息的工作者們來說,這是一個值得慶賀的好消息。有調(diào)查顯示,這類工作者每天僅在閱讀信息上就要花費大約2.6小時。
相應的,Google Brain和倫敦帝國理工學院的一個團隊構建了一個系統(tǒng)——Pegasus(Pre-training with Extracted Gap-sentences for Abstractive Summarization Sequence-to-sequence),它使用了谷歌的變形金剛架構,結合了針對文本摘要能力的預訓練目標。據(jù)稱,它在12種測試中均達到了達到最先進的水平,這些測試包括了科學、故事、電子郵件、專利和立法法案等。不僅如此,它在材料缺乏的文本整合測試中也表現(xiàn)驚人。
正如研究人員指出的那樣,文本摘要的目的是總結輸入的文檔,生成其準確和簡潔的摘要。
抽象的摘要也不是簡單地從輸入的文本中復制粘貼文字的片段,而是會產(chǎn)生新單詞或總結重要信息,從而使輸出的語言保持流暢。
變形金剛是Google Brain (谷歌的人工智能研究部門)的研究人員在介紹的一種神經(jīng)結構。
它提取特征以及學習做出預測的方式和所有的深度神經(jīng)網(wǎng)絡一樣:神經(jīng)元被安排在相互連接的層中,這些層傳遞著輸入數(shù)據(jù)的信號,調(diào)整每個連接的權重。
但變形金剛架構又有其獨特之處:每個輸出元素和每個輸入元素都有連接,并動態(tài)計算它們之間的權重。
在測試中,研究小組選擇了表現(xiàn)最佳的Pegasus模型,該模型包含了5.68億個參數(shù)。它有兩個訓練材料。一個是從3.5億個網(wǎng)頁中提取出來的文本,有750GB。還有一個訓練材料則覆蓋了15億篇新聞類型的文章,總計3.8TB。研究人員說,在后者的情況下,他們用白名單域來植入網(wǎng)絡爬蟲工具,覆蓋了質(zhì)量參差不齊的內(nèi)容。
根據(jù)研究員的說法,Pegasus生成的摘要語言非常優(yōu)秀,流暢性和連貫性都達到了高水準。此外,在文本匱乏的環(huán)境中,即使只有100篇示例文章,它生成的摘要質(zhì)量與在20,000到200,000篇文章的完整數(shù)據(jù)集上訓練過的模型相當。
-
谷歌
+關注
關注
27文章
6254瀏覽量
111630 -
算法
+關注
關注
23文章
4786瀏覽量
98256 -
機器學習
+關注
關注
66文章
8558瀏覽量
137076
發(fā)布評論請先 登錄
嵌入式系統(tǒng)中的人工智能
應用案例 | Enclustra 水星Mercury+ XU1核心板將邊緣人工智能送入衛(wèi)星軌道
物理人工智能面臨的安全風險
【產(chǎn)品介紹】Altair RapidMiner數(shù)據(jù)分析與人工智能平臺
傲琪人工合成石墨片: 破解智能手機散熱困境的創(chuàng)新解決方案
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!
關于人工智能處理器的11個誤解
谷歌的人工智能實現(xiàn)了最先進的文本摘要性能
評論