將模型稱(chēng)為 “視覺(jué)語(yǔ)言” 模型是什么意思?一個(gè)結(jié)合了視覺(jué)和語(yǔ)言模態(tài)的模型?但這到底是什么意思呢?
2023-03-03 09:49:37
1578 
參數(shù)規(guī)模大,訓(xùn)練數(shù)據(jù)規(guī)模大。以GPT3為例,GPT3的參數(shù)量為1750億,訓(xùn)練數(shù)據(jù)量達(dá)到了570GB。進(jìn)而,訓(xùn)練大規(guī)模語(yǔ)言模型面臨兩個(gè)主要挑戰(zhàn):顯存效率和計(jì)算效率。 現(xiàn)在業(yè)界的大語(yǔ)言模型都是
2023-07-10 09:13:57
14746 
近日,地平線成功在旭日3中的BPU??計(jì)算單元上,部署運(yùn)行參數(shù)規(guī)模高達(dá)14億的大語(yǔ)言模型(Large Language Model , LLM)。這不僅是業(yè)界在端側(cè)成功部署大模型的一次突破性實(shí)踐,更驗(yàn)證了BPU??對(duì)先進(jìn)神經(jīng)網(wǎng)絡(luò)算法的高效支持,為大模型在端側(cè)實(shí)現(xiàn)產(chǎn)品級(jí)應(yīng)用拓展了更廣闊的想象空間。
2023-09-12 13:36:00
2467 
多方位全面升級(jí),并宣布在該體系下一系列的大模型產(chǎn)品更新和落地成果。 ? “日日新SenseNova ”全面升級(jí)及應(yīng)用落地 ? 商湯科技發(fā)布的“商量”2.0版本,是一個(gè)千億級(jí)參數(shù)的自然語(yǔ)言處理模型,它突破了大語(yǔ)言模型輸入長(zhǎng)度的限制,推出不同參數(shù)量級(jí)的模型版本,可完
2023-07-13 00:13:00
3935 
曼·卡頓等其他品牌。
毫無(wú)意外,微軟在2017年Build開(kāi)發(fā)者大會(huì)上推出了智能音箱。這也意味著,繼亞馬遜和谷歌之后,另一個(gè)科技巨頭試圖在智能音箱領(lǐng)域手握風(fēng)云。
美國(guó)當(dāng)?shù)貢r(shí)間5月10日
2017-05-21 09:33:09
輸入。
5月12日消息,在Build 2017開(kāi)發(fā)者大會(huì)上,微軟推出了Fluent Design,它是一個(gè)設(shè)計(jì)系統(tǒng),可以方便開(kāi)發(fā)者跨設(shè)備開(kāi)發(fā)用戶(hù)界面。從許多方面看,F(xiàn)luent Design
2017-05-13 09:28:46
Smith表示,他為了這個(gè)消息一直等到凌晨2點(diǎn),很高興看到商務(wù)部宣布的結(jié)果?! rad Smith表示,這次中國(guó)商務(wù)部的審批有兩點(diǎn)重要意義。其一這對(duì)微軟諾基亞來(lái)說(shuō)是有里程碑意義的事件,“因?yàn)橹挥兄袊?guó)批準(zhǔn)
2017-11-27 11:30:06
微軟開(kāi)源了 Checked C[1] ,這是一個(gè) C 語(yǔ)言的擴(kuò)展版本,可以用于解決 C 語(yǔ)言中的一系列安全相關(guān)的隱患。正如其名字所示,Checked C 為 C 語(yǔ)言增加了檢查。這個(gè)檢查可以幫助
2016-06-20 17:26:16
發(fā)表的微博稱(chēng),微軟計(jì)劃在2013年推出Surface RT 2平板電腦。這款平板電腦的顯示屏尺寸比10.6英寸Windows RT平板電腦稍微小一些。傳言稱(chēng),這種平板電腦將配置高通的芯片組,目前
2012-12-03 09:32:54
`微軟近日宣布與戴爾達(dá)成一項(xiàng)合作協(xié)議,從下個(gè)月起,企業(yè)客戶(hù)可以通過(guò)戴爾的企業(yè)銷(xiāo)售部門(mén)購(gòu)買(mǎi)Surface Pro平板電腦和Surface配件。這是微軟與惠普、埃森哲等公司合作后,在企業(yè)市場(chǎng)推廣其平板
2017-06-23 14:44:04
導(dǎo)讀:微軟今天宣布,其會(huì)話語(yǔ)音識(shí)別系統(tǒng)的誤率達(dá)到了5.1%,是目前為止最低的。
[img][/img]
這一數(shù)據(jù)超過(guò)了微軟人工智能和研究團(tuán)隊(duì)去年5.9%的誤差率,并將其準(zhǔn)確性與專(zhuān)業(yè)的人
2017-08-23 09:18:35
MathWorks日前宣布推出 2011b版 (R2011b) MATLAB 和 Simulink 產(chǎn)品系列。此版本新引入了 Simulink Code Inspector,它可以實(shí)現(xiàn)
2011-09-08 15:45:03
特定任務(wù)對(duì)模型進(jìn)行微調(diào)。這種方法的成功不僅是自然語(yǔ)言處理發(fā)展的一個(gè)轉(zhuǎn)折點(diǎn),還為許多現(xiàn)實(shí)世界的應(yīng)用場(chǎng)帶來(lái)了前所未有的性能提升。從廣為人知的GPT到BERT,預(yù)訓(xùn)練的模型參數(shù)量越來(lái)越大預(yù)訓(xùn)練數(shù)據(jù)越來(lái)越多
2024-05-05 12:17:03
類(lèi)任務(wù)上表現(xiàn)出色,甚至在零樣本條件下也能取得良好效果。另一類(lèi)則需要逐步推理才能完成的任務(wù),類(lèi)似于人類(lèi)的系統(tǒng)2,如數(shù)字推理等。然而,隨著參數(shù)量的增加,大語(yǔ)言模型在這類(lèi)任務(wù)上并未出現(xiàn)質(zhì)的飛躍,除非有精心
2024-05-07 17:21:45
度、多角度的解釋或回答。通過(guò)這些評(píng)測(cè)任務(wù),我們能夠全面而深入地了解模型在中文語(yǔ)言理解方面的實(shí)際能力。
常識(shí)百科類(lèi)評(píng)測(cè)任務(wù):此類(lèi)評(píng)測(cè)任務(wù)主要評(píng)估大語(yǔ)言模型在知識(shí)覆蓋廣度方面的表現(xiàn)。一個(gè)優(yōu)秀的大語(yǔ)言模型
2024-05-07 17:12:40
具有以下三個(gè)非常顯著的特點(diǎn),一個(gè)就是模型參數(shù)規(guī)模更大,訓(xùn)練數(shù)據(jù)更多。當(dāng)然,對(duì)計(jì)算資源的要求也會(huì)更高。
構(gòu)建強(qiáng)大的語(yǔ)言模型時(shí),模型的選型至關(guān)重要,涉及模型的基本架構(gòu),包括模型的主要結(jié)構(gòu),表策策略,激活
2024-05-07 17:10:27
維基百科、網(wǎng)頁(yè)內(nèi)容和書(shū)籍等,不僅掌握了語(yǔ)言的語(yǔ)法、語(yǔ)義和上下文信息,還能生成結(jié)構(gòu)連貫、語(yǔ)義合理的句子和段落。大語(yǔ)言模型的一個(gè)顯著特點(diǎn)是其龐大的參數(shù)量,已達(dá)數(shù)億甚至數(shù)十億級(jí)別。這種規(guī)模賦予模型強(qiáng)大的表示和學(xué)習(xí)
2024-05-04 23:55:44
前夕宣布換標(biāo)也證明了微軟對(duì)這款新品的支持力度。微軟前后兩代Logo對(duì)比(圖片來(lái)自網(wǎng)絡(luò)) 我們注意到,和之前傳聞不同的是微軟的新Logo左側(cè)帶有四個(gè)色塊,最后的f和t字相連接,而之前的Logo則將o和s連接。新的Logo將逐漸在微軟各個(gè)新品中開(kāi)始使用,而舊版Logo依舊會(huì)繼續(xù)沿用一段時(shí)間。`
2012-08-28 09:18:48
的一系列變革。
大語(yǔ)言模型是深度學(xué)習(xí)的應(yīng)用之一,可以認(rèn)為,這些模型的目標(biāo)是模擬人類(lèi)交流,為了理解和生成人類(lèi)語(yǔ)言。為此,模型需要在大量文本數(shù)據(jù)上訓(xùn)練,用來(lái)理解人類(lèi)語(yǔ)言,進(jìn)而,實(shí)現(xiàn)與人類(lèi)的無(wú)障礙對(duì)話交流
2024-05-13 00:09:37
解鎖
我理解的是基于深度學(xué)習(xí),需要訓(xùn)練各種數(shù)據(jù)知識(shí)最后生成自己的的語(yǔ)言理解和能力的交互模型。
對(duì)于常說(shuō)的RNN是處理短序列的數(shù)據(jù)時(shí)表現(xiàn)出色,耳真正厲害的是Transformer,此框架被推出后直接
2024-05-12 23:57:34
8推進(jìn)造成正常放緩?! 「鶕?jù)文件記錄顯示,比爾·蓋MAX3232EUE+T茨正在不斷減持手中的微軟股票 2007年,比爾·蓋茨一共售出微軟股票8000萬(wàn)股,價(jià)值達(dá)25.4億美元?! ?008年8月
2012-10-25 16:21:19
耦合電感有2種模型1.告知耦合電感的2個(gè)自感、互感以及耦合系數(shù)2.匝數(shù)比、自感量、漏感量(相當(dāng)于一個(gè)理想變壓器原邊和副邊的電感量)請(qǐng)問(wèn)我已知耦合電感的模型2的三個(gè)參數(shù)如何將其轉(zhuǎn)換為耦合電感模型1的3個(gè)參數(shù)2種模型間參數(shù)是如何轉(zhuǎn)換的呢?求求大佬幫助
2020-01-03 14:55:51
部真正具有可用性的PC。當(dāng)然售價(jià)仍然保持35刀。下面來(lái)一段有RS的DesignSpark團(tuán)隊(duì)發(fā)布的樹(shù)莓派2的介紹視頻:同時(shí)微軟同時(shí)推出了Windows 10 for Raspberry Pi 2,它將
2015-02-02 21:56:26
發(fā)生了什么?跟小麥一起來(lái)看看:1、寒武紀(jì)完成數(shù)億美元B輪融資,投后估值25億美元全球智能芯片領(lǐng)域首個(gè)獨(dú)角獸寒武紀(jì)宣布完成數(shù)億美元的B輪融資,投后整體估值達(dá)25億美元。寒武紀(jì)科技是全球第一個(gè)成功流片并
2018-06-25 11:32:52
在2016年10月發(fā)布Surface Book 2-in-1之后,微軟推出了一個(gè)“Mcabook到Surface Book”網(wǎng)站,為考慮切換的用戶(hù)提供切換指南。微軟現(xiàn)在已更新該網(wǎng)站上Mcabook到Surface遷移助手的詳細(xì)信息。有了這個(gè)小幫手,你會(huì)考慮拋棄蘋(píng)果轉(zhuǎn)投微軟的懷抱嗎?
2017-03-22 15:41:00
1227 今年微軟帶來(lái)了Azure IoT Edge Runtime的開(kāi)源并宣布與高通、大疆的合作;推出Project Kinect for Azure微軟新一代深度攝像頭在內(nèi)的傳感器套件以及混合現(xiàn)實(shí)技術(shù)。
2018-05-11 16:41:22
6180 史上最強(qiáng)“通用”NLP模型來(lái)襲:今天OpenAI在官博介紹了他們訓(xùn)練的一個(gè)大規(guī)模無(wú)監(jiān)督NLP模型,可以生成連貫的文本段落,刷新了7大數(shù)據(jù)集基準(zhǔn),并且能在未經(jīng)預(yù)訓(xùn)練的情況下,完成閱讀理解、問(wèn)答、機(jī)器翻譯等多項(xiàng)不同的語(yǔ)言建模任務(wù)。
2019-02-16 08:43:21
4744 能有這樣出色的表現(xiàn),不是沒(méi)有原因的,GPT-2各種特定領(lǐng)域的語(yǔ)言建模任務(wù)中都取得了很好的分?jǐn)?shù)。作為一個(gè)沒(méi)有經(jīng)過(guò)任何領(lǐng)域數(shù)據(jù)專(zhuān)門(mén)訓(xùn)練的模型,它的表現(xiàn),比那些專(zhuān)為特定領(lǐng)域數(shù)據(jù)集(例如維基百科,新聞,書(shū)籍)上訓(xùn)練的模型。有圖有真相:
2019-03-07 14:45:20
9268 本模型的實(shí)現(xiàn)基于Grover模型,并修改其代碼庫(kù)以匹配GPT-2的語(yǔ)言建模訓(xùn)練目標(biāo)。由于他們的模型是在類(lèi)似的大型語(yǔ)料庫(kù)上進(jìn)行訓(xùn)練的,因此大部分代碼和超參數(shù)都可以重復(fù)使用。本模型沒(méi)有從Grover中大幅改變超參數(shù)。
2019-09-01 07:11:00
3776 就在本周,OpenAI宣布,發(fā)布了7.74億參數(shù)GPT-2語(yǔ)言模型,15.58億的完整模型也有望于幾個(gè)月內(nèi)發(fā)布,并將GPT-2這6個(gè)月的進(jìn)展情況在博客上和大家做了介紹,本文將為大家梳理。
2019-09-01 09:10:44
3515 微軟宣布推出安全核心PC,這是目前最安全的Windows 10設(shè)備,具有集成的硬件,固件,軟件和身份保護(hù)功能。Windows OEM產(chǎn)品必須滿(mǎn)足微軟列出的嚴(yán)格安全要求才能獲得此認(rèn)證。
2019-11-01 14:44:05
780 微軟近日宣布,未來(lái)將不再發(fā)展Visual Basic(以下簡(jiǎn)稱(chēng)VB)這門(mén)編程語(yǔ)言,只會(huì)做一些穩(wěn)定性、兼容性的維護(hù)工作。
2020-03-16 15:56:30
3312 今天,微軟宣布了Windows 10 20H2的一個(gè)新的里程碑。它現(xiàn)在被推廣到發(fā)布預(yù)覽通道,這是發(fā)布給大眾之前的最后一道測(cè)試流程。 此外,該公司還宣布了功能更新的正式名稱(chēng),它將被稱(chēng)為Windows 10 October 2020更新。
2020-09-22 11:08:10
4526 微軟已經(jīng)與OpenAI合作,建立一個(gè)超級(jí)計(jì)算機(jī),用于測(cè)試大規(guī)模模型。
2020-12-17 09:25:37
2838 剛剛,Google Brain 高級(jí)研究科學(xué)家 Barret Zoph 發(fā)帖表示,他們?cè)O(shè)計(jì)了一個(gè)名叫「Switch Transformer」的簡(jiǎn)化稀疏架構(gòu),可以將語(yǔ)言模型的參數(shù)量擴(kuò)展至 1.6 萬(wàn)億
2021-01-13 16:50:49
4200 參數(shù)是機(jī)器學(xué)習(xí)算法的關(guān)鍵。它們是從歷史訓(xùn)練數(shù)據(jù)中學(xué)到的模型的一部分。一般來(lái)說(shuō),在語(yǔ)言領(lǐng)域,參數(shù)的數(shù)量和復(fù)雜性之間的相關(guān)性非常好。例如,OpenAI的GPT-3是有史以來(lái)訓(xùn)練了1750億個(gè)參數(shù)的最大語(yǔ)言模型之一,它可以進(jìn)行原始類(lèi)比、生成配方,甚至完成基本代碼。
2021-01-18 16:19:54
2206 ? 古諺道:“熟讀唐詩(shī)三百首,不會(huì)作詩(shī)也會(huì)吟。” 這句話放在目前的人工智能語(yǔ)言模型中也非常適用。 此前,OpenAI 的研究人員開(kāi)發(fā)出 “GPT-3”,這是一個(gè)由 1750 億個(gè)參數(shù)組成的 AI
2021-01-18 17:16:07
2765 視覺(jué)語(yǔ)言(Vision-Language,VL)系統(tǒng)允許為文本查詢(xún)搜索相關(guān)圖像(或反之),并使用自然語(yǔ)言描述圖像的內(nèi)容。一般來(lái)說(shuō),一個(gè)VL系統(tǒng)使用一個(gè)圖像編碼模塊和一個(gè)視覺(jué)語(yǔ)言融合模塊。微軟研究部門(mén)
2021-01-19 14:32:09
2047 的AI模型GPT-3。GPT-3就是在570 GB的文本數(shù)據(jù)上訓(xùn)練的語(yǔ)言模型,因此,就訓(xùn)練數(shù)據(jù)和生成能力而言,GPT-3截至2020年都是最龐大的公開(kāi)發(fā)布的語(yǔ)言模型。 此外,OpenAI的GPT-3一反之前死守基礎(chǔ)研究的思路,將 GPT-3 做成了一個(gè)服務(wù),提供可以調(diào)用的 OpenAI API,并且
2021-01-19 15:29:31
2241 現(xiàn)在的模型動(dòng)輒數(shù)百、數(shù)千億參數(shù),普通人訓(xùn)不動(dòng)怎么辦? 前不久,谷歌發(fā)布了參數(shù)量為 1.6 萬(wàn)億的語(yǔ)言模型Swith Transformer,將 GPT-3 創(chuàng)下的參數(shù)量記錄(1750 億)推至新高
2021-02-11 09:04:00
2966 
繼GPT-3問(wèn)世僅僅不到一年的時(shí)間,Google重磅推出Switch Transformer,直接將參數(shù)量從GPT-3的1750億拉高到1.6萬(wàn)億,并比之前最大的、由google開(kāi)發(fā)的語(yǔ)言模型
2021-01-27 16:26:56
2850 
在最新的 NLU 測(cè)試基準(zhǔn) SuperGLUE 中,微軟提出的 DeBERTa 登頂榜單,并超越人類(lèi)。 去年 6 月,來(lái)自微軟的研究者提出一種新型預(yù)訓(xùn)練語(yǔ)言模型 DeBERTa,該模型使用兩種新技術(shù)
2021-02-05 09:25:13
2039 
據(jù)悉,微軟上一次宣布 Win10用戶(hù)達(dá)到9億是在2019年9月,自那以后,個(gè)人電腦市場(chǎng)出現(xiàn)了顯著增長(zhǎng),在過(guò)去的6個(gè)月里,Win10新增了1億月活躍設(shè)備,使總數(shù)達(dá)到10億。
2021-02-24 11:30:54
2159 Turing-NLG相繼出現(xiàn)。 ? 2020年6月OpenAI在發(fā)布了GPT-3,這是當(dāng)時(shí)訓(xùn)練的最大模型,具有1750億個(gè)參數(shù)。近段時(shí)間,浪潮、英偉達(dá)與微軟相繼發(fā)布2500億參數(shù)、5300億參數(shù)的巨量模型,超過(guò)GPT-3。 ? 中國(guó)工程院院士王恩東認(rèn)為,人工智能的大模型時(shí)代已經(jīng)到來(lái),利用先進(jìn)算法,整
2021-10-18 14:41:09
4369 
盡管巨型語(yǔ)言模型正在推動(dòng)語(yǔ)言生成技術(shù)的發(fā)展,但它們也面臨著偏見(jiàn)和毒性等問(wèn)題。人工智能社區(qū)正在積極研究如何理解和消除語(yǔ)言模型中的這些問(wèn)題,包括微軟和 NVIDIA 。
2022-04-17 11:25:34
2959 
今天,我們高興地宣布推出 Surface Laptop Go 2。這款產(chǎn)品經(jīng)過(guò)精心打造,以超便攜的形態(tài)展示 Surface 標(biāo)志性的優(yōu)質(zhì)設(shè)計(jì)和功能。
2022-06-02 10:38:07
2271 BigCode 是一個(gè)開(kāi)放的科學(xué)合作組織,致力于開(kāi)發(fā)大型語(yǔ)言模型。近日他們開(kāi)源了一個(gè)名為 SantaCoder 的語(yǔ)言模型,該模型擁有 11 億個(gè)參數(shù)
2023-01-17 14:29:53
1365 在本文中,我們將展示如何使用 大語(yǔ)言模型低秩適配 (Low-Rank Adaptation of Large Language Models,LoRA) 技術(shù)在單 GPU 上微調(diào) 110 億參數(shù)的 FLAN-T5 XXL 模型。
2023-04-14 17:37:40
3420 微軟增加了對(duì)大型語(yǔ)言模型(llm)的支持。openai推出chatgpt后,llm的使用大幅增加,微軟持有openai的股份,許多類(lèi)型的公司爭(zhēng)相在llm上構(gòu)建功能。
2023-06-08 10:35:43
1345 日前,由微軟和湛廬合辦的以 GPT 將如何改變世界為主題的新書(shū)共讀會(huì)上,有關(guān)以 GPT 為代表的 大語(yǔ)言模型 提升社會(huì)生產(chǎn)力,打破傳統(tǒng)人機(jī)交互模式的話題引起了與會(huì)者的廣泛思考。 作為一種重要的推動(dòng)力
2023-07-12 00:10:01
1185 
獲得專(zhuān)業(yè)級(jí)的語(yǔ)言處理能力。該模型是目前最大的中文預(yù)訓(xùn)練語(yǔ)言模型,其參數(shù)量超過(guò)2.6十億,實(shí)現(xiàn)了對(duì)超過(guò)60億字的語(yǔ)料庫(kù)的理解和生成。 該模型最初發(fā)布于2020年2月,而隨著文本數(shù)據(jù)的增長(zhǎng)和模型優(yōu)化,該模型的參數(shù)量也不斷增加。截至2021年春季,PanGu-α的參數(shù)量已
2023-08-17 11:28:18
4754 騰訊發(fā)布混元大語(yǔ)言模型 騰訊全球數(shù)字生態(tài)大會(huì)上騰訊正式發(fā)布了混元大語(yǔ)言模型,參數(shù)規(guī)模超千億,預(yù)訓(xùn)練語(yǔ)料超2萬(wàn)億tokens。 作為騰訊自研的通用大語(yǔ)言模型,混元大語(yǔ)言模型具有中文創(chuàng)作能力、任務(wù)執(zhí)行
2023-09-07 10:23:54
1586 ? 世界最強(qiáng)開(kāi)源大模型 Falcon 180B 忽然火爆全網(wǎng),1800億參數(shù),F(xiàn)alcon 在 3.5 萬(wàn)億 token 完成訓(xùn)練,性能碾壓 Llama 2,登頂 Hugging Face 排行榜
2023-09-18 09:29:05
2713 
11月27日,浪潮信息發(fā)布"源2.0"基礎(chǔ)大模型,并宣布全面開(kāi)源。源2.0基礎(chǔ)大模型包括1026億、518億、21億等三種參數(shù)規(guī)模的模型,在編程、推理、邏輯等方面展示出了先進(jìn)的能力。
2023-11-28 09:10:14
1359 
12月1日,阿里云通義千問(wèn)720億參數(shù)模型Qwen-72B宣布開(kāi)源。與此同時(shí),他們還開(kāi)源了18億參數(shù)模型Qwen-1.8B和音頻大模型Qwen-Audio。
2023-12-01 17:08:08
2247 本文基于亞馬遜云科技推出的大語(yǔ)言模型與生成式AI的全家桶:Bedrock對(duì)大語(yǔ)言模型進(jìn)行介紹。大語(yǔ)言模型指的是具有數(shù)十億參數(shù)(B+)的預(yù)訓(xùn)練語(yǔ)言模型(例如:GPT-3, Bloom, LLaMA)。這種模型可以用于各種自然語(yǔ)言處理任務(wù),如文本生成、機(jī)器翻譯和自然語(yǔ)言理解等。
2023-12-04 15:51:46
1470 今年九月份,微軟又進(jìn)一步推出了Phi-1.5版,盡管依舊僅含13億元參數(shù),但已可創(chuàng)作詩(shī)歌、電子郵件及故事,甚至可以對(duì)大量文本進(jìn)行總結(jié)概括。在常識(shí)、語(yǔ)言理解以及推理的基準(zhǔn)測(cè)試中,該版本的模型在部分領(lǐng)域已經(jīng)可以媲美甚至超越含有高達(dá)100億參數(shù)的同類(lèi)模型。
2023-12-13 11:05:34
1339 先后和 OpenAI、Meta 牽手推動(dòng)大模型發(fā)展的微軟,也正在加快自家小模型的迭代。
2023-12-14 15:45:11
1397 
微軟發(fā)布 Orca 2 LLM,這是 Llama 2 的一個(gè)調(diào)優(yōu)版本,性能與包含 10 倍參數(shù)的模型相當(dāng),甚至更好。
2023-12-26 14:23:16
1097 韓國(guó)互聯(lián)網(wǎng)巨頭Kakao最近宣布開(kāi)發(fā)了一種名為“蜜蜂”(Honeybee)的多模態(tài)大型語(yǔ)言模型。這種創(chuàng)新模型能夠同時(shí)理解和處理圖像和文本數(shù)據(jù),為更豐富的交互和查詢(xún)響應(yīng)提供了可能性。
2024-01-19 16:11:20
1271 Stability AI 宣布推出迄今為止最強(qiáng)大的小語(yǔ)言模型之一 Stable LM 2 1.6B。
2024-01-23 10:11:21
1645 
2022 年開(kāi)始,我們發(fā)現(xiàn) Multilingual BERT 是一個(gè)經(jīng)過(guò)大規(guī)???b class="flag-6" style="color: red">語(yǔ)言訓(xùn)練驗(yàn)證的模型實(shí)例,其展示出了優(yōu)異的跨語(yǔ)言遷移能力。具
2024-02-20 14:51:35
1993 
據(jù)了解,負(fù)責(zé)開(kāi)發(fā)的百靈團(tuán)隊(duì)利用自身?yè)碛械?9億遙感影像數(shù)據(jù)集進(jìn)行了預(yù)訓(xùn)練,從而生成了具有20.6億參數(shù)的SkySense大模型。官方稱(chēng)其為全球范圍內(nèi)參數(shù)規(guī)模最大、任務(wù)覆蓋最全且識(shí)別精度最高的多模態(tài)遙感大模型。
2024-02-28 15:53:12
1441 近日,螞蟻集團(tuán)聯(lián)合武漢大學(xué)宣布成功研發(fā)出20億參數(shù)多模態(tài)遙感基礎(chǔ)模型SkySense。這一創(chuàng)新模型由螞蟻集團(tuán)的AI創(chuàng)新研發(fā)部門(mén)NextEvo與武漢大學(xué)共同完成,是迄今為止國(guó)際上參數(shù)規(guī)模最大、覆蓋任務(wù)最全、識(shí)別精度最高的多模態(tài)遙感大模型。
2024-03-04 11:22:23
1538 微軟近日宣布向人工智能初創(chuàng)公司Inflection AI支付高達(dá)6.5億美元的巨額資金,這一舉動(dòng)在業(yè)內(nèi)引起了廣泛關(guān)注。據(jù)悉,這筆資金主要用于獲得Inflection AI的AI模型授權(quán),并額外支付約3000萬(wàn)美元,以確保該公司放棄與微軟大規(guī)模雇傭相關(guān)的一切法律權(quán)益。
2024-03-25 10:39:59
890 微軟稱(chēng),帶有38億參數(shù)的phi-3-mini經(jīng)過(guò)3.3萬(wàn)億token的強(qiáng)化學(xué)習(xí),其基礎(chǔ)表現(xiàn)已經(jīng)超過(guò)Mixtral 8x7B及GPT-3.5;此外,該模型可在手機(jī)等移動(dòng)設(shè)備上運(yùn)行,并在phi-2模型(27億參數(shù))的基礎(chǔ)上,進(jìn)一步融合了嚴(yán)格篩選的網(wǎng)絡(luò)數(shù)據(jù)與合成數(shù)據(jù)。
2024-04-23 14:32:05
1078 NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開(kāi)源語(yǔ)言模型。TensorRT-LLM 是一個(gè)開(kāi)源庫(kù),用于優(yōu)化從 PC 到云端的 NVIDIA GPU 上運(yùn)行的大語(yǔ)言模型推理。
2024-04-28 10:36:08
1584 通義千問(wèn)近日震撼發(fā)布1100億參數(shù)的開(kāi)源模型Qwen1.5-110B,這一舉措標(biāo)志著通義千問(wèn)在AI領(lǐng)域邁出了重大步伐。該模型成為通義千問(wèn)全系列首個(gè)千億級(jí)參數(shù)開(kāi)源模型,充分展現(xiàn)了其強(qiáng)大的技術(shù)實(shí)力和創(chuàng)新精神。
2024-05-06 10:49:20
1325 微軟近期傳出消息,正在秘密研發(fā)一款全新的人工智能語(yǔ)言模型,這款模型在規(guī)模上預(yù)計(jì)將具備與谷歌和OpenAI等業(yè)界巨頭相抗衡的實(shí)力。據(jù)悉,這款新模型在微軟內(nèi)部被命名為“MAI-1”,由微軟AI部門(mén)
2024-05-08 09:30:58
787 微軟近日曝光了其內(nèi)部正在秘密研發(fā)的巨型AI模型——MAl-1,這款模型擁有驚人的5000億參數(shù)。據(jù)微軟首席技術(shù)官Kevin Scott確認(rèn),MAl-1的研發(fā)工作確實(shí)在穩(wěn)步推進(jìn)中,并且該模型并非簡(jiǎn)單繼承自之前的Inflection模型,而是在其基礎(chǔ)上進(jìn)行了全新的研發(fā)。
2024-05-08 09:56:08
796 據(jù)最新消息,微軟正積極開(kāi)發(fā)一款新型AI語(yǔ)言模型MAI-1,以提升在快速發(fā)展的AI市場(chǎng)中的競(jìng)爭(zhēng)力。
2024-05-08 10:27:53
1022 據(jù)報(bào)道,微軟在向OpenAI投資超過(guò)100億美元后,首次成功訓(xùn)練了一個(gè)名為“MAI-1”的內(nèi)部人工智能模型。這一模型規(guī)模龐大,足以與谷歌、Anthropic和OpenAI自身的前沿模型相抗衡。
2024-05-08 10:45:49
979 The Information 5月6日的報(bào)道,微軟公司即將推出一款全新的AI模型產(chǎn)品,內(nèi)部代號(hào)為MAI-1,其參數(shù)數(shù)量達(dá)到了驚人的5000億。值得一提的是,這款大模型產(chǎn)品由微軟獨(dú)自研發(fā)推出。換句話說(shuō),微軟正式開(kāi)始了與一眾行業(yè)巨頭的競(jìng)爭(zhēng),這其中也包括OpenAI。 微軟的獨(dú)
2024-05-11 11:47:55
1003 
微軟正在緊鑼密鼓地訓(xùn)練一款全新的自研人工智能大模型——“MAI-1”。據(jù)悉,這款模型規(guī)模龐大,足以與谷歌的Gemini和OpenAI的ChatGPT相媲美。
2024-05-13 11:30:54
1033 5 月 22 日,微軟Build 2024大會(huì)在美正式開(kāi)幕。薩提亞·納德拉CEO、董事長(zhǎng)宣布,OpenAI新款旗艦模型GPT-4o已經(jīng)在Azure AI Studio上線,并開(kāi)放API服務(wù)。
2024-05-22 11:18:38
1072 近日,英特爾針對(duì)微軟的多個(gè)Phi-3家族的開(kāi)放模型,驗(yàn)證并優(yōu)化了其跨客戶(hù)端、邊緣和數(shù)據(jù)中心的AI產(chǎn)品組合。
2024-05-27 11:15:33
1162 近日,英特爾宣布針對(duì)微軟的Phi-3家族開(kāi)放模型,成功驗(yàn)證并優(yōu)化了其跨客戶(hù)端、邊緣及數(shù)據(jù)中心的AI產(chǎn)品組合。這一重要舉措旨在提供更為靈活和高效的AI解決方案。
2024-05-27 11:47:43
1113 據(jù)悉,Phi-3-vision 作為微軟 Phi-3 家族的首款多模態(tài)模型,繼承自 Phi-3-mini 的文本理解能力,兼具輕巧便攜特性,適用于移動(dòng)平臺(tái)/嵌入式終端;模型參數(shù)規(guī)模達(dá) 42 億,遠(yuǎn)超 Phi-3-mini(3.8B)
2024-05-27 15:56:22
1144 據(jù)報(bào)道,微軟于4月至5月間相繼推出了多款Phi-3小型語(yǔ)言模型(SLM),這些模型以其“輕便易攜且能在移動(dòng)設(shè)備中運(yùn)行”以及強(qiáng)大的視覺(jué)處理能力而備受矚目。這種語(yǔ)言模型專(zhuān)用于低消耗的計(jì)算環(huán)境。
2024-05-27 15:59:35
746 Phi-3-vision 是一種小型多模式語(yǔ)言模型(SLM),主要適用于本地人工智能場(chǎng)景。其模型參數(shù)高達(dá) 42 億,上下文序列包含 128k 個(gè)符號(hào),可滿(mǎn)足各種視覺(jué)推理和其他任務(wù)需求。
2024-05-28 11:35:12
986 近日,英偉達(dá)宣布開(kāi)源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開(kāi)發(fā)者們打開(kāi)了通往高性能大型語(yǔ)言模型(LLM)訓(xùn)練的新天地。該系列模型不僅包含高達(dá)3400億參數(shù),而且通過(guò)其獨(dú)特的架構(gòu),為醫(yī)療保健、金融、制造、零售等多個(gè)行業(yè)的商業(yè)應(yīng)用提供了強(qiáng)大的支持。
2024-06-17 14:53:49
1203 在人工智能領(lǐng)域,大語(yǔ)言模型一直是研究的熱點(diǎn)。近日,全球科技巨頭谷歌宣布,面向全球研究人員和開(kāi)發(fā)人員,正式發(fā)布了其最新研發(fā)的大語(yǔ)言模型——Gemma 2。這款模型以其高效能和低成本的特點(diǎn),引起了業(yè)界的廣泛關(guān)注。
2024-06-29 09:48:32
966 在人工智能與語(yǔ)言處理領(lǐng)域,DeepL再次以其創(chuàng)新實(shí)力引領(lǐng)潮流,宣布成功推出新一代面向翻譯與編輯應(yīng)用的大型語(yǔ)言模型。這一里程碑式的進(jìn)展,不僅鞏固了DeepL作為頂尖語(yǔ)言人工智能公司的地位,更標(biāo)志著機(jī)器翻譯技術(shù)向更高質(zhì)量、更智能化方向邁出了堅(jiān)實(shí)的一步。
2024-07-19 15:56:41
1228 7月22日最新資訊,Hugging Face科技公司在語(yǔ)言模型領(lǐng)域再創(chuàng)新高,正式推出了SmolLM系列——一款專(zhuān)為適應(yīng)多樣計(jì)算資源而設(shè)計(jì)的緊湊型語(yǔ)言模型家族。該系列包含三個(gè)版本,分別搭載了1.35億、3.6億及17億參數(shù),旨在以高效能應(yīng)對(duì)不同應(yīng)用場(chǎng)景。
2024-07-23 16:35:16
1138 2024年4月23日,微軟研究院公布Phi-3系列AI大模型,包含三個(gè)版本:mini(3.8B參數(shù))、small(7B參數(shù))以及medium(14B參數(shù))。phi-3-mini是一個(gè)擁有3.8B參數(shù)
2024-08-30 16:58:43
1913 
蘋(píng)果近日推出了全新的多模態(tài)AI大模型MM1.5,該模型擁有高達(dá)300億的參數(shù)規(guī)模,是在前代MM1架構(gòu)的基礎(chǔ)上進(jìn)一步發(fā)展而來(lái)的。
2024-10-14 15:50:14
910 大語(yǔ)言模型的開(kāi)發(fā)是一個(gè)復(fù)雜且細(xì)致的過(guò)程,涵蓋了數(shù)據(jù)準(zhǔn)備、模型架構(gòu)設(shè)計(jì)、訓(xùn)練、微調(diào)和部署等多個(gè)階段。以下是對(duì)大語(yǔ)言模型開(kāi)發(fā)步驟的介紹,由AI部落小編整理發(fā)布。
2024-11-04 10:14:43
955 近日,騰訊公司宣布成功推出業(yè)界領(lǐng)先的開(kāi)源MoE(Mixture of Experts,專(zhuān)家混合)大語(yǔ)言模型——Hunyuan-Large。這款模型不僅在參數(shù)量上刷新了業(yè)界紀(jì)錄,更在效果上展現(xiàn)出了卓越
2024-11-06 10:57:13
1014 一,前言 ? 在AI領(lǐng)域,訓(xùn)練一個(gè)大型語(yǔ)言模型(LLM)是一個(gè)耗時(shí)且復(fù)雜的過(guò)程。幾乎每個(gè)做大型語(yǔ)言模型(LLM)訓(xùn)練的人都會(huì)被問(wèn)到:“從零開(kāi)始,訓(xùn)練大語(yǔ)言模型需要多久和花多少錢(qián)?”雖然網(wǎng)上有很多
2024-11-08 14:15:54
1630 
AMD公司近日宣布了一項(xiàng)重大進(jìn)展,推出了首個(gè)完全開(kāi)放的10億參數(shù)語(yǔ)言模型系列——AMD OLMo。這一舉措為開(kāi)發(fā)者和研究人員提供了強(qiáng)大的AI研究工具,有助于推動(dòng)AI技術(shù)的進(jìn)一步發(fā)展。
2024-11-12 18:08:52
1024 擔(dān)心企業(yè)用戶(hù)在使用365 Copilot時(shí)面臨的成本和速度問(wèn)題,因此正在尋求更多樣化的技術(shù)來(lái)源。盡管微軟與OpenAI之間有著緊密的合作關(guān)系,并允許微軟定制OpenAI的模型,但微軟仍在努力尋找其他選擇。 據(jù)稱(chēng),微軟不僅在訓(xùn)練自己的小型模型,包括最新的Phi-4,還在努力定制其他
2024-12-25 10:41:08
873 智能水平上的一大飛躍。它不僅達(dá)到了之前只有Llama 3.1 405B模型才具備的智能水平,而且還超越了11月發(fā)布的GPT-4o模型。 本文我們將分享微軟剛剛發(fā)布的Phi-4模型,其模型參數(shù)只有14B
2025-01-15 11:05:29
831 
,SmolVLM-256M-Instruct僅有2.56億參數(shù),是有史以來(lái)發(fā)布的最小視覺(jué)語(yǔ)言模型,可在內(nèi)存低于1GB的PC上運(yùn)行并提供卓越性能。SmolVLM-500M-Instruct有5億參數(shù),主要針對(duì)硬件資源
2025-01-24 14:15:24
1492 你是否想過(guò)在自己的設(shè)備上運(yùn)行自己的大型語(yǔ)言模型(LLMs)或視覺(jué)語(yǔ)言模型(VLMs)?你可能有過(guò)這樣的想法,但是一想到要從頭開(kāi)始設(shè)置、管理環(huán)境、下載正確的模型權(quán)重,以及你的設(shè)備是否能處理這些模型
2025-03-25 09:32:38
807 
日本航空(JAL)攜手微軟,率先將AI應(yīng)用引I入客艙管理。通過(guò)基于微軟Phi-4小型語(yǔ)言模型(SLM)開(kāi)發(fā)的JAL-AI報(bào)告系統(tǒng),空乘人員報(bào)告航班事件的效率提升高達(dá)2/3,即使離線也能流暢運(yùn)行。不僅
2025-07-18 11:12:44
1227 我們很榮幸發(fā)布與耶魯大學(xué)合作研究的 Cell2Sentence-Scale 27B (C2S-Scale),這是一個(gè)新的 270 億參數(shù)基礎(chǔ)模型,旨在理解單個(gè)細(xì)胞的 "語(yǔ)言"。C2S-Scale 建立在 Gemma 開(kāi)放模型系列的基礎(chǔ)上,代表著單細(xì)胞分析領(lǐng)域的新前沿。
2025-11-06 10:35:16
649
評(píng)論