91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

張俊林:ChatGPT會(huì)成為下一代搜索引擎嗎

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:深度學(xué)習(xí)自然語(yǔ)言 ? 2022-12-07 11:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文將從以下幾個(gè)方面展開:

引言

ChatGPT的技術(shù)原理

ChatGPT能否取代Google、百度等傳統(tǒng)搜索引

點(diǎn)擊這里進(jìn)群—>加入NLP交流群

引言

作為智能對(duì)話系統(tǒng),ChatGPT最近兩天爆火,都火出技術(shù)圈了,網(wǎng)上到處都在轉(zhuǎn)ChatGPT相關(guān)的內(nèi)容和測(cè)試?yán)?,效果確實(shí)很震撼。我記得上一次能引起如此轟動(dòng)的AI技術(shù),NLP領(lǐng)域是GPT 3發(fā)布,那都是兩年半前的事了,當(dāng)時(shí)人工智能如日中天如火如荼的紅火日子,今天看來(lái)恍如隔世;多模態(tài)領(lǐng)域則是以DaLL E2、Stable Diffusion為代表的Diffusion Model,這是最近大半年火起來(lái)的AIGC模型;而今天,AI的星火傳遞到了ChatGPT手上,它毫無(wú)疑問(wèn)也屬于AIGC范疇。所以說(shuō),在AI泡沫破裂后處于低谷期的今天,AIGC確實(shí)是給AI續(xù)命的良藥,當(dāng)然我們更期待估計(jì)很快會(huì)發(fā)布的GPT 4,愿OpenAI能繼續(xù)撐起局面,給行業(yè)帶來(lái)一絲暖意。

說(shuō)回ChatGPT,例子就不舉了,在網(wǎng)上漫山遍野都是,我們主要從技術(shù)角度來(lái)聊聊。那么,ChatGPT到底是采用了怎樣的技術(shù),才能做到如此超凡脫俗的效果?既然chatGPT功能如此強(qiáng)大,那么它可以取代Google、百度等現(xiàn)有搜索引擎嗎?如果能,那是為什么,如果不能,又是為什么?

本文試圖從我個(gè)人理解的角度,來(lái)嘗試回答上述問(wèn)題,很多個(gè)人觀點(diǎn),偏頗難免,還請(qǐng)謹(jǐn)慎參考。我們首先來(lái)看看ChatGPT到底做了什么才獲得如此好的效果。

ChatGPT的技術(shù)原理

整體技術(shù)路線上,ChatGPT在效果強(qiáng)大的GPT 3.5大規(guī)模語(yǔ)言模型(LLM,Large Language Model)基礎(chǔ)上,引入“人工標(biāo)注數(shù)據(jù)+強(qiáng)化學(xué)習(xí)”(RLHF,Reinforcement Learning from Human Feedback ,這里的人工反饋其實(shí)就是人工標(biāo)注數(shù)據(jù))來(lái)不斷Fine-tune預(yù)訓(xùn)練語(yǔ)言模型,主要目的是讓LLM模型學(xué)會(huì)理解人類的命令指令的含義(比如給我寫一段小作文生成類問(wèn)題、知識(shí)回答類問(wèn)題、頭腦風(fēng)暴類問(wèn)題等不同類型的命令),以及讓LLM學(xué)會(huì)判斷對(duì)于給定的prompt輸入指令(用戶的問(wèn)題),什么樣的答案是優(yōu)質(zhì)的(富含信息、內(nèi)容豐富、對(duì)用戶有幫助、無(wú)害、不包含歧視信息等多種標(biāo)準(zhǔn))。

在“人工標(biāo)注數(shù)據(jù)+強(qiáng)化學(xué)習(xí)”框架下,具體而言,ChatGPT的訓(xùn)練過(guò)程分為以下三個(gè)階段:

3d8a04bc-75db-11ed-8abf-dac502259ad0.jpg

ChatGPT:第一階段

第一階段:冷啟動(dòng)階段的監(jiān)督策略模型??縂PT 3.5本身,盡管它很強(qiáng),但是它很難理解人類不同類型指令中蘊(yùn)含的不同意圖,也很難判斷生成內(nèi)容是否是高質(zhì)量的結(jié)果。為了讓GPT 3.5初步具備理解指令中蘊(yùn)含的意圖,首先會(huì)從測(cè)試用戶提交的prompt(就是指令或問(wèn)題)中隨機(jī)抽取一批,靠專業(yè)的標(biāo)注人員,給出指定prompt的高質(zhì)量答案,然后用這些人工標(biāo)注好的數(shù)據(jù)來(lái)Fine-tune GPT 3.5模型。經(jīng)過(guò)這個(gè)過(guò)程,我們可以認(rèn)為GPT 3.5初步具備了理解人類prompt中所包含意圖,并根據(jù)這個(gè)意圖給出相對(duì)高質(zhì)量回答的能力,但是很明顯,僅僅這樣做是不夠的。

3da377a8-75db-11ed-8abf-dac502259ad0.jpg

ChatGPT:第二階段

第二階段:訓(xùn)練回報(bào)模型(Reward Model,RM)。這個(gè)階段的主要目的是通過(guò)人工標(biāo)注訓(xùn)練數(shù)據(jù),來(lái)訓(xùn)練回報(bào)模型。具體而言,隨機(jī)抽樣一批用戶提交的prompt(大部分和第一階段的相同),使用第一階段Fine-tune好的冷啟動(dòng)模型,對(duì)于每個(gè)prompt,由冷啟動(dòng)模型生成K個(gè)不同的回答,于是模型產(chǎn)生出了,….數(shù)據(jù)。之后,標(biāo)注人員對(duì)K個(gè)結(jié)果按照很多標(biāo)準(zhǔn)(上面提到的相關(guān)性、富含信息性、有害信息等諸多標(biāo)準(zhǔn))綜合考慮進(jìn)行排序,給出K個(gè)結(jié)果的排名順序,這就是此階段人工標(biāo)注的數(shù)據(jù)。

接下來(lái),我們準(zhǔn)備利用這個(gè)排序結(jié)果數(shù)據(jù)來(lái)訓(xùn)練回報(bào)模型,采取的訓(xùn)練模式其實(shí)就是平常經(jīng)常用到的pair-wise learning to rank。對(duì)于K個(gè)排序結(jié)果,兩兩組合,形成 inom{k}{2} 個(gè)訓(xùn)練數(shù)據(jù)對(duì),ChatGPT采取pair-wise loss來(lái)訓(xùn)練Reward Model。RM模型接受一個(gè)輸入,給出評(píng)價(jià)回答質(zhì)量高低的回報(bào)分?jǐn)?shù)Score。對(duì)于一對(duì)訓(xùn)練數(shù)據(jù),我們假設(shè)人工排序中answer1排在answer2前面,那么Loss函數(shù)則鼓勵(lì)RM模型對(duì)的打分要比的打分要高。

歸納下:在這個(gè)階段里,首先由冷啟動(dòng)后的監(jiān)督策略模型為每個(gè)prompt產(chǎn)生K個(gè)結(jié)果,人工根據(jù)結(jié)果質(zhì)量由高到低排序,以此作為訓(xùn)練數(shù)據(jù),通過(guò)pair-wise learning to rank模式來(lái)訓(xùn)練回報(bào)模型。對(duì)于學(xué)好的RM模型來(lái)說(shuō),輸入,輸出結(jié)果的質(zhì)量得分,得分越高說(shuō)明產(chǎn)生的回答質(zhì)量越高。

3dbbb098-75db-11ed-8abf-dac502259ad0.jpg

chatGPT:第三階段

第三階段:采用強(qiáng)化學(xué)習(xí)來(lái)增強(qiáng)預(yù)訓(xùn)練模型的能力。本階段無(wú)需人工標(biāo)注數(shù)據(jù),而是利用上一階段學(xué)好的RM模型,靠RM打分結(jié)果來(lái)更新預(yù)訓(xùn)練模型參數(shù)。具體而言,首先,從用戶提交的prompt里隨機(jī)采樣一批新的命令(指的是和第一第二階段不同的新的prompt,這個(gè)其實(shí)是很重要的,對(duì)于提升LLM模型理解instruct指令的泛化能力很有幫助),且由冷啟動(dòng)模型來(lái)初始化PPO模型的參數(shù)。然后,對(duì)于隨機(jī)抽取的prompt,使用PPO模型生成回答answer, 并用上一階段訓(xùn)練好的RM模型給出answer質(zhì)量評(píng)估的回報(bào)分?jǐn)?shù)score,這個(gè)回報(bào)分?jǐn)?shù)就是RM賦予給整個(gè)回答(由單詞序列構(gòu)成)的整體reward。有了單詞序列的最終回報(bào),就可以把每個(gè)單詞看作一個(gè)時(shí)間步,把reward由后往前依次傳遞,由此產(chǎn)生的策略梯度可以更新PPO模型參數(shù)。這是標(biāo)準(zhǔn)的強(qiáng)化學(xué)習(xí)過(guò)程,目的是訓(xùn)練LLM產(chǎn)生高reward的答案,也即是產(chǎn)生符合RM標(biāo)準(zhǔn)的高質(zhì)量回答。

如果我們不斷重復(fù)第二和第三階段,很明顯,每一輪迭代都使得LLM模型能力越來(lái)越強(qiáng)。因?yàn)榈诙A段通過(guò)人工標(biāo)注數(shù)據(jù)來(lái)增強(qiáng)RM模型的能力,而第三階段,經(jīng)過(guò)增強(qiáng)的RM模型對(duì)新prompt產(chǎn)生的回答打分會(huì)更準(zhǔn),并利用強(qiáng)化學(xué)習(xí)來(lái)鼓勵(lì)LLM模型學(xué)習(xí)新的高質(zhì)量?jī)?nèi)容,這起到了類似利用偽標(biāo)簽擴(kuò)充高質(zhì)量訓(xùn)練數(shù)據(jù)的作用,于是LLM模型進(jìn)一步得到增強(qiáng)。顯然,第二階段和第三階段有相互促進(jìn)的作用,這是為何不斷迭代會(huì)有持續(xù)增強(qiáng)效果的原因。

盡管如此,我覺得第三階段采用強(qiáng)化學(xué)習(xí)策略,未必是ChatGPT模型效果特別好的主要原因。假設(shè)第三階段不采用強(qiáng)化學(xué)習(xí),換成如下方法:類似第二階段的做法,對(duì)于一個(gè)新的prompt,冷啟動(dòng)模型可以產(chǎn)生k個(gè)回答,由RM模型分別打分,我們選擇得分最高的回答,構(gòu)成新的訓(xùn)練數(shù)據(jù),去fine-tune LLM模型。假設(shè)換成這種模式,我相信起到的作用可能跟強(qiáng)化學(xué)習(xí)比,雖然沒那么精巧,但是效果也未必一定就差很多。第三階段無(wú)論采取哪種技術(shù)模式,本質(zhì)上很可能都是利用第二階段學(xué)會(huì)的RM,起到了擴(kuò)充LLM模型高質(zhì)量訓(xùn)練數(shù)據(jù)的作用。

以上是ChatGPT的訓(xùn)練流程,主要參考自instructGPT的論文,ChatGPT是改進(jìn)的instructGPT,改進(jìn)點(diǎn)主要在收集標(biāo)注數(shù)據(jù)方法上有些區(qū)別,在其它方面,包括在模型結(jié)構(gòu)和訓(xùn)練流程等方面基本遵循instructGPT??梢灶A(yù)見的是,這種Reinforcement Learning from Human Feedback技術(shù)會(huì)快速蔓延到其它內(nèi)容生成方向,比如一個(gè)很容易想到的,類似“A machine translation model based on Reinforcement Learning from Human Feedback”這種,其它還有很多。但是,我個(gè)人認(rèn)為,在NLP的某個(gè)具體的內(nèi)容生成領(lǐng)域再采用這個(gè)技術(shù)意義應(yīng)該已經(jīng)不大了,因?yàn)閏hatGPT本身能處理的任務(wù)類型非常多樣化,基本涵蓋了NLP生成的很多子領(lǐng)域,所以某個(gè)NLP子領(lǐng)域如果再單獨(dú)采用這個(gè)技術(shù)其實(shí)已經(jīng)不具備太大價(jià)值,因?yàn)樗目尚行钥梢哉J(rèn)為已經(jīng)被chatGPT驗(yàn)證了。如果把這個(gè)技術(shù)應(yīng)用在比如圖片、音頻、視頻等其它模態(tài)的生成領(lǐng)域,可能是更值得探索的方向,也許不久后我們就會(huì)看到類似“A XXX diffusion model based on Reinforcement Learning from Human Feedback”,諸如此類,這類工作應(yīng)該還是很有意義的。

另外一個(gè)值得關(guān)注的采取類似技術(shù)的工作是DeepMind的sparrow,這個(gè)工作發(fā)表時(shí)間稍晚于instructGPT,如果你仔細(xì)分析的話,大的技術(shù)思路和框架與instructGPT的三階段基本類似,不過(guò)明顯sparrow在人工標(biāo)注方面的質(zhì)量和工作量是不如instructGPT的。反過(guò)來(lái),我覺得sparrow里把回報(bào)模型分為兩個(gè)不同RM的思路,是優(yōu)于instructGPT的,至于原因在下面小節(jié)里會(huì)講。

chatGPT能否取代Google、百度等傳統(tǒng)搜索引擎

既然看上去chatGPT幾乎無(wú)所不能地回答各種類型的prompt,那么一個(gè)很自然的問(wèn)題就是:ChatGPT或者未來(lái)即將面世的GPT4,能否取代Google、百度這些傳統(tǒng)搜索引擎呢?我個(gè)人覺得目前應(yīng)該還不行,但是如果從技術(shù)角度稍微改造一下,理論上是可以取代傳統(tǒng)搜索引擎的。

3dc7b910-75db-11ed-8abf-dac502259ad0.jpg

為什么說(shuō)目前形態(tài)的chatGPT還不能取代搜索引擎呢?主要有三點(diǎn)原因:首先,對(duì)于不少知識(shí)類型的問(wèn)題,chatGPT會(huì)給出看上去很有道理,但是事實(shí)上是錯(cuò)誤答案的內(nèi)容(參考上圖的例子(from @Gordon Lee),ChatGPT的回答看著胸有成竹,像我這么沒文化的基本看了就信了它,回頭查了下這首詞里竟然沒這兩句),考慮到對(duì)于很多問(wèn)題它又能回答得很好,這將會(huì)給用戶造成困擾:如果我對(duì)我提的問(wèn)題確實(shí)不知道正確答案,那我是該相信ChatGPT的結(jié)果還是不該相信呢?此時(shí)你是無(wú)法作出判斷的。這個(gè)問(wèn)題可能是比較要命的。其次,ChatGPT目前這種基于GPT大模型基礎(chǔ)上進(jìn)一步增加標(biāo)注數(shù)據(jù)訓(xùn)練的模式,對(duì)于LLM模型吸納新知識(shí)是非常不友好的。新知識(shí)總是在不斷出現(xiàn),而出現(xiàn)一些新知識(shí)就去重新預(yù)訓(xùn)練GPT模型是不現(xiàn)實(shí)的,無(wú)論是訓(xùn)練時(shí)間成本還是金錢成本,都不可接受。如果對(duì)于新知識(shí)采取Fine-tune的模式,看上去可行且成本相對(duì)較低,但是很容易產(chǎn)生新數(shù)據(jù)的引入導(dǎo)致對(duì)原有知識(shí)的災(zāi)難遺忘問(wèn)題,尤其是短周期的頻繁fine-tune,會(huì)使這個(gè)問(wèn)題更為嚴(yán)重。所以如何近乎實(shí)時(shí)地將新知識(shí)融入LLM是個(gè)非常有挑戰(zhàn)性的問(wèn)題。其三,ChatGPT或GPT4的訓(xùn)練成本以及在線推理成本太高,導(dǎo)致如果面向真實(shí)搜索引擎的以億記的用戶請(qǐng)求,假設(shè)繼續(xù)采取免費(fèi)策略,OpenAI無(wú)法承受,但是如果采取收費(fèi)策略,又會(huì)極大減少用戶基數(shù),是否收費(fèi)是個(gè)兩難決策,當(dāng)然如果訓(xùn)練成本能夠大幅下降,則兩難自解。以上這三個(gè)原因,導(dǎo)致目前ChatGPT應(yīng)該還無(wú)法取代傳統(tǒng)搜索引擎。

那么這幾個(gè)問(wèn)題,是否可以解決呢?其實(shí),如果我們以ChatGPT的技術(shù)路線為主體框架,再吸納其它對(duì)話系統(tǒng)采用的一些現(xiàn)成的技術(shù)手段,來(lái)對(duì)ChatGPT進(jìn)行改造,從技術(shù)角度來(lái)看,除了成本問(wèn)題外的前兩個(gè)技術(shù)問(wèn)題,目前看是可以得到很好地解決。我們只需要在ChatGPT的基礎(chǔ)上,引入sparrow系統(tǒng)以下能力:基于retrieval結(jié)果的生成結(jié)果證據(jù)展示,以及引入LaMDA系統(tǒng)的對(duì)于新知識(shí)采取retrieval模式,那么前面提到的新知識(shí)的及時(shí)引入,以及生成內(nèi)容可信性驗(yàn)證,基本就不是什么大問(wèn)題。

3dd70c1c-75db-11ed-8abf-dac502259ad0.jpg

基于以上考慮,在上圖中展示出了我心目中下一代搜索引擎的整體結(jié)構(gòu):它其實(shí)是目前的傳統(tǒng)搜索引擎+ChatGPT的雙引擎結(jié)構(gòu),ChatGPT模型是主引擎,傳統(tǒng)搜索引擎是輔引擎。傳統(tǒng)搜索引擎的主要輔助功能有兩個(gè):一個(gè)是對(duì)于ChatGPT產(chǎn)生的知識(shí)類問(wèn)題的回答,進(jìn)行結(jié)果可信性驗(yàn)證與展示,就是說(shuō)在ChatGPT給出答案的同時(shí),從搜索引擎里找到相關(guān)內(nèi)容片段及url鏈接,同時(shí)把這些內(nèi)容展示給用戶,使得用戶可以從額外提供的內(nèi)容里驗(yàn)證答案是否真實(shí)可信,這樣就可以解決ChatGPT產(chǎn)生的回答可信與否的問(wèn)題,避免用戶對(duì)于產(chǎn)生結(jié)果無(wú)所適從的局面。當(dāng)然,只有知識(shí)類問(wèn)題才有必要尋找可信信息進(jìn)行驗(yàn)證,很多其他自由生成類型的問(wèn)題,比如讓ChatGPT寫一個(gè)滿足某個(gè)主題的小作文這種完全自由發(fā)揮的內(nèi)容,則無(wú)此必要。所以這里還有一個(gè)什么情況下會(huì)調(diào)用傳統(tǒng)搜索引擎的問(wèn)題,具體技術(shù)細(xì)節(jié)完全可仿照sparrow的做法,里面有詳細(xì)的技術(shù)方案。傳統(tǒng)搜索引擎的第二個(gè)輔助功能是及時(shí)補(bǔ)充新知識(shí)。既然我們不可能隨時(shí)把新知識(shí)快速引入LLM,那么可以把它存到搜索引擎的索引里,ChatGPT如果發(fā)現(xiàn)具備時(shí)效性的問(wèn)題,它自己又回答不了,則可以轉(zhuǎn)向搜索引擎抽取對(duì)應(yīng)的答案,或者根據(jù)返回相關(guān)片段再加上用戶輸入問(wèn)題通過(guò)ChatGPT產(chǎn)生答案。關(guān)于這方面的具體技術(shù)手段,可以參考LaMDA,其中有關(guān)于新知識(shí)處理的具體方法。

除了上面的幾種技術(shù)手段,我覺得相對(duì)ChatGPT只有一個(gè)綜合的Reward Model,sparrow里把答案helpful相關(guān)的標(biāo)準(zhǔn)(比如是否富含信息量、是否合乎邏輯等)采用一個(gè)RM,其它類型toxic/harmful相關(guān)標(biāo)準(zhǔn)(比如是否有bias、是否有害信息等)另外單獨(dú)采用一個(gè)RM,各司其職,這種模式要更清晰合理一些。因?yàn)閱我活愋偷臉?biāo)準(zhǔn),更便于標(biāo)注人員進(jìn)行判斷,而如果一個(gè)Reward Model融合多種判斷標(biāo)準(zhǔn),相互打架在所難免,判斷起來(lái)就很復(fù)雜效率也低,所以感覺可以引入到ChatGPT里來(lái),得到進(jìn)一步的模型改進(jìn)。

通過(guò)吸取各種現(xiàn)有技術(shù)所長(zhǎng),我相信大致可以解決ChatGPT目前所面臨的問(wèn)題,技術(shù)都是現(xiàn)成的,從產(chǎn)生內(nèi)容效果質(zhì)量上取代現(xiàn)有搜索引擎問(wèn)題不大。當(dāng)然,至于模型訓(xùn)練成本和推理成本問(wèn)題,可能短時(shí)期內(nèi)無(wú)法獲得快速大幅降低,這可能是決定LLM是否能夠取代現(xiàn)有搜索引擎的關(guān)鍵技術(shù)瓶頸。從形式上來(lái)看,未來(lái)的搜索引擎大概率是以用戶智能助手APP的形式存在的,但是,從短期可行性上來(lái)說(shuō),在走到最終形態(tài)之前,過(guò)渡階段大概率兩個(gè)引擎的作用是反過(guò)來(lái)的,就是傳統(tǒng)搜索引擎是主引擎,ChatGPT是輔引擎,形式上還是目前搜索引擎的形態(tài),只是部分搜索內(nèi)容Top 1的搜索結(jié)果是由ChatGPT產(chǎn)生的,大多數(shù)用戶請(qǐng)求,可能在用戶看到Top 1結(jié)果就能滿足需求,對(duì)于少數(shù)滿足不了的需求,用戶可以采用目前搜索引擎翻頁(yè)搜尋的模式。我猜搜索引擎未來(lái)大概率會(huì)以這種過(guò)渡階段以傳統(tǒng)搜索引擎為主,ChatGPT這種instruct-based生成模型為輔,慢慢切換到以ChatGPT生成內(nèi)容為主,而這個(gè)切換節(jié)點(diǎn),很可能取決于大模型訓(xùn)練成本的大幅下降的時(shí)間,以此作為轉(zhuǎn)換節(jié)點(diǎn)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 強(qiáng)化學(xué)習(xí)

    關(guān)注

    4

    文章

    270

    瀏覽量

    11969
  • ai技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    1313

    瀏覽量

    25746
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23280
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1598

    瀏覽量

    10267

原文標(biāo)題:張俊林:ChatGPT會(huì)成為下一代搜索引擎嗎

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    邁富時(shí)GEO服務(wù):技術(shù)驅(qū)動(dòng)AI搜索時(shí)代的企業(yè)增長(zhǎng)新引擎

    導(dǎo)語(yǔ): 隨著DeepSeek、豆包、文心言等生成式AI搜索引擎的快速普及,用戶獲取信息的方式正從傳統(tǒng)"鏈接點(diǎn)擊"轉(zhuǎn)向"AI直接對(duì)話"。在這場(chǎng)深刻的信息檢索范式變革中,企業(yè)如何讓品牌內(nèi)容被AI系統(tǒng)
    的頭像 發(fā)表于 01-17 21:20 ?265次閱讀

    下一代防火墻(NGFW):重塑網(wǎng)絡(luò)安全的 “智能防護(hù)屏障”

    的防護(hù)模式,早已難以應(yīng)對(duì)復(fù)雜的安全挑戰(zhàn)。在此背景下,下一代防火墻(NGFW)應(yīng)運(yùn)而生,不僅實(shí)現(xiàn)了對(duì)傳統(tǒng)防火墻的全面超越,更成為網(wǎng)絡(luò)安全防護(hù)的核心支柱。、防火墻技
    的頭像 發(fā)表于 01-05 10:05 ?1435次閱讀
    <b class='flag-5'>下一代</b>防火墻(NGFW):重塑網(wǎng)絡(luò)安全的 “智能防護(hù)屏障”

    英飛凌下一代電磁閥驅(qū)動(dòng)器評(píng)估套件使用指南

    英飛凌下一代電磁閥驅(qū)動(dòng)器評(píng)估套件使用指南 、前言 在電子工程師的日常工作中,電磁閥驅(qū)動(dòng)器的評(píng)估和開發(fā)是項(xiàng)重要任務(wù)。英飛凌推出的下一代電磁閥驅(qū)動(dòng)器評(píng)估套件,為我們提供了便捷且高效的評(píng)
    的頭像 發(fā)表于 12-21 11:30 ?848次閱讀

    Amphenol Aerospace高壓38999連接器:滿足下一代飛機(jī)電力需求

    Amphenol Aerospace高壓38999連接器:滿足下一代飛機(jī)電力需求 在飛機(jī)電力系統(tǒng)設(shè)計(jì)中,連接器的性能至關(guān)重要。隨著飛機(jī)技術(shù)的不斷發(fā)展,對(duì)連接器的要求也越來(lái)越高。Amphenol
    的頭像 發(fā)表于 12-15 11:10 ?552次閱讀

    5分鐘了解SEO優(yōu)化服務(wù)器對(duì)網(wǎng)站加載速度的影響

    個(gè)為SEO優(yōu)化過(guò)的服務(wù)器,能顯著提升網(wǎng)站性能,從而在搜索引擎排名中占據(jù)有利位置。
    的頭像 發(fā)表于 12-02 10:27 ?332次閱讀

    AI眼鏡或成為下一代手機(jī)?谷歌、蘋果等巨頭扎堆布局

    近年來(lái),AI智能眼鏡賽道迎來(lái)爆發(fā)式增長(zhǎng)。谷歌、蘋果、Meta、亞馬遜等科技巨頭紛紛加快布局,將AI眼鏡視為下一代人機(jī)交互的關(guān)鍵入口。從消費(fèi)級(jí)產(chǎn)品到行業(yè)專用設(shè)備,多樣化的AI眼鏡正逐步走入現(xiàn)實(shí),甚至業(yè)內(nèi)預(yù)測(cè):AI眼鏡或?qū)⑻娲悄苁謾C(jī)。
    的頭像 發(fā)表于 11-05 17:44 ?793次閱讀

    安森美SiC器件賦能下一代AI數(shù)據(jù)中心變革

    電源解決方案。特別是近期,安森美攜手英偉達(dá),共推下一代AI數(shù)據(jù)中心加速向800V直流供電方案轉(zhuǎn)型,這種技術(shù)能力的廣度和深度使安森美成為少數(shù)能以可擴(kuò)展、可實(shí)際落地的設(shè)計(jì)滿足現(xiàn)代AI基礎(chǔ)設(shè)施嚴(yán)苛供電需求的公司之。
    的頭像 發(fā)表于 10-31 13:47 ?743次閱讀

    Telechips與Arm合作開發(fā)下一代IVI芯片Dolphin7

    Telechips宣布,將在與 Arm的戰(zhàn)略合作框架下,正式開發(fā)下一代車載信息娛樂系統(tǒng)(IVI)系統(tǒng)級(jí)芯片(SoC)“Dolphin7”。
    的頭像 發(fā)表于 10-13 16:11 ?1174次閱讀

    用于下一代 GGE 和 HSPA 手機(jī)的多模式/多頻段功率放大器模塊 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()用于下一代 GGE 和 HSPA 手機(jī)的多模式/多頻段功率放大器模塊相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有用于下一代 GGE 和 HSPA 手機(jī)的多模式/多頻段功率放大器模塊的引腳圖
    發(fā)表于 09-08 18:33
    用于<b class='flag-5'>下一代</b> GGE 和 HSPA 手機(jī)的多模式/多頻段功率放大器模塊 skyworksinc

    適用于下一代 GGE 和 HSPA 手機(jī)的多模/多頻段 PAM skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()適用于下一代 GGE 和 HSPA 手機(jī)的多模/多頻段 PAM相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有適用于下一代 GGE 和 HSPA 手機(jī)的多模/多頻段 PAM的引腳圖、接線圖、封裝
    發(fā)表于 09-05 18:34
    適用于<b class='flag-5'>下一代</b> GGE 和 HSPA 手機(jī)的多模/多頻段 PAM skyworksinc

    安森美攜手英偉達(dá)推動(dòng)下一代AI數(shù)據(jù)中心發(fā)展

    安森美(onsemi,美國(guó)納斯達(dá)克股票代號(hào):ON)宣布與英偉達(dá)(NVIDIA)合作,共同推動(dòng)向800V直流(VDC)供電架構(gòu)轉(zhuǎn)型。這變革性解決方案將推動(dòng)下一代人工智能(AI)數(shù)據(jù)中心在能效、密度及可持續(xù)性方面實(shí)現(xiàn)顯著提升。
    的頭像 發(fā)表于 08-06 17:27 ?1482次閱讀

    驅(qū)動(dòng)下一代E/E架構(gòu)的神經(jīng)脈絡(luò)進(jìn)化—10BASE-T1S

    隨著“中央+區(qū)域”架構(gòu)的演進(jìn),10BASE-T1S憑借其獨(dú)特優(yōu)勢(shì),將成為驅(qū)動(dòng)下一代汽車電子電氣(E/E)架構(gòu)“神經(jīng)系統(tǒng)”進(jìn)化的關(guān)鍵技術(shù)。
    的頭像 發(fā)表于 07-08 18:17 ?797次閱讀
    驅(qū)動(dòng)<b class='flag-5'>下一代</b>E/E架構(gòu)的神經(jīng)脈絡(luò)進(jìn)化—10BASE-T1S

    下一代高速芯片晶體管解制造問(wèn)題解決了!

    ,10埃)開始直使用到A7。 從這些外壁叉片晶體管的量產(chǎn)中獲得的知識(shí)可能有助于下一代互補(bǔ)場(chǎng)效應(yīng)晶體管(CFET)的生產(chǎn)。 目前,領(lǐng)先的芯片制造商——英特爾、臺(tái)積電和三星——正在利用其 18A、N2
    發(fā)表于 06-20 10:40

    下一代PX5 RTOS具有哪些優(yōu)勢(shì)

    許多古老的RTOS設(shè)計(jì)至今仍在使用,包括Zephyr(1980年)、Nucleus(1990年)和FreeRTOS(2003年)。所有這些舊設(shè)計(jì)都有專有的API,通常更大、更慢,并且缺乏下一代RTOS的必要安全認(rèn)證和功能。
    的頭像 發(fā)表于 06-19 15:06 ?1096次閱讀

    光庭信息推出下一代整車操作系統(tǒng)A2OS

    ,正式推出面向中央計(jì)算架構(gòu)、支持人機(jī)協(xié)同開發(fā)的下一代整車操作系統(tǒng)A2OS(AI × Automotive OS),賦能下一代域控軟件解決方案的快速研發(fā),顯著提升整車智能化水平。 A2OS 核心架構(gòu) A2OS采用"軟硬解耦、軟軟解耦"的設(shè)計(jì)理念,構(gòu)建了面向AP/CP的
    的頭像 發(fā)表于 04-29 17:37 ?1362次閱讀
    光庭信息推出<b class='flag-5'>下一代</b>整車操作系統(tǒng)A2OS