91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用基于英特爾? SGX 的可信執(zhí)行環(huán)境有效應(yīng)對(duì)大語言模型隱私和安全挑戰(zhàn)

英特爾中國 ? 來源:未知 ? 2023-07-14 20:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1

可信執(zhí)行環(huán)境是什么?

大語言模型為什么需要它?

OpenAI 的 GPT 系列大語言模型(Large Language Mode,以下縮寫為 LLM)的興起與應(yīng)用,也帶來了諸如數(shù)據(jù)泄露、數(shù)據(jù)濫用、模型被攻擊和知識(shí)產(chǎn)權(quán)被竊取等一些列隱私和安全風(fēng)險(xiǎn)或挑戰(zhàn)。

可信執(zhí)行環(huán)境(Trusted Execution Environment,以下縮寫為 TEE)是一項(xiàng)基于軟硬件組合創(chuàng)建安全執(zhí)行環(huán)境,能夠更好地確保計(jì)算和數(shù)據(jù)處理機(jī)密性和完整性。其關(guān)鍵機(jī)制為:

  • 安全隔離:通過硬件加密和內(nèi)存隔離等硬件隔離技術(shù),將敏感數(shù)據(jù)和關(guān)鍵代碼與其他應(yīng)用及操作系統(tǒng)相隔離,從而確保它們即使在系統(tǒng)其他部分被攻擊或受到惡意軟件影響時(shí)也能夠得到更好的保護(hù)。

  • 安全驗(yàn)證:在啟動(dòng)過程中進(jìn)行身份驗(yàn)證和完整性檢查,確保只有經(jīng)過授權(quán)的代碼和數(shù)據(jù)可以在其中運(yùn)行,以此防止惡意軟件或未經(jīng)授權(quán)的訪問。

  • 安全執(zhí)行環(huán)境:提供包含加密算法、安全協(xié)議和密鑰管理等防護(hù)功能的執(zhí)行環(huán)境,用于處理敏感數(shù)據(jù)和執(zhí)行關(guān)鍵算法,以增強(qiáng)數(shù)據(jù)在執(zhí)行過程中的保密性和完整性。

TEE 與 LLM 可在多行業(yè)、多場景融合,TEE 可用于為 LLM 提供頗具商業(yè)落地價(jià)值的隱私和數(shù)據(jù)保護(hù)創(chuàng)新解決方案。

2

LLM 與 TEE 的融合需求

LLM 在許多行業(yè)的不同場景都有著廣泛應(yīng)用,例如金融行業(yè)的風(fēng)險(xiǎn)評(píng)估和交易分析,醫(yī)療保健領(lǐng)域的醫(yī)學(xué)圖像識(shí)別、病歷紀(jì)錄和疾病預(yù)測,以及法律和合規(guī)行業(yè)的法律咨詢、合同審查和文書處理等。這些行業(yè)或場景中涉及到的數(shù)據(jù)多為重要敏感的交易數(shù)據(jù)或個(gè)人數(shù)據(jù),必須得到有效保護(hù)。將 TEE 與 LLM 融合,有助于在這類場景中更好地保障數(shù)據(jù)在 LLM 模型訓(xùn)練和推理過程中的保密性。訓(xùn)練階段,TEE 中的數(shù)據(jù)處理都處于加密狀態(tài);推理階段,TEE 則可保護(hù)用戶輸入和模型結(jié)果的隱私。同時(shí),其硬件隔離和安全驗(yàn)證機(jī)制可以更有效地防止未經(jīng)授權(quán)的訪問和攻擊,增強(qiáng)模型運(yùn)行時(shí)的安全性。

3

TEE 與 LLM 融合的挑戰(zhàn):
資源和性能限制

  • 資源限制:TEE 的計(jì)算資源和存儲(chǔ)空間通常都非常有限,LLM 龐大的模型參數(shù)和計(jì)算需求可能會(huì)超出一般 TEE 的能力范圍。

  • 性能下降:I/O 數(shù)據(jù)的加密和安全計(jì)算操作會(huì)引入額外的計(jì)算開銷,導(dǎo)致模型訓(xùn)練和推理性能有一定程度下降?;谒惴ǖ慕鉀Q方案可減少模型規(guī)模和計(jì)算需求,以適應(yīng) TEE 的資源限制,但 CPU 仍會(huì)成為制約 LLM 訓(xùn)練的算力瓶頸。

4

基于英特爾 平臺(tái)的解決方案:
加速 TEE 與 LLM 融合應(yīng)用

4.1 基于英特爾 SGX/TDX[1] 的 TEE 解決方案

英特爾自第三代英特爾 至強(qiáng)可擴(kuò)展處理器開始內(nèi)置英特爾軟件防護(hù)擴(kuò)展(英特爾SGX)技術(shù),其安全飛地的容量最多可達(dá)單顆 CPU 512GB,雙路共計(jì) 1TB 容量,可滿足目前千億大模型的執(zhí)行空間需求。此外,該技術(shù)提供支持的機(jī)密計(jì)算可實(shí)現(xiàn)應(yīng)用層、虛擬機(jī)(VM)、容器和功能層的數(shù)據(jù)隔離。無論是在云端、邊緣還是本地環(huán)境,都能確保計(jì)算與數(shù)據(jù)始終在私密性和安全性上獲得更全面的保護(hù),以免暴露給云服務(wù)提供商、未經(jīng)授權(quán)的管理員和操作系統(tǒng),甚至是特權(quán)應(yīng)用。另一方面,英特爾Trust Domain Extension(英特爾 TDX)可將客戶機(jī)操作系統(tǒng)和虛擬機(jī)應(yīng)用與云端主機(jī)、系統(tǒng)管理程序和平臺(tái)的其他虛擬機(jī)隔離開來。它的信任邊界較英特爾SGX 應(yīng)用層的隔離邊界更大,使受其保護(hù)的機(jī)密虛擬機(jī)比基于英特爾SGX 的安全飛地的應(yīng)用更易于進(jìn)行大規(guī)模部署和管理,在部署 LLM 這類復(fù)雜應(yīng)用時(shí),TDX 在易用性上更具優(yōu)勢。此外,今年推出的全新第四代英特爾 至強(qiáng)可擴(kuò)展處理器內(nèi)置英特爾 AMX,可大幅提升矩陣運(yùn)算性能,而英特爾 SGX/TDX也可為英特爾AMX、英特爾 DL Boost等計(jì)算指令提供支持,進(jìn)而為 TEE 中的大模型賦予快速落地+優(yōu)化性能的雙重優(yōu)勢。 d386cf94-223e-11ee-962d-dac502259ad0.png

圖 1.SGX/TDX 的可信邊界

構(gòu)建完善的 TEE 生態(tài)系統(tǒng)對(duì)推動(dòng) LLM 的應(yīng)用和發(fā)展至關(guān)重要。開發(fā)者需要能夠簡化集成和使用過程的面向 TEE 的開發(fā)者工具和框架。為此,英特爾在 SDK 的基礎(chǔ)上,推出了開源的 lib OS 項(xiàng)目 Gramine 來幫助開發(fā)者更好地使用基于英特爾 SGX的 TEE,助推 LLM 與 TEE 的融合。

4.1.1 大語言模型推理

使用私有數(shù)據(jù)進(jìn)行個(gè)性化訓(xùn)練的大模型不僅包含私有數(shù)據(jù)信息,其查詢本身也具有隱私性,尤其是基于邊端的非安全環(huán)境部署?;谟⑻貭朣GX/TDX 的 TEE 可為大模型提供更安全的運(yùn)行環(huán)境,在數(shù)據(jù)上傳云端前,查詢可先通過客戶端對(duì)傳輸內(nèi)容加密,云端只需在英特爾 SGX/TDX 中解密查詢問題,然后輸入大模型的推理服務(wù)中,并將所得結(jié)果在云端的 TEE 中加密后傳輸回本地客戶端。在整個(gè)工作流程中,客戶端以外的數(shù)據(jù)和運(yùn)行態(tài)程序均處于密態(tài)環(huán)境當(dāng)中,效率遠(yuǎn)遠(yuǎn)高于其他基于純密碼學(xué)的解決方案。目前像 LLAMA 7B、ChatGLM 6B 等模型都可以在該 TEE 方案上滿足實(shí)時(shí)可交互性能的運(yùn)行。圖 2 展示了使用 LLM 部署知識(shí)問答的參考設(shè)計(jì)?;谟⑻貭朣GX/TDX 的 TEE 為實(shí)際部署 LLM 中的自有知識(shí)產(chǎn)權(quán)保護(hù)提供了一套完整的方案,優(yōu)化整個(gè)模型在查詢、傳輸和推理過程中的安全保護(hù)。

d3b13fd6-223e-11ee-962d-dac502259ad0.png

圖 2. 基于 TEE 的大語言模型私密問答

4.1.2 聯(lián)邦學(xué)習(xí)

借助基于TEE的聯(lián)邦學(xué)習(xí)解決方案[2](見圖 3),就可在多機(jī)構(gòu)之間實(shí)現(xiàn)基于 NLP 的深度學(xué)習(xí)例如使用 BERT 的命名體識(shí)別。在金融和醫(yī)療等行業(yè)提升準(zhǔn)確性,實(shí)現(xiàn)多機(jī)構(gòu)數(shù)據(jù)互通,同時(shí)更好避免數(shù)據(jù)泄露。此方案中每個(gè)參與方包含一個(gè)Avalon[3]管理模塊和 Gramine 工作負(fù)載,均運(yùn)行在英特爾SGX 的安全飛地中,在管理模塊彼此間的遠(yuǎn)程認(rèn)證完成執(zhí)行后,即可啟動(dòng)聯(lián)邦學(xué)習(xí)過程,參與方在本地使用各自的數(shù)據(jù)集進(jìn)行訓(xùn)練,然后將梯度上傳至聚合方,聚合方進(jìn)行聚合后將平均梯度下發(fā)至各參與方,以繼續(xù)進(jìn)行下一輪訓(xùn)練。對(duì)比圖 4 所示的 BERT + CRF 模型[4],此方案可以在強(qiáng)化隱私保護(hù)的同時(shí),讓性能損失維持在 50% 以下[2]。

d3e9b582-223e-11ee-962d-dac502259ad0.png

圖 3.基于 TEE的聯(lián)邦學(xué)習(xí)

d44ba2e2-223e-11ee-962d-dac502259ad0.png

圖 4.BERT+CRF模型[4]

4.2 BigDL:端到端大模型和 TEE 融合的方案

據(jù)行業(yè)用戶反饋,LLM 在端到端應(yīng)用中的痛點(diǎn)包括:

  • 軟件棧復(fù)雜,難以確保端到端應(yīng)用的安全。LLM 的訓(xùn)練和推理常依賴較多的軟件棧、服務(wù)和硬件。為保護(hù)用戶數(shù)據(jù)和模型產(chǎn)權(quán),需確保每個(gè)環(huán)節(jié)的安全性(不同硬件、運(yùn)行環(huán)境、網(wǎng)絡(luò)和存儲(chǔ)等)。

  • 計(jì)算量大,且對(duì)性能敏感。LLM 的計(jì)算量非常大,需引入足夠多的性能優(yōu)化。但是,不同模型、平臺(tái)和軟件棧需要使用不同的優(yōu)化方案,要在特定平臺(tái)上實(shí)現(xiàn)更理想的性能,需要長時(shí)間的性能調(diào)優(yōu)。

為解決這些痛點(diǎn),由英特爾主導(dǎo)的開源項(xiàng)目 BigDL,近期就推出了針對(duì) LLM 的隱私保護(hù)方案,其兩大主要功能為:

  • 提供端到端的安全保護(hù):在不修改代碼的情況下,為單機(jī)和分布式的 LLM 應(yīng)用提供端到端的安全保護(hù)功能。具體包括,基于英特爾 SGX/TDX 的 TEE、遠(yuǎn)程證明、統(tǒng)一的密鑰管理接口和透明的加解密 API 等。

  • 實(shí)現(xiàn)一站式性能優(yōu)化:BigDL Nano 提供的針對(duì) LLM 的一站式性能優(yōu)化方案,可讓現(xiàn)有 LLM 應(yīng)用在幾乎不用修改代碼的情況下受益于英特爾 AMX、英特爾 AVX-512 和英特爾 Extension for PyTorch。同時(shí),用戶還可利用 BigDL Nano 提供的 LLM API,快速構(gòu)建應(yīng)用。

d4750510-223e-11ee-962d-dac502259ad0.png

圖 5.BigDL端到端安全的大模型方案

如圖 6 所示,在應(yīng)用了 PPML(Privacy Preserving Machine Learning,隱私保護(hù)的機(jī)器學(xué)習(xí))提供的安全技術(shù)后,由于更強(qiáng)的安全和隱私保護(hù)會(huì)帶來額外開銷,因此端到端應(yīng)用性能會(huì)略有下降;但應(yīng)用了 BigDL Nano 提供的優(yōu)化功能后,端到端的性能得到了顯著改善*,總體性能甚至高于沒有任何保護(hù)的明文性能。

d4a62532-223e-11ee-962d-dac502259ad0.png

圖 6.BigDL PPML + Nano 端到端性能損失情況

目前,該方案已經(jīng)開源,并開始陸續(xù)交付給行業(yè)客戶進(jìn)行測試和集成[5]

5

未來趨勢

TEE 提供了隱私保護(hù)和數(shù)據(jù)安全防護(hù)功能的創(chuàng)新解決方案,將在 LLM 實(shí)際落地過程中扮演重要角色。通過將二者融合,可更好地保障數(shù)據(jù)在訓(xùn)練和推理過程中的保密性,增強(qiáng)對(duì)未經(jīng)授權(quán)訪問和模型結(jié)果篡改的防御。然而,在 TEE 中保護(hù)用戶隱私的同時(shí),需要平衡性能需求,隨著大模型對(duì)于計(jì)算需求的大幅提升,算力可能會(huì)執(zhí)行在異構(gòu)硬件上,TEE 和異構(gòu)硬件的結(jié)合將成為未來發(fā)展趨勢。隨著 CPU 性能的提升以及內(nèi)置 AI 加速技術(shù)的升級(jí)和更新,在方便部署的場景下,CPU 會(huì)是大模型推理和 TEE 結(jié)合的首選,在訓(xùn)練的場景下,基于 CPU 的 TEE 結(jié)合異構(gòu)硬件的加密支持,則會(huì)是大模型訓(xùn)練甚至大模型聯(lián)邦訓(xùn)練的技術(shù)方向。英特爾將一如既往地以軟硬結(jié)合的產(chǎn)品技術(shù)組合促進(jìn)開發(fā)者參與,推動(dòng) LLM 與 TEE 的融合。 作者 都在從事 AI 和 SGX/TDX 相關(guān)工作 俞巍:英特爾公司 AI 架構(gòu)師 李志強(qiáng):英特爾公司平臺(tái)安全資深架構(gòu)師 李青青:英特爾公司安全軟件研發(fā)工程師 龔奇源:英特爾公司軟件架構(gòu)師

資料援引:[1]SGX/TDX:https://www.intel.cn/content/www/cn/zh/customer-spotlight/cases/innovation-data-protection-with-security-engines.html

[2]Wei Yu. et al. 2022, TEE based Cross-silo Trustworthy Federated Learning Infrastructure, FL-IJCAI'22

[3]https://github.com/hyperledger-archives/avalon

[4]Souza, F., Nogueira, R. and Lotufo, R. 2020, Portuguese Named Entity Recognition using Bert-CRF, arXiv.org
(請(qǐng)參見
https://arxiv.org/pdf/1909.10649.pdf

[5]https://github.com/intel-analytics/BigDL/tree/main/python/llm

*性能優(yōu)化效果與具體平臺(tái)、模型和環(huán)境有關(guān)


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10301

    瀏覽量

    180432
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11277

    瀏覽量

    224956

原文標(biāo)題:用基于英特爾? SGX 的可信執(zhí)行環(huán)境有效應(yīng)對(duì)大語言模型隱私和安全挑戰(zhàn)

文章出處:【微信號(hào):英特爾中國,微信公眾號(hào):英特爾中國】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    英特爾與華陽通用聯(lián)手推出全新AI Box解決方案

    英特爾宣布推出基于最新英特爾 酷睿 Ultra 架構(gòu)的AI Box解決方案,將PC級(jí)旗艦算力引入汽車、工業(yè)自動(dòng)化、軌道交通、機(jī)器人等多種工業(yè)環(huán)境,為各行各業(yè)接入AI大模型提供高效靈活的
    的頭像 發(fā)表于 03-02 14:15 ?295次閱讀

    探索DeepSeek多樣化技術(shù)路徑,英特爾架構(gòu)師至強(qiáng)CPU嘗鮮

    近期大模型領(lǐng)域里最火的熱詞,或者說技術(shù)創(chuàng)新點(diǎn),非Engram (DeepSeek最新論文里設(shè)計(jì)的Engram機(jī)制) 莫屬。今天我們想分享的,是英特爾圍繞Engram開展的早期探索——至強(qiáng)? 處理器
    的頭像 發(fā)表于 02-05 11:13 ?312次閱讀
    探索DeepSeek多樣化技術(shù)路徑,<b class='flag-5'>英特爾</b>架構(gòu)師<b class='flag-5'>用</b>至強(qiáng)CPU嘗鮮

    向新而生,同“芯”向上!2025英特爾技術(shù)創(chuàng)新與產(chǎn)業(yè)生態(tài)大會(huì)在重慶舉行

    新機(jī)遇。為了實(shí)現(xiàn)這一目標(biāo),我們正在全力打造一個(gè)更強(qiáng)大、更聚焦、更具執(zhí)行力的英特爾。我的任務(wù)很明確:確保英特爾的產(chǎn)品能解決您最關(guān)鍵的挑戰(zhàn),助力大家在市場上贏得先機(jī)。”
    的頭像 發(fā)表于 11-19 21:34 ?5778次閱讀
    向新而生,同“芯”向上!2025<b class='flag-5'>英特爾</b>技術(shù)創(chuàng)新與產(chǎn)業(yè)生態(tài)大會(huì)在重慶舉行

    美國政府將入股英特爾?

    半導(dǎo)體制造公司和三星在內(nèi)的競爭對(duì)手也在美國設(shè)有工廠。美國總統(tǒng)唐納德·特朗普呼吁在美國生產(chǎn)更多芯片和高科技產(chǎn)品。 報(bào)道稱,政府的股份將有助于資助英特爾目前在俄亥俄州建設(shè)的工廠。 本周早些時(shí)候,英特爾首席執(zhí)行官陳立武在白
    的頭像 發(fā)表于 08-17 09:52 ?1104次閱讀

    硬件與應(yīng)用同頻共振,英特爾Day 0適配騰訊開源混元大模型

    今日,騰訊正式發(fā)布新一代混元開源大語言模型英特爾憑借在人工智能領(lǐng)域的全棧技術(shù)布局,現(xiàn)已在英特爾? 酷睿? Ultra 平臺(tái)上完成針對(duì)該模型
    的頭像 發(fā)表于 08-07 14:42 ?1365次閱讀
    硬件與應(yīng)用同頻共振,<b class='flag-5'>英特爾</b>Day 0適配騰訊開源混元大<b class='flag-5'>模型</b>

    英特爾銳炫Pro B系列,邊緣AI的“智能引擎”

    2025年6月19日,上海—— 在MWC 25上海期間,英特爾展示了一幅由英特爾銳炫? Pro B系列GPU所驅(qū)動(dòng)的“實(shí)時(shí)響應(yīng)、安全高效、成本可控”的邊緣AI圖景。 英特爾客戶端計(jì)算事
    的頭像 發(fā)表于 06-20 17:32 ?890次閱讀
    <b class='flag-5'>英特爾</b>銳炫Pro B系列,邊緣AI的“智能引擎”

    分析師:英特爾轉(zhuǎn)型之路,機(jī)遇與挑戰(zhàn)并存

    ,這正是英特爾當(dāng)前發(fā)展所需。上任后,他迅速推動(dòng)公司組織架構(gòu)重組,加大在制造與AI領(lǐng)域的投資,并將代工業(yè)務(wù)置于優(yōu)先位置。盡管面臨內(nèi)外多重挑戰(zhàn),英特爾股票在2025年上半年仍保持了穩(wěn)定走勢。 陳立武正在帶領(lǐng)
    的頭像 發(fā)表于 06-10 10:59 ?570次閱讀
    分析師:<b class='flag-5'>英特爾</b>轉(zhuǎn)型之路,機(jī)遇與<b class='flag-5'>挑戰(zhàn)</b>并存

    英特爾發(fā)布全新GPU,AI和工作站迎來新選擇

    英特爾推出面向準(zhǔn)專業(yè)用戶和AI開發(fā)者的英特爾銳炫Pro GPU系列,發(fā)布英特爾? Gaudi 3 AI加速器機(jī)架級(jí)和PCIe部署方案 ? 2025 年 5 月 19 日,北京 ——今日,在
    發(fā)表于 05-20 11:03 ?1844次閱讀

    英特爾代工:明確重點(diǎn)廣合作,服務(wù)客戶鑄信任

    封裝技術(shù)的最新進(jìn)展,并宣布了全新的生態(tài)系統(tǒng)項(xiàng)目和合作關(guān)系。此外,行業(yè)領(lǐng)域齊聚一堂,探討英特爾的系統(tǒng)級(jí)代工模式如何促進(jìn)與合作伙伴的協(xié)同,幫助客戶推進(jìn)創(chuàng)新。 英特爾公司首席執(zhí)行官陳立武(Lip-Bu Tan)在開幕演講中分享了
    的頭像 發(fā)表于 04-30 10:23 ?536次閱讀
    <b class='flag-5'>英特爾</b>代工:明確重點(diǎn)廣合作,服務(wù)客戶鑄信任

    英特爾宣布裁員20% 或2萬人失業(yè)

    據(jù)外媒彭博社的報(bào)道,在當(dāng)?shù)貢r(shí)間4月24日,英特爾宣布裁員計(jì)劃,比例超20%。按照截至2024年底英特爾在全球擁有108900名員工來計(jì)算的話,預(yù)計(jì)此次裁員將波及大約2.2萬名員工。旨在精簡管理,并重
    的頭像 發(fā)表于 04-25 17:34 ?620次閱讀

    從想象到現(xiàn)實(shí),英特爾與MAXHUB帶你走進(jìn)AI PC新視界

    事業(yè)部邊緣計(jì)算CTO、英特爾客戶端計(jì)算事業(yè)部高級(jí)首席AI工程師張宇博士、MAXHUB總裁林宇升出席會(huì)議,并就研發(fā)理念、產(chǎn)品技術(shù)進(jìn)行分享。 張宇博士表示:“大語言模型、生成式 AI 等正在加速落地,深度滲透到各個(gè)產(chǎn)業(yè)領(lǐng)域,為企業(yè)生
    的頭像 發(fā)表于 04-21 10:40 ?523次閱讀
    從想象到現(xiàn)實(shí),<b class='flag-5'>英特爾</b>與MAXHUB帶你走進(jìn)AI PC新視界

    更高效更安全的商務(wù)會(huì)議:英特爾聯(lián)合海信推出會(huì)議領(lǐng)域新型垂域模型方案

    2025年4月16日,北京 ——在今日召開的專業(yè)視聽行業(yè)的年度盛會(huì)InfoComm China 2025上,英特爾攜手海信聯(lián)合發(fā)布海信自研端側(cè)會(huì)議領(lǐng)域垂域模型解決方案,助力商務(wù)會(huì)議更加安全、高效
    的頭像 發(fā)表于 04-21 09:50 ?832次閱讀
    更高效更<b class='flag-5'>安全</b>的商務(wù)會(huì)議:<b class='flag-5'>英特爾</b>聯(lián)合海信推出會(huì)議領(lǐng)域新型垂域<b class='flag-5'>模型</b>方案

    自然語言提示原型在英特爾Vision大會(huì)上首次亮相

    英特爾Vision大會(huì)上,Network Optix首次展示了自然語言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅(qū)動(dòng)的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?962次閱讀

    部署成本顯著降低!英特爾助陣高效AI算力一體機(jī)方案

    3月27日,英特爾舉辦了名為“‘至’繪未來,銳炫來襲”的創(chuàng)新解決方案研討會(huì),與生態(tài)伙伴共同分享最新AI算力一體機(jī)方案。該方案基于英特爾?至強(qiáng)? W處理器和多個(gè)英特爾銳炫?顯卡,可為日益增長的AI
    的頭像 發(fā)表于 03-29 16:29 ?2091次閱讀
    部署成本顯著降低!<b class='flag-5'>英特爾</b>助陣高效AI算力一體機(jī)方案

    英特爾宣布換帥 英特爾任命陳立武(Lip-Bu Tan)為首席執(zhí)行官 3月18日生效

    英特爾宣布換帥,董事會(huì)任命陳立武為公司首席執(zhí)行官,于2025年3月18日生效。陳立武是一位成就卓著的科技領(lǐng)袖,擁有深厚的半導(dǎo)體行業(yè)經(jīng)驗(yàn)。他將接替現(xiàn)任臨時(shí)聯(lián)合首席執(zhí)行官David Zinsner
    的頭像 發(fā)表于 03-13 11:57 ?1670次閱讀