91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用Ollama輕松搞定Llama 3.2 Vision模型本地部署

jf_23871869 ? 來(lái)源:jf_23871869 ? 作者:jf_23871869 ? 2024-11-23 17:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Ollama 是一個(gè)開源的大語(yǔ)言模型服務(wù)工具,它的核心目的是簡(jiǎn)化大語(yǔ)言模型(LLMs)的本地部署和運(yùn)行過程,請(qǐng)參考《Gemma 2+Ollama在算力魔方上幫你在LeetCode解題》,一條命令完成Ollama的安裝。

wKgZoWc7JxyAIjH6AAOAYWrMm0s290.png

一,Llama3.2 Vision簡(jiǎn)介

Llama 3.2 Vision是一個(gè)多模態(tài)大型語(yǔ)言模型(LLMs)的集合,它包括預(yù)訓(xùn)練和指令調(diào)整的圖像推理生成模型,有兩種參數(shù)規(guī)模:11B(110億參數(shù))和90B(900億參數(shù))。Llama 3.2 Vision在視覺識(shí)別、圖像推理、字幕以及回答有關(guān)圖像的通用問題方面進(jìn)行了優(yōu)化,在常見的行業(yè)基準(zhǔn)上優(yōu)于許多可用的開源和封閉多模式模型。

二,在算力魔方4060版上完成部署

算力魔方?4060版是一款包含4060 8G顯卡的迷你主機(jī),運(yùn)行:

ollama run llama3.2-vision

完成Llama 3.2 Vision 11B模型下載和部署。

wKgZoWc7Jy6AeY5QAAI2F4BFv0k897.png

三,Llama 3.2實(shí)現(xiàn)圖片識(shí)別

將圖片輸入Llama3.2-Vision,然后直接輸入問題,即可獲得圖片信息,如下面視頻所示:

視頻若無(wú)加載,請(qǐng)移步至主頁(yè)查看關(guān)聯(lián)視頻。

四,總結(jié)

在算力魔方?4060版上,用Ollama輕松搞定Llama 3.2 Vision模型本地部署。

更多精彩內(nèi)容請(qǐng)關(guān)注“算力魔方?”!

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3751

    瀏覽量

    52093
  • Vision
    +關(guān)注

    關(guān)注

    1

    文章

    205

    瀏覽量

    19421
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在ZYNQ本地部署DeepSeek模型

    一個(gè)將最小號(hào) DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 處理系統(tǒng)的項(xiàng)目。
    的頭像 發(fā)表于 12-19 15:43 ?7564次閱讀
    如何在ZYNQ<b class='flag-5'>本地</b><b class='flag-5'>部署</b>DeepSeek<b class='flag-5'>模型</b>

    【CIE全國(guó)RISC-V創(chuàng)新應(yīng)用大賽】基于 K1 AI CPU 的大模型部署落地

    的 落地方案 : 1. 系統(tǒng)部署方案書 (System Proposal) 方案要點(diǎn) 部署工具 :使用官方提供的 spacemit-llama.cpp (v0.0.4) 二進(jìn)制包。 模型
    發(fā)表于 11-27 14:43

    vision board部署模型到openmv的代碼導(dǎo)致連接超時(shí)怎么解決?

    在env終端中勾選了tiflte support后燒錄mdk到板子上后就開始顯示連接不到 無(wú)法部署模型
    發(fā)表于 09-19 07:59

    本地部署openWebUI + ollama+DeepSeek 打造智能知識(shí)庫(kù)并實(shí)現(xiàn)遠(yuǎn)程訪問

    。 DeepSeek 作為一個(gè)開源的大語(yǔ)言模型,我們可以通過 ZeroNews + openWebUI + ollama的方式,輕松的在本地私有化
    的頭像 發(fā)表于 09-10 16:41 ?5372次閱讀
    <b class='flag-5'>本地</b><b class='flag-5'>部署</b>openWebUI + <b class='flag-5'>ollama</b>+DeepSeek 打造智能知識(shí)庫(kù)并實(shí)現(xiàn)遠(yuǎn)程訪問

    宏集HMI-4G套裝,輕松搞定“數(shù)據(jù)上云+異地遠(yuǎn)程運(yùn)維”

    工業(yè)現(xiàn)場(chǎng)設(shè)備分散、環(huán)境復(fù)雜、網(wǎng)絡(luò)難部署?宏集 HMI-4G 套裝一站搞定!輕松打破數(shù)據(jù)孤島,實(shí)現(xiàn)數(shù)據(jù)上云與遠(yuǎn)程運(yùn)維。文末附有真實(shí)客戶案例,歡迎查閱參考。
    的頭像 發(fā)表于 08-14 16:46 ?1060次閱讀
    宏集HMI-4G套裝,<b class='flag-5'>輕松</b><b class='flag-5'>搞定</b>“數(shù)據(jù)上云+異地遠(yuǎn)程運(yùn)維”

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語(yǔ)言模型部署

    1、ollama平臺(tái)搭建 ollama可以快速地部署開源大模型,網(wǎng)址為https://ollama.com, 試用該平臺(tái),可以在多平臺(tái)上
    發(fā)表于 07-19 15:45

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    下一步行動(dòng)。本文將一步步帶你在本地服務(wù)器上完成該模型部署,并搭建一個(gè)直觀的 Web 交互界面,親身體驗(yàn)前沿 AI 的“思考”過程。
    的頭像 發(fā)表于 07-09 10:17 ?801次閱讀

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無(wú)符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開發(fā)板本地部署DeepSeek大模型的完整指南

    ELF 2開發(fā)板本地部署DeepSeek大模型的完整指南
    的頭像 發(fā)表于 05-16 11:13 ?2542次閱讀
    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開發(fā)板<b class='flag-5'>本地</b><b class='flag-5'>部署</b>DeepSeek大<b class='flag-5'>模型</b>的完整指南

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】CPU部署DeekSeek-R1模型(1B和7B)

    架構(gòu)和動(dòng)態(tài)計(jì)算分配技術(shù),在保持模型性能的同時(shí)顯著降低了計(jì)算資源需求。 模型特點(diǎn): 參數(shù)規(guī)模靈活:提供1.5B/7B/33B等多種規(guī)格 混合精度訓(xùn)練:支持FP16/INT8/INT4量化部署 上下文感知
    發(fā)表于 04-21 00:39

    DeepSeek R1模型本地部署與產(chǎn)品接入實(shí)操

    針對(duì)VS680/SL1680系列大算力芯片,我們的研發(fā)團(tuán)隊(duì)正在研究將蒸餾后的輕量級(jí)DeepSeek模型(DeepSeek-R1-Distill-Qwen-1.5B)部署到SOC本地,以便應(yīng)用于相關(guān)
    的頭像 發(fā)表于 04-19 16:32 ?755次閱讀
    DeepSeek R1<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>與產(chǎn)品接入實(shí)操

    如何在Ollama中使用OpenVINO后端

    Ollama 和 OpenVINO 的結(jié)合為大型語(yǔ)言模型(LLM)的管理和推理提供了強(qiáng)大的雙引擎驅(qū)動(dòng)。Ollama 提供了極簡(jiǎn)的模型管理工具鏈,而 OpenVINO 則通過 Intel
    的頭像 發(fā)表于 04-14 10:22 ?1526次閱讀

    博實(shí)結(jié)完成DeepSeek大模型本地部署

    近日,公司完成DeepSeek R1 671B大模型本地部署。通過構(gòu)建自主可控的AI基礎(chǔ)設(shè)施,公司同步實(shí)現(xiàn)研發(fā)智能升級(jí)、研發(fā)成本重構(gòu)、數(shù)據(jù)安全閉環(huán)與應(yīng)用場(chǎng)景突破,為產(chǎn)業(yè)智能化賦能。
    的頭像 發(fā)表于 03-19 16:31 ?1327次閱讀

    如何在RakSmart服務(wù)器上Linux系統(tǒng)部署DeepSeek

    選擇 根據(jù)需求選擇以下兩種主流方案: 1. 輕量化部署(推薦新手): 工具:Ollama(支持快速安裝與模型管理) 步驟: 1. 安裝 Ollama:執(zhí)行 `curl -fsSL ht
    的頭像 發(fā)表于 03-14 11:53 ?763次閱讀

    在MAC mini4上安裝Ollama、Chatbox及模型交互指南

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 一,簡(jiǎn)介 本文將指導(dǎo)您如何在MAC mini4上安裝Ollama和Chatbox,并下載Deepseek-r1:32b模型Ollama是一個(gè)用于管理和運(yùn)行
    的頭像 發(fā)表于 03-11 17:17 ?1620次閱讀
    在MAC mini4上安裝<b class='flag-5'>Ollama</b>、Chatbox及<b class='flag-5'>模型</b>交互指南