chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

拒絕手寫代碼!Openclaw+Skill一鍵部署Qwen3.5到算能邊緣盒子

算能開發(fā)者社區(qū) ? 2026-04-18 17:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

通義千問最新一代多模態(tài)大模型Qwen3.5已成功適配能BM1684XBM1688系列TPU芯片,2B、4B、9B三個版本均已適配,從預編譯 bmodel 可 LLM-TPU(附錄鏈接(4))直接下載使用。本文介紹如何通過Openclaw + Skill實現(xiàn)全自動部署——不寫一行代碼,不記一條命令,對話即部署。

關于Qwen3.5

Qwen3.5(附錄鏈接(1))是阿里通義實驗室推出的新一代多模態(tài)大語言模型,主要亮點包括:

  • 多模態(tài)理解:原生支持圖片和視頻輸入,可對圖像內容進行精細化描述、文字識別、場景理解等
  • 創(chuàng)新架構:采用Full Attention + Linear Attention 混合架構,兼顧理解深度與推理效率
  • 多語言支持:流暢支持超過100種語言
  • 豐富的能力矩陣:文本生成、邏輯推理、視覺分析、代碼開發(fā)、多語言對話等全面覆蓋
  • 多版本可選:提供2B、4B、9B等多種參數(shù)規(guī)模,滿足不同場景需求

相對于上一代Qwen3VL,表現(xiàn)更加優(yōu)異,如下:

901b537e-3b09-11f1-ab55-92fbcf53809c.png

Openclaw + Skill:對話即部署

傳統(tǒng)部署流程需要手動拉代碼、裝依賴、編譯擴展、下載模型、寫啟動腳本……每一步都可能踩坑。而通過Openclaw(附錄鏈接(2))+ Skill,這一切只需兩步

第一步:添加 技能

將 qwen3_5-bmodel Skill(附錄鏈接(3))添加到Openclaw:

gitclonehttps://github.com/baifengbai/skill_hub.git
ln -s"$(pwd)/skill_hub/skills/qwen3_5-bmodel"~/.Openclaw/skills/qwen3_5-bmodel

第二步:用自然語言描述需求

在 Openclaw 中輸入:

幫我在 BM1684X 設備(IP: 192.168.150.2)上部署 Qwen3.5 多模態(tài)模型,啟動 Web 服務

將替換為你的 BM1684X 設備實際 IP 地址。192.168.150.2

就這么簡單。Openclaw 自動讀取 Skill 文檔,全程接管:

  • 通過 gssh 連接遠程邊緣盒子
  • 拉取 LLM-TPU(附錄鏈接(4))代碼,編譯 chat.so
  • 下載預編譯 bmodel(~2.3G)
  • 上傳 Flask Web 服務,配置 SSE 流式輸出
  • 建立端口轉發(fā),本地瀏覽器直接訪問

部署完成后,打開 即可體驗圖片/視頻/文字多模態(tài)問答:


為什么用 Skill?

Skill 不只是一個部署腳本。它沉淀了真實踩坑經驗

坑點

Skill 中的解決方案

系統(tǒng) Python 3.8 無法加載 cpython-310 的 chat.so自動使用 Python 3.10 虛擬環(huán)境
transformers 4.x 不識別 Qwen3.5 model_type自動升級到 Transformers >= 5.x
config 缺少 processor_config.json 導致 Processor 回退自動補全配置文件
dfss SFTP 模式下載新文件失敗自動切換 HTTP 模式
Dash 沒有 disown,后臺進程被殺使用 setsid 脫離會話
前端 SSE 流第二輪無法發(fā)送正確處理 reader.cancel()

這些經驗被結構化地寫入 Skill 文檔,AI Agent 讀取后自動規(guī)避,讓你不再重復踩坑

完整 Skill 庫見 skill_hub(附錄鏈接(5)),已添加多個模型的skill一鍵部署:

技能

模型

說明

qwen3_5-bmodelQwen3.5-VL-2B多模態(tài)圖片/視頻/文字問答
QWEN3-bmodelQwen3-4B文本對話 LLM
Vila-bmodelViLA-1.5-3B視覺語言模型
FunASR-bmodelFunASR語音識別
YOLOV5-bmodelYOLOv5s目標檢測
ppocr-bmodelPP-OCRv4文字識別
ByteTrack-bmodelYOLOv5s多目標追蹤

已適配版本

Qwen3.5 的2B、4B、9B三個參數(shù)版本均已完成適配,INT4 量化預編譯 bmodel 可從 LLM-TPU(附錄鏈接(4))直接下載,開箱即用:

版本

量化方式

平臺

Qwen 3.5-2BINT4自動回合 W4BF16BM1684X / BM1688
Qwen3.5-4BINT4自動回合 W4BF16BM1684X / BM1688
Qwen3.5-9BINT4自動回合 W4BF16BM1684X / BM1688

更大參數(shù)版本(4B、9B)適合對精度要求更高的場景,用戶可根據(jù)實際算力和業(yè)務需求靈活選擇。

性能表現(xiàn)

基于 BM1684X 平臺,INT4量化的 Qwen3.5-2B 模型實測表現(xiàn):

指標

數(shù)值

首Token延遲(FTL)

~0.46s(圖片輸入) / ~0.10s(純文本)

生成速度(TPS)

~27.7 tokens/s

視覺編碼耗時

~0.2s

以一張768×768圖片為例,僅占用約576個Token,高效平衡了圖像理解精度與推理速度。

效果展示

下圖展示了 Qwen3.5 在BM1684X上運行的實際效果,包括圖片理解和純文本對話:

902e5bf4-3b09-11f1-ab55-92fbcf53809c.png

模型能夠對輸入圖片進行詳細的場景描述(床、梳妝臺、書架、植物、裝飾等元素的精準識別),并在純文本模式下流暢對話,展現(xiàn)出優(yōu)秀的多模態(tài)理解能力。

應用場景

Qwen3.5在TPU上的適配,為以下場景提供了高性價比的端側AI方案:

  • 智能安防:實時視頻流的場景理解與異常檢測
  • 智能零售商品識別、貨架分析、顧客行為理解
  • 工業(yè)質檢:產品外觀缺陷檢測與分析報告生成
  • 智慧文檔:合同、票據(jù)、表格等文檔的OCR與結構化提取
  • 教育科研:圖表解讀、論文輔助閱讀與多語言翻譯
  • 邊緣智能設備機器人、無人機嵌入式平臺的多模態(tài)交互

總結

Qwen3.5成功落地算能BM1684X/BM1688平臺,標志著國產大模型與國產AI芯片的又一次深度協(xié)同。通過 Openclaw + Skill的自動化部署方案,開發(fā)者可以真正實現(xiàn)零代碼、零門檻地將前沿多模態(tài)AI能力部署到邊緣設備中。

  • 想要極簡體驗?用Openclaw + Skill,對話即部署
  • 想要深度定制?參考手動部署方式

手動部署方式

如果你更習慣手動操作,也可以按以下步驟部署。

模型編譯

通過算能TPU-MLIR編譯框架,僅需一條命令即可完成模型編譯:

llm_convert.py -m Qwen3.5-2B-int4-AutoRound --max_input_length 1024 -s 2048 -c bm1684x --out_dir qwen3.5 --max_pixels 768,768

支持INT4量化(AutoRound/AWQ/GPTQ),在保持模型精度的同時大幅降低顯存占用和推理成本。

下載預編譯 bmodel

#BM1684X
python3 -m dfss --url=open@sophgo.com:/ext_model_information/LLM/LLM-TPU/qwen3.5-2b-int4-autoround_w4bf16_seq2048_bm1684x_1dev_dynamic_20260415_111517.bmodel

#BM1688
python3 -m dfss --url=open@sophgo.com:/ext_model_information/LLM/LLM-TPU/qwen3.5-2b-int4-autoround_w4bf16_seq2048_bm1688_2core_dynamic_20260415_212627.bmodel

Python 運行

訪問 LLM-TPU Qwen3_5 目錄(附錄鏈接(4)),有 Python 和 C++ 兩種 Demo:

903c9a34-3b09-11f1-ab55-92fbcf53809c.png

pip3 install torchvision transformers qwen_vl_utils
cd python_demo
mkdir build && cd build && cmake .. && make && cp *cpython* .. && cd ..
python3 pipeline.py -m your_model.bmodel -c config

C++ 運行

cd cpp_demo
mkdir build && cd build && cmake .. && make && cp pipeline .. && cd ..
./pipeline -m your_model.bmodel -c config


適配與驗證日期:2026年4月16日

附錄

鏈接匯總

編號

地址

(1)

https://www.modelscope.cn/collections/Qwen/Qwen35

(2)

https://github.com/openclaw/openclaw

(3)

https://github.com/baifengbai/skill_hub/tree/main/skills/qwen3_5-bmodel

(4)

https://github.com/sophgo/LLM-TPU/tree/main/models/Qwen3_5

(5)

https://github.com/baifengbai/skill_hub

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • skill
    +關注

    關注

    0

    文章

    17

    瀏覽量

    12182
  • 大模型
    +關注

    關注

    2

    文章

    3750

    瀏覽量

    5268
  • OpenClaw
    +關注

    關注

    0

    文章

    34

    瀏覽量

    18
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【幸狐Omni3576邊緣計算套件試用體驗】OpenClaw 板端部署

    【幸狐Omni3576邊緣計算套件試用體驗】OpenClaw 板端部署 本文介紹了幸狐Omni3576邊緣計算套件實現(xiàn) OpenClaw
    發(fā)表于 04-19 20:56

    AIBOX + JishuShell:一鍵部署端側 AI,把本地龍蝦“裝”進小盒子

    JishuShell:款能夠將龍蝦一鍵部署本地的工具,讓AIAgent更方便實現(xiàn)本地運行。目前,F(xiàn)ireflyAIBOX-3576和AIBOX-3588已成功跑通Ji
    的頭像 發(fā)表于 04-15 16:35 ?308次閱讀
    AIBOX + JishuShell:<b class='flag-5'>一鍵</b><b class='flag-5'>部署</b>端側 AI,把本地龍蝦“裝”進小<b class='flag-5'>盒子</b>

    海光DCU完成Qwen3.5多模態(tài)MoE模型全量適配

    近日,海光DCU完成Qwen3.5-397B MoE旗艦多模態(tài)模型、Qwen3.5-35B-A3B MoE多模態(tài)模型全量適配、精度對齊與推理部署驗證。本次適配依托FlagOS專屬vLLM-plugin-FL多芯片插件實現(xiàn)落地。
    的頭像 發(fā)表于 03-26 09:35 ?624次閱讀

    天數(shù)智芯完成阿里云通義千問Qwen3.5系列多模態(tài)模型全量適配

    近日,天數(shù)智芯攜手眾智FlagOS 社區(qū)完成阿里云通義千問 Qwen3.5 系列多模態(tài)模型全量適配,實現(xiàn)模型精度精準對齊與端端無縫部署,再度彰顯公司在通用 GPU 領域深厚的技術積淀與領先的生態(tài)適配能力。
    的頭像 發(fā)表于 03-26 09:25 ?1391次閱讀

    OpenClaw搭建教程:云服務器一鍵部署完整流程

    很多開發(fā)者在了解OpenClaw之后,最關心的其實是個非常實際的問題:OpenClaw到底怎么搭建?普通云服務器能不能部署?過程復雜嗎? 答案其實很簡單。
    的頭像 發(fā)表于 03-12 14:39 ?608次閱讀

    沐曦股份曦云C系列GPU全面適配通義千問Qwen3.5三款新模型

    今日,通義千問團隊正式開源發(fā)布Qwen3.5系列中等規(guī)模模型,推出包括Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B三個版本。沐曦股份旗下曦
    的頭像 發(fā)表于 02-28 10:05 ?676次閱讀
    沐曦股份曦云C系列GPU全面適配通義千問<b class='flag-5'>Qwen3.5</b>三款新模型

    美格智能高力AI模組+Qwen3.5,打造端側最強AI智能體

    ”提供強大的力底座,成為解鎖AI原生應用的關鍵。QWEN3.5開發(fā)者友好,適合本地部署近期,Qwen3.5系列模型的發(fā)布,為AI的本地化部署
    的頭像 發(fā)表于 02-27 08:33 ?561次閱讀
    美格智能高<b class='flag-5'>算</b>力AI模組+<b class='flag-5'>Qwen3.5</b>,打造端側最強AI智能體

    摩爾線程MTT S5000全面適配Qwen3.5三款新模型

    時間做出極速響應,宣布已在旗艦級AI訓推體全功能GPU MTT S5000上,完成對這三款全新模型的全方位適配。 ? 此次高效支持充分展示了摩爾線程MUSA生態(tài)的成熟度與完備性。在本次Qwen3.5
    的頭像 發(fā)表于 02-26 16:23 ?716次閱讀

    沐曦股份曦云C系列GPU深度適配通義千問Qwen3.5模型

    今天,通義千問今天正式發(fā)布 Qwen3.5,并推出Qwen3.5系列的第款模型 Qwen3.5-397B-A17B 的開放權重版本。沐曦股份曦云C系列GPU 完成對
    的頭像 發(fā)表于 02-26 14:26 ?758次閱讀
    沐曦股份曦云C系列GPU深度適配通義千問<b class='flag-5'>Qwen3.5</b>模型

    香橙派全志系列開發(fā)板適配OpenClaw教程

    。這些高性價比開發(fā)板現(xiàn)在也能流暢運行您的“數(shù)字員工”。您無需高昂投入,只需塊百元級的全志開發(fā)板,就能在本地部署理解指令、操作軟件、處理工作流的智能體,讓AI助手成為人人可及的日
    發(fā)表于 02-25 18:29

    香橙派昇騰系列開發(fā)板如何部署OpenClaw

    香橙派昇騰系列開發(fā)板解鎖專業(yè)級智能體,OpenClaw擁抱高力未來 上兩篇文章我們給出了香橙派此芯及RK系列產品部署OpenClaw的教程,接下來我們將這只智能小龍蝦接入
    發(fā)表于 02-25 10:13

    摩爾線程快速完成對Qwen3.5模型全面適配

    2月17日,摩爾線程宣布已在旗艦級AI訓推體全功能GPU MTT S5000上完成對阿里最新大模型Qwen3.5的全方位適配。此次支持充分展示了摩爾線程MUSA生態(tài)的成熟度與完備性,開發(fā)者可通過
    發(fā)表于 02-18 08:32 ?1116次閱讀

    OPi RK3588/RK3588S系列產品全面適配Openclaw,智能體“人人可及”時代正式開啟

    。 Orangepi5plus_1.2.0_ubuntu_jammy_desktop_xfce_linux6.1.43.7z 在終端中執(zhí)行官方一鍵安裝的腳本 curl -fsSL https://molt.bot/install.sh | bash 下載完成后,會自動進入配置界面,配置
    發(fā)表于 02-10 17:43

    OPi 6Plus全面適配OpenClaw

    6Plus這塊高性能國產開發(fā)板上,實現(xiàn)OpenClaw的極致優(yōu)化與穩(wěn)定部署,從此擁有個自己專屬的、免費的、力充沛、穩(wěn)定可靠、7x24小時在線的“超級員工”。 話不多說,開整! 首
    發(fā)表于 02-06 20:00

    后摩智能M50芯片成功部署OpenClaw

    近日,由OpenClaw(曾用名ClawdBot)引發(fā)的技術熱潮持續(xù)擴散,這現(xiàn)象被不少人稱為AI Agent的“ChatGPT時刻”。昨日,后摩智能名工程師通過搭載后摩智能M50芯片的邊緣
    的頭像 發(fā)表于 02-02 16:31 ?989次閱讀