來源:
OpenVINO 中文社區(qū)
作者:
吳珊珊 OpenVINO 開發(fā)者社區(qū)經(jīng)理
武卓英特爾 OpenVINO 布道師
引言
DeepSeek 的突破性進展,引發(fā) AI 領域震動。
最近,DeepSeek 的重大更新再次震撼全球 AI 領域。作為生成式 AI 領域的佼佼者,DeepSeek 近期發(fā)布的新模型展現(xiàn)了驚人的推理速度與卓越的語言理解能力,使其成為大模型競爭中的新焦點。尤其是 DeepSeek-R1-Distill-Llama-8B 和 DeepSeek-R1-Distill-Qwen-7B,憑借高效的知識蒸餾技術,大幅降低了計算成本,同時提升了推理效率,使得更強大的 AI 推理能力觸手可及。
本地部署 DeepSeek 獲得穩(wěn)定輸出!
相信大家在使用 DeepSeek 的過程中,肯定遇到過以下情況:
DeepSeek 真的非常好用,只是時常會出現(xiàn)“服務器繁忙,請稍后再試”的情況,遇到這種情況,真的是急得抓狂,一點辦法也沒有呀~
真的一點辦法都沒有嗎?
別忘了 DeepSeek 有開源版本!可以通過本地部署,無需聯(lián)網(wǎng)即可使用,完美“解決服務器繁忙”的問題,達到高頻穩(wěn)定的輸出效果。當然!除了這一優(yōu)點,本地部署 DeepSeek 還具備以下優(yōu)點:
數(shù)據(jù)保存在本地,無需擔心數(shù)據(jù)和信息泄露的風險
可以掛載本地知識庫,更精準地輸出
英特爾最新發(fā)布的 OpenVINO 2025.0 已全面支持 DeepSeek 本地部署,幫助開發(fā)者充分釋放 DeepSeek 等大模型的潛能!
OpenVINO 2025.0 震撼發(fā)布:
全面支持 DeepSeek,AI 推理性能飆升!
為了讓開發(fā)者能夠輕松部署和優(yōu)化最新的 DeepSeek 及其他主流生成式 AI 模型,英特爾正式發(fā)布 OpenVINO 2025.0,為 AI 開發(fā)者帶來一系列令人振奮的升級。
1. 生成式 AI 全面升級,支持更多前沿模型
OpenVINO 2025.0 進一步擴展了對 DeepSeek 等熱門生成式 AI 模型的支持,包括:
DeepSeek-R1-Distill-Llama-8B
DeepSeek-R1-Distill-Qwen-7B
DeepSeek-R1-Distill-Qwen-1.5B
FLUX.1 Schnell and FLUX.1 Dev
Qwen 2.5 等多款業(yè)界領先的大語言模型
在英特爾 酷睿 Ultra 200V GPU上本地部署DeepSeek-R1-Llama-8b的效果展示
此外,新版本 OpenVINO 通過 Gen AI API 顯著提升了 Whisper 模型在 CPU、集成顯卡和獨立顯卡上的推理性能,為語音轉(zhuǎn)文本任務提供更強的計算能力。
(預發(fā)布)更令人振奮的是,開發(fā)者可以通過 torch.compile 直接在 NPU 上運行 PyTorch API,并輕松調(diào)用 300+ 深度學習模型,大幅減少代碼改動,提升推理效率。使用起來非常簡單,如下所示:
2. 大語言模型優(yōu)化,推理速度再創(chuàng)新高
OpenVINO 2025.0 還帶來了針對大語言模型(LLM)的重要優(yōu)化,包括:
(預發(fā)布功能)GenAI API支持 Prompt Lookup 技術 —— 通過預定義提示詞,在特定場景優(yōu)化第二 Token 延遲,大幅提升推理效率。
(預發(fā)布功能)GenAI API支持圖像到圖像修復(Image-to-Image Inpainting)功能 —— 通過生成圖像上特定部分內(nèi)容,無縫結合原畫,讓 AI 生成的圖像更加逼真。
非對稱 KV Cache 壓縮技術——默認在INT8推理CPU模式下啟用,優(yōu)化內(nèi)存消耗,與第二Token延遲,特別是在處理長提示詞的情況下,可顯著降低內(nèi)存開銷。
3. 硬件兼容性提升,充分釋放 AI 計算力
支持最新英特爾 酷睿 Ultra 200H 處理器(Arrow Lake-H),高性能計算再升級。
深度集成 Triton 推理服務器,在英特爾 CPU 上獲得更高效的模型推理能力。
(預發(fā)布)無縫集成 Keras 3 工作流,在 Keras 3工作流中即可直接調(diào)用 OpenVINO 的模型性能優(yōu)化,實現(xiàn) CPU、GPU、NPU 的高效推理。該功能支持最新的Keras 3.8發(fā)布版本。
更靈活的 AI 部署方案,支持原生 Windows Server:對于 Windows 生態(tài)的 AI 開發(fā)者,OpenVINO 2025.0 帶來了“OpenVINO Server對原生 Windows Server的支持”,這一更新消除了容器開銷,并優(yōu)化了 GPU 部署流程,讓 Windows 服務器環(huán)境下的 AI 應用部署變得更加輕松高效。
無論是云端、邊緣還是本地環(huán)境,開發(fā)者都能以更低的成本、更高的性能運行 AI 任務。
為什么開發(fā)者需要關注
OpenVINO 2025.0?
更少的代碼改動,更高的開發(fā)效率:通過新增的模型支持和框架集成,開發(fā)者可以快速適配最新 AI 技術,無需大量修改代碼。
更強的性能,更低的成本:從 Prompt Lookup 到非對稱 KV Cache 壓縮,OpenVINO 2025.0 在性能和資源利用上實現(xiàn)了雙重優(yōu)化。
更廣泛的硬件支持:無論是 CPU、GPU 還是 NPU,OpenVINO 都能為你提供最佳的性能表現(xiàn)。
更靈活的部署選項:從邊緣到云端,從 Linux 到 Windows,OpenVINO 2025.0 都能滿足你的需求。
結語
AI 開發(fā)者的最佳伙伴,立即體驗 OpenVINO 2025.0!
DeepSeek 的最新突破讓 AI 技術邁向新高度,而 OpenVINO 2025.0 正是助力開發(fā)者高效部署和優(yōu)化這些前沿模型的關鍵工具。無論你是從事大語言模型優(yōu)化、生成式 AI 應用開發(fā),還是希望在本地或云端環(huán)境中加速 AI 推理,OpenVINO 2025.0 都將是你的理想選擇。
在 AI 時代,每一次技術革新都意味著更強的競爭力!
-
英特爾
+關注
關注
61文章
10279瀏覽量
179428 -
AI
+關注
關注
90文章
38303瀏覽量
297373 -
OpenVINO
+關注
關注
0文章
117瀏覽量
721 -
DeepSeek
+關注
關注
2文章
825瀏覽量
2846
原文標題:開發(fā)者實戰(zhàn)|DeepSeek 再次震撼 AI 領域,OpenVINO? 2025.0 全力加持,性能全面升級!
文章出處:【微信號:英特爾物聯(lián)網(wǎng),微信公眾號:英特爾物聯(lián)網(wǎng)】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
吉方工控獲評英特爾首批尊享級合作伙伴
硬件與應用同頻共振,英特爾Day 0適配騰訊開源混元大模型
使用英特爾? NPU 插件C++運行應用程序時出現(xiàn)錯誤:“std::Runtime_error at memory location”怎么解決?
無法將Openvino? 2025.0與onnx運行時Openvino? 執(zhí)行提供程序 1.16.2 結合使用,怎么處理?
為什么無法通過“pip install openvino-dev==2025.0.0”安裝 2025.0 OpenVINO??
在Windows中安裝OpenVINO?后,無法找到OpenCL編譯器二進制文件是怎么回事?
為什么無法檢測到OpenVINO?工具套件中的英特爾?集成圖形處理單元?
請問OpenVINO?工具套件英特爾?Distribution是否與Windows? 10物聯(lián)網(wǎng)企業(yè)版兼容?
安裝OpenVINO?適用于Raspberry Pi64位操作系統(tǒng)的工具套件2022.3.1,配置英特爾?NCS2時出錯怎么解決?
為什么在Ubuntu20.04上使用YOLOv3比Yocto操作系統(tǒng)上的推理快?
為什么Caffe模型可以直接與OpenVINO?工具套件推斷引擎API一起使用,而無法轉(zhuǎn)換為中間表示 (IR)?
英特爾任命王稚聰擔任中國區(qū)副董事長
英特爾OpenVINO 2025.0正式發(fā)布
英特爾的開發(fā)板評測

英特爾OpenVINO 2025.0性能全面升級
評論