chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何用DeepSeek+MCP實(shí)現(xiàn)AutoGLM沉思的能力?

jf_23871869 ? 來源:劉力 ? 作者:劉力 ? 2025-04-09 14:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力

智譜最近發(fā)布了AutoGLM沉思,一個(gè)能夠把一個(gè)開放式問題,拆解成一個(gè)個(gè)具體的小問題,并根據(jù)結(jié)果執(zhí)行操作的自主智能體(AI Agent),它能夠模擬人類的思維過程,完成從數(shù)據(jù)檢索、分析到生成報(bào)告,大大節(jié)約了粗顆粒度調(diào)研到報(bào)告生成的過程!例如,給AutoGLM沉思輸入提示詞:“撰寫一篇專業(yè)的IDP(Intelligent Document Processing)深度行業(yè)調(diào)研報(bào)告”,AutoGLM會查閱幾十個(gè)網(wǎng)站的信息,然后匯總成一篇專業(yè)的報(bào)告。

wKgZPGf2ElaAeLTCAEgMvgz3F8c733.png

本文從零開始介紹使用DeepSeek和MCP快速實(shí)現(xiàn)一個(gè)跟AutoGLM沉思一樣的AI Agent,全自動實(shí)現(xiàn)從數(shù)據(jù)檢索、分析到生成報(bào)告的完整工作流。

一,DeepSeek-V3-0324是調(diào)用MCP的優(yōu)秀模型


2025年3月24日,DeepSeek發(fā)布了大語言模型DeepSeek-V3-0324,其在評估代碼生成性能的基準(zhǔn)測試平臺(LiveCodeBench)中首次通過所有測試用例(Pass@1)的比例為49.2%,如下圖所示,超過GPT-4.5(44.4%)和Claude-3.7-Sonnet(42.2%),被評價(jià)為“目前編程能力最強(qiáng)的非推理開源模型之一”。

wKgZPGf2EnCAanelAATMHfENxl0583.png

值得一提的是:DeepSeek-V3-0324模型不僅編程能力強(qiáng),而且對MCP支持非常好,更重要的是性價(jià)比極高!DeepSeek + MCP非常適合打造日常使用的生產(chǎn)力工具。

wKgZO2f2EtGAQbA7AABE72n7VqI485.png

數(shù)據(jù)來源: https://docsbot.ai/models/compare/gpt-4-5/deepseek-v3


二,為什么DeepSeek要調(diào)用MCP?


既然DeepSeek-V3-0324能力這么強(qiáng)了,為什么還要讓DeepSeek調(diào)用MCP?在《MCP:連接AI與應(yīng)用程序的開放標(biāo)準(zhǔn)!》文中介紹了AI大模型發(fā)展兩條路徑:

1. 讓模型掌握更多信息:搜索、RAG、多模態(tài)等技術(shù),都是讓模型掌握更多信息;

2. 讓模型使用更多工具:Function Call、MCP等技術(shù),都是讓模型使用更多工具。

Model Context Protocol(MCP)就是通過讓DeepSeek調(diào)用更多工具,來增強(qiáng)DeepSeek能力的方法。

MCP通過標(biāo)準(zhǔn)化協(xié)議解決各種應(yīng)用程序(工具)輕松接入AI大模型的問題,讓AI大模型能自動與各種應(yīng)用程序協(xié)作,而無需開發(fā)者手動編寫任何協(xié)作代碼,大大簡化了開發(fā)流程!

另外,DeepSeek + MCP比Dify、Coze等畫布形式,更容易實(shí)現(xiàn)AI Agent應(yīng)用(AI Agent = AI大模型 + 工具調(diào)用)。

三,搭建DeepSeek+MCP開發(fā)環(huán)境


構(gòu)建DeepSeek+MCP開發(fā)環(huán)境,非常簡單,只需要三步:

1. 安裝VS Code和Cline插件

2. 在DeepSeek官網(wǎng)購買API Keys

3. 在Cline中填入DeepSeek API Key

請?jiān)趨⒖肌队肕CP將百度地圖能力輕松接入DeepSeek》一文,完成開發(fā)環(huán)境搭建,并體驗(yàn)讓DeepSeek通過MCP調(diào)用百度地圖能力。

四,添加Sequential-Thinking MCP Server


Sequential Thinking MCP Server? 是基于 MCP(Model Context Protocol)協(xié)議開發(fā)的?結(jié)構(gòu)化問題處理工具?,專為復(fù)雜任務(wù)的分步推理和動態(tài)調(diào)整設(shè)計(jì)。其核心是通過標(biāo)準(zhǔn)化接口連接 AI 模型與外部工具/數(shù)據(jù),實(shí)現(xiàn)可控的逐步式問題解決流程。

跟AI 大模型單次生成相比,AI大模型 + Sequential Thinking MCP Server 通過?步驟化控制+工具調(diào)用?,使任務(wù)執(zhí)行準(zhǔn)確率提升約 35%。

到https://mcp.so/server/sequentialthinking,把 Sequential Thinking MCP Server在Cline下的配置語句拷貝Cline的cline_mcp_settings.json文件,保存后顯示綠燈,說明配置成功!

wKgZPGf2EtuAL5Z7AAJaiDWQr30425.png

五,添加Tavily MCP Server


Tavily MCP Server? 是基于 MCP(Model Context Protocol)協(xié)議開發(fā)的?智能搜索服務(wù)工具?,旨在通過標(biāo)準(zhǔn)化接口將 Tavily 搜索引擎與 AI大模型(如 DeepSeek-V3等)深度集成,實(shí)現(xiàn)?安全、動態(tài)的實(shí)時(shí)數(shù)據(jù)交互。

Tavily MCP Server 正在成為 AI 大模型的“數(shù)據(jù)外接大腦”,推動從封閉式問答向開放式智能服務(wù)的轉(zhuǎn)型?。

首先,請到https://app.tavily.com/home,完成注冊并獲得API Key。

wKgZO2f2EuSAVbsLAAW1PutPyHs939.png

然后,請到https://github.com/tavily-ai/tavily-mcp,把 Tavily MCP Server在Cline下的配置語句拷貝Cline的cline_mcp_settings.json文件,保存后顯示綠燈,說明配置成功!

wKgZO2f2EuqAV5cYAAJeDB2phoE611.png

六,用DeepSeek+MCP編寫行研報(bào)告


配置好后,輸入提示詞:“撰寫一篇專業(yè)的IDP(Intelligent Document Processing)深度行業(yè)調(diào)研報(bào)告”,DeepSeek + MCP會像AutoGLM沉思一樣查閱幾十個(gè)網(wǎng)站的信息,然后匯總成一篇專業(yè)的報(bào)告。

請看關(guān)聯(lián)視頻

整個(gè)過程的Token消耗,僅人民幣0.67元。

七,總結(jié)


公司中的非技術(shù)人員應(yīng)該掌握DeepSeek+MCP工具,通過對話的方式,構(gòu)建自己的AI智能體工作流,減少重復(fù)性手動操作,提高工作效率!

如果你有更好的文章,歡迎投稿!

稿件接收郵箱:nami.liu@pasuntech.com

更多精彩內(nèi)容請關(guān)注“算力魔方?”!

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • MCP
    MCP
    +關(guān)注

    關(guān)注

    0

    文章

    293

    瀏覽量

    15077
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    837

    瀏覽量

    3392
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    中科曙光AI超集群系統(tǒng)和scaleX640超節(jié)點(diǎn)等產(chǎn)品全面適配DeepSeek V3.2

    12月1日,DeepSeek正式發(fā)布DeepSeek-V3.2和DeepSeek-V3.2-Speciale,大幅強(qiáng)化Agent能力,融入思考推理?;谥袊讉€(gè)AI計(jì)算開放架構(gòu),硬件層
    的頭像 發(fā)表于 12-05 14:32 ?905次閱讀

    本地部署openWebUI + ollama+DeepSeek 打造智能知識庫并實(shí)現(xiàn)遠(yuǎn)程訪問

    DeepSeek是一款由國內(nèi)人工智能公司研發(fā)的大型語言模型,實(shí)現(xiàn)了媲美OpenAI-o1模型的效果,擁有強(qiáng)大的自然語言處理能力,還大幅降低了推理模型的成本,受到海內(nèi)外用戶的廣泛吹捧
    的頭像 發(fā)表于 09-10 16:41 ?5507次閱讀
    本地部署openWebUI + ollama+<b class='flag-5'>DeepSeek</b> 打造智能知識庫并<b class='flag-5'>實(shí)現(xiàn)</b>遠(yuǎn)程訪問

    DeepSeek R1 MTP在TensorRT-LLM中的實(shí)現(xiàn)與優(yōu)化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀(jì)錄,Multi-Token Prediction (MTP) 實(shí)現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4652次閱讀
    <b class='flag-5'>DeepSeek</b> R1 MTP在TensorRT-LLM中的<b class='flag-5'>實(shí)現(xiàn)</b>與優(yōu)化

    【HZ-T536開發(fā)板免費(fèi)體驗(yàn)】5- 無需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發(fā)板上搭建 MCP 服務(wù)器,自然語言輕松控板

    處理能力,實(shí)現(xiàn) “用說話 / 文字控制開發(fā)板”。 本文目標(biāo) :以 HZ-T536 嵌入式開發(fā)板為例,手把手教你搭建 MCP 服務(wù)器,讓開發(fā)板 “聽懂” 你的指令。 一、準(zhǔn)備工作:硬件與軟件清單 1.
    發(fā)表于 08-23 13:10

    速看!EASY-EAI教你離線部署Deepseek R1大模型

    1.Deepseek簡介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型。DeepSeek-R1采用強(qiáng)化學(xué)習(xí)進(jìn)行后訓(xùn)練,旨在提升推理
    的頭像 發(fā)表于 07-25 15:22 ?1560次閱讀
    速看!EASY-EAI教你離線部署<b class='flag-5'>Deepseek</b> R1大模型

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】+混合專家

    感謝電子發(fā)燒友提供學(xué)習(xí)Deepseek核心技術(shù)這本書的機(jī)會。 讀完《Deepseek核心技術(shù)揭秘》,我深受觸動,對人工智能領(lǐng)域有了全新的認(rèn)識。了解Deepseek-R1 、Deepseek
    發(fā)表于 07-22 22:14

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】--全書概覽

    感謝平臺提供的書籍,實(shí)物如下 這本書主講從年前開始火熱的DeepSeek 。書籍看起來輕薄,但言簡意賅,通俗易懂,總覽全局,比較精煉。 第一章 介紹DeepSeek的一系列技術(shù)突破與創(chuàng)新。 第二章
    發(fā)表于 07-21 00:04

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】第三章:探索 DeepSeek - V3 技術(shù)架構(gòu)的奧秘

    一、模型架構(gòu) 在閱讀第三章關(guān)于 DeepSeek 的模型架構(gòu)部分時(shí),我仿佛打開了一扇通往人工智能核心構(gòu)造的大門。從架構(gòu)圖中,能清晰看到 Transformer 塊、前饋神經(jīng)網(wǎng)絡(luò)、注意力機(jī)制等模塊
    發(fā)表于 07-20 15:07

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書籍介紹+第一章讀后心得

    了解如何通過精心設(shè)計(jì)的提示詞更好地發(fā)揮 DeepSeek能力。對提示詞鏈的高級使用技巧的介紹,為讀者進(jìn)一步提升 DeepSeek 使用效果提供參考。 第3章和第4章是本書的核心與精華。 第3章深入
    發(fā)表于 07-17 11:59

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    DeepSeek-R1:強(qiáng)大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開發(fā)的新一代AI大模型。其核心優(yōu)勢在于強(qiáng)大的推理引擎能力,融合了自然語言處理(NLP)、深度
    發(fā)表于 07-16 15:29

    【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    ,僅憑極少標(biāo)注數(shù)據(jù)便大幅提升了模型的推理能力。在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上,DeepSeek-R1 的效果已可比肩 OpenAI-o1 正式版。 DeepSeek-R1 在基準(zhǔn)測試中的表現(xiàn)
    發(fā)表于 06-09 14:38

    DeepSeek 引領(lǐng)邊緣 AI 芯片向更高性能、更低功耗、更強(qiáng)泛化能力的方向演進(jìn)

    DeepSeek 系列模型概覽 DeepSeek 系列包括大型語言模型(如 DeepSeek LLM、R1)及多模態(tài)模型(DeepSeek-VL)和編程模型(
    的頭像 發(fā)表于 05-09 10:27 ?2401次閱讀

    何用FastMCP快速開發(fā)自己的MCP Server?

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力很多讀者反饋:通過 《用MCP將百度地圖能力輕松接入DeepSeek》 和 《如何用DeepSeek+MCP
    的頭像 發(fā)表于 05-07 16:07 ?3030次閱讀
    如<b class='flag-5'>何用</b>FastMCP快速開發(fā)自己的<b class='flag-5'>MCP</b> Server?

    SAP實(shí)施專家解答:如何用DeepSeek-R1實(shí)現(xiàn)需求溝通效率倍增

    工博科技分享AI工具鏈在IT項(xiàng)目中的深度應(yīng)用:通過DeepSeek-R1實(shí)現(xiàn)智能會議記錄結(jié)構(gòu)化(2小時(shí)會議5分鐘生成決策表)和精準(zhǔn)多語言文檔翻譯(錯(cuò)誤率降低14%),幫助IT團(tuán)隊(duì)將重復(fù)性工作耗時(shí)減少
    的頭像 發(fā)表于 04-28 09:13 ?808次閱讀

    誠邁信創(chuàng)電腦實(shí)現(xiàn)本地部署DeepSeek,開啟智慧辦公新體驗(yàn)

    近期,中國人工智能平臺深度求索(DeepSeek)迅速走紅,成為當(dāng)下熱門的AI應(yīng)用之一,在國內(nèi)外引發(fā)了廣泛的關(guān)注。目前,誠邁信創(chuàng)電腦和望龍電腦已實(shí)現(xiàn)本地部署DeepSeek平臺,能夠?yàn)橛脩籼峁└踩?/div>
    的頭像 發(fā)表于 04-21 15:26 ?977次閱讀
    誠邁信創(chuàng)電腦<b class='flag-5'>實(shí)現(xiàn)</b>本地部署<b class='flag-5'>DeepSeek</b>,開啟智慧辦公新體驗(yàn)