chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是大模型,智能體...?大模型100問,快速全面了解!

穎脈Imgtec ? 2026-02-02 16:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、概念篇

1.什么是大模型?

大模型是指參數(shù)規(guī)模巨大(通常達到數(shù)十億甚至萬億級別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能模型。

2.什么是大語言模型(LLM)?

大語言模型(Large Language Model,LLM)是大模型中最主 要的一類,專門用于處理和生成人類語言。大語言模型通過“閱讀”海量的文本數(shù)據(jù)(如書籍、網(wǎng)頁、文章等)進行預(yù)訓(xùn)練,學(xué)會語言的模式、知識和上下文關(guān)系。

3.什么是多模態(tài)大模型?

多模態(tài)大模型是指能夠統(tǒng)一處理和理解多種模態(tài)數(shù)據(jù)(如文本、圖像、音頻、視頻)的人工智能模型,實現(xiàn)圖文對應(yīng)、音視頻理解、視覺問答等任務(wù),使人工智能具備更接近人類的綜合感知與交互能力。

4.什么是推理大模型?

推理大模型是指專門強化邏輯推理、多步推導(dǎo)和計算能力的大規(guī)模人工智能模型。它通過結(jié)構(gòu)設(shè)計或訓(xùn)練方法優(yōu)化,提升在數(shù)學(xué)解題、代碼生成與調(diào)試、邏輯推理、策略規(guī)劃等復(fù)雜任務(wù)中的表現(xiàn),注重逐步分析,以生成準(zhǔn)確、可解釋的結(jié)論。

5.L0級、L1級、L2級大模型分別代表什么?

L0級、L1級、L2級大模型是一種非官方但業(yè)界常用的模型能力分級方式,幫助理解模型的“加工”程度,分別代表基礎(chǔ)大模型、垂域/領(lǐng)域大模型、場景大模型。

6.什么是基礎(chǔ)大模型?

基礎(chǔ)大模型,又稱基座模型,是指在海量數(shù)據(jù)上預(yù)訓(xùn)練而成、具備強大泛化能力和多任務(wù)適應(yīng)性的大型人工智能模型。它可作為各類下游任務(wù)的通用基礎(chǔ),支持?jǐn)?shù)據(jù)理解、生成等多種能力,通常需要通過微調(diào)或提示工程后應(yīng)用于具體場景。

7.什么是垂域/領(lǐng)域大模型?

垂域大模型是在基礎(chǔ)大模型的基礎(chǔ)上,使用大量某個專業(yè)領(lǐng)域的數(shù)據(jù)(如醫(yī)學(xué)文獻、法律條文、金融報告)進行進一步訓(xùn)練(微調(diào))得到的模型。這使得它在該領(lǐng)域內(nèi)的知識更深入、更準(zhǔn)確,回答也更專業(yè)。

8.什么是場景大模型?

場景大模型是針對具體的使用場景和應(yīng)用,在通用模型或領(lǐng)域模型的基礎(chǔ)上,針對特定任務(wù)流程和用戶交互方式進行微調(diào)得到。

9.什么是混合專家模型(MoE)?

混合專家模型(Mixture of Experts,MoE)由許多“專家模型”組成。獲取到任務(wù)時,模型會判斷哪個專家最擅長處理它,然后只激活這部分專家進行計算。

10.什么是專家鏈模型(COE)?

專家鏈(Chain-of-Experts,CoE)是MoE的一種演進。在傳統(tǒng)的MoE中,專家們是并行工作的。而在CoE中,專家們像流水線一樣按順序工作。第一個專家處理完任務(wù)后,將結(jié)果傳遞給下一個更專業(yè)的專家,如此反復(fù)進行多輪交互,逐步逼近最精準(zhǔn)的解決方案。

11.什么是大模型推理?

大模型推理是應(yīng)用知識的過程(與之對應(yīng),大模型訓(xùn)練是學(xué)習(xí)知識的過程),使用已經(jīng)訓(xùn)練好的、參數(shù)固定的模型,根據(jù)新的輸入進行計算,并生成輸出。

12.什么是開源大模型?

開源大模型:公開模型的權(quán)重(參數(shù))和代碼,任何人都可以免費下載、使用、修改和研究,促進了創(chuàng)新、透明度和社區(qū)協(xié)作。優(yōu)勢是可定制、可控、成本可能更低;劣勢是可能需要自身有較強的技術(shù)能力來部署和優(yōu)化。

13.什么是閉源大模型?

閉源大模型:不公開模型內(nèi)部,只通過API提供服務(wù),用戶只需輸入和獲取輸出,無需關(guān)心后臺。優(yōu)勢是簡單易用、性能穩(wěn)定、通常能力更強;劣勢是無法定制內(nèi)部邏輯、數(shù)據(jù)隱私存在顧慮、持續(xù)使用需付費。

14.什么是智能體?

智能體(Agent)是能夠感知環(huán)境并采取行動以實現(xiàn)特定目標(biāo)的代理體,具備自主性、適應(yīng)性和交互能力,廣泛應(yīng)用于人工智能領(lǐng)域,通常基于大模型構(gòu)建。?

15.什么是GPU?

GPU(Graphics Processing Unit,圖形處理器)最初設(shè)計用于處理圖形和圖像相關(guān)的任務(wù),如圖形渲染和游戲圖形處理。然而,由于其并行處理能力較強,也被用于執(zhí)行許多通用計算任務(wù),尤其是在深度學(xué)習(xí)和科學(xué)計算領(lǐng)域。

16.什么是NPU?

NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理器)是專門為神經(jīng)網(wǎng)絡(luò)任務(wù)而設(shè)計的處理器,NPU專注于加速深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練和推理。

17.什么是“PFlops”?

PFlops(PetaFLOPS)是衡量計算機浮點運算能力的標(biāo)準(zhǔn)單位,表示每秒執(zhí)行1千萬億次浮點運算,介于TFLOPS(萬億次)與EFLOPS(百億億次)之間,通常用于評估超級計算機和高性能計算集群的運算能力。


二、數(shù)據(jù)篇

18.什么是高質(zhì)量數(shù)據(jù)集?

高質(zhì)量數(shù)據(jù)集是指經(jīng)過清洗、標(biāo)注和結(jié)構(gòu)化處理,具備高準(zhǔn)確性、完整性、一致性和相關(guān)性的數(shù)據(jù)集合。高質(zhì)量數(shù)據(jù)集能夠真實反映現(xiàn)實場景,可用于訓(xùn)練和優(yōu)化智能模型。

19.預(yù)訓(xùn)練數(shù)據(jù)質(zhì)量如何影響模型能力?

高質(zhì)量、多樣化、覆蓋廣的語料能提升模型的泛化與生成能力,減少偏差與幻覺。低質(zhì)量數(shù)據(jù)會導(dǎo)致模型能力低下、偏見嚴(yán)重、“幻覺”頻發(fā)。

20.為什么大模型需要海量數(shù)據(jù)訓(xùn)練?

海量數(shù)據(jù)能覆蓋更多知識和場景,讓模型學(xué)會通用規(guī)律,提升泛化能力。

21.常見的數(shù)據(jù)標(biāo)注類型有哪些?

① 圖像標(biāo)注:對圖像中的物體進行拉框(邊界框標(biāo)注)、按物體輪廓進行精細(xì)分割(圖像分割)、標(biāo)記特定點位(關(guān)鍵點檢測)等;

② 文本標(biāo)注:對文本進行分類、識別實體(如人名、地名)、分析情感傾向、標(biāo)注語義關(guān)系等;

③ 語音標(biāo)注:將語音轉(zhuǎn)寫成文字、識別不同的說話人、標(biāo)注聲音事件等;

④ 視頻標(biāo)注:對視頻連續(xù)幀中的物體、動作、事件進行追蹤和標(biāo)注。

22.數(shù)據(jù)標(biāo)注中人類偏好數(shù)據(jù)如何獲???

①排序比較:標(biāo)注員對模型的多個回答“排序”或“打分”;

②直接撰寫:標(biāo)注員針對一個問題,直接寫“優(yōu)質(zhì)回答”,作為模型的學(xué)習(xí)樣本訓(xùn)練獎勵模型,優(yōu)化大模型。

23.數(shù)據(jù)集如何轉(zhuǎn)化為提示詞?

該過程的核心是將數(shù)據(jù)集中結(jié)構(gòu)化知識或樣本轉(zhuǎn)化為能夠清晰引導(dǎo)大模型完成特定任務(wù)的指令或問題形式。

24.什么是提示詞?

提示詞(Prompt)是用戶輸入給大模型的指令、問題、上下文或示例的統(tǒng)稱。它是用戶與模型交互的主要方式,用于引導(dǎo)和激發(fā)模型生成期望的輸出。提示詞的質(zhì)量直接決定了模型輸出質(zhì)量的上限。

25.提示詞如何生成?

主要方法包括:

①手動編寫:最直接的方式,依賴提示詞構(gòu)建人員知識經(jīng)驗,正確率較高;

②提示詞模板:使用預(yù)設(shè)的模板結(jié)構(gòu)化提示詞;

③自動化工具:提供提示詞生成工具,幫助測試和優(yōu)化提示詞效果。

26.提示詞工程的作用是什么?

提示工程是指設(shè)計和優(yōu)化輸入提示,使模型準(zhǔn)確理解需求,提升輸出準(zhǔn)確性和相關(guān)性,應(yīng)用于對話生成、文本生成等任務(wù)。

27.什么是Token?

Token是模型處理、理解和生成文本的基本單位,直接決定模型的上下文窗口限制和使用成本(按Token數(shù)量計費)。

28.分詞器的作用是什么?

分詞器(Tokenizer)是模型處理文本的第一道關(guān)口,它有兩個核心功能:①分詞:將原始文本字符串拆分成Token序列。②映射:將每個Token轉(zhuǎn)換成一個唯一的數(shù)字ID。

29.什么是向量數(shù)據(jù)庫?

向量數(shù)據(jù)庫(Vector Database)是一種專門存儲和檢索向量(高維數(shù)值數(shù)組)的數(shù)據(jù)庫。在RAG等應(yīng)用中,用于存儲文本、圖像的嵌入(Embedding)表示,實現(xiàn)高效的語義相似性搜索。


三、訓(xùn)練篇

30.大模型的核心技術(shù)基礎(chǔ)是什么?

Transformer是大模型最核心的技術(shù)基礎(chǔ)。大模型的爆發(fā)始于2017年Transformer架構(gòu)的提出,幾乎所有現(xiàn)代大模型都是基于Transformer或它的變體構(gòu)建的。圍繞Transformer,衍生出了預(yù)訓(xùn)練、微調(diào)、對齊等一系列強化大模型的關(guān)鍵技術(shù)。

31.大模型的基本工作原理是什么?

①輸入處理:將輸入(文字、圖片)轉(zhuǎn)成模型能懂的格式,例如文字轉(zhuǎn)Tokens、圖片轉(zhuǎn)像素特征;

②計算理解:通過Transformer架構(gòu)計算輸入的語義/特征;

③輸出生成:根據(jù)計算結(jié)果生成人類能懂的內(nèi)容,例如文字任務(wù)生成Tokens再轉(zhuǎn)文字、圖像任務(wù)生成像素再轉(zhuǎn)圖片。

32.什么是Transformer架構(gòu)?

Transformer架構(gòu)是一種基于自注意力機制的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并行化能力強、擅長并行計算與序列建模,能很好地處理距離很遠(yuǎn)的詞之間的關(guān)系。主要包括編碼器(Encoder)和解碼器(Decoder)兩部分。但后來出現(xiàn)了很多變體,如僅用解碼器的GPT(生成式)和僅用編碼器的BERT(理解式)。

33.什么是涌現(xiàn)能力?

涌現(xiàn)能力(Emergent Ability)是指當(dāng)人工智能模型(尤其是大語言模型)的規(guī)模(如參數(shù)量、訓(xùn)練數(shù)據(jù)量、計算量)增長到某個臨界點時,突然展現(xiàn)出在較小模型中完全不存在或非常微弱的、新的、強大的能力,簡單來說,就是“量變引起質(zhì)變”。

34.大模型是如何進行訓(xùn)練的?

先“預(yù)訓(xùn)練”:在海量無標(biāo)注文本數(shù)據(jù)上,通過自監(jiān)督學(xué)習(xí)目標(biāo)進行訓(xùn)練。再“微調(diào)”:在預(yù)訓(xùn)練好的“基座模型”上,使用特定任務(wù)的數(shù)據(jù)集進行進一步訓(xùn)練,使其適應(yīng)下游具體任務(wù)(如對話、總結(jié))。

35.什么是預(yù)訓(xùn)練?

預(yù)訓(xùn)練是指在構(gòu)建大型人工智能模型時,使用海量的、通常是無標(biāo)注的數(shù)據(jù),在通用任務(wù)上進行的第一階段大規(guī)模訓(xùn)練過程。這是大模型能夠具備強大通用能力的基礎(chǔ)和核心步驟。

36.什么是微調(diào)?

微調(diào)是在預(yù)訓(xùn)練模型的基礎(chǔ)上,針對特定任務(wù)或領(lǐng)域進行“專項培訓(xùn)”的過程。使用相對較少的有標(biāo)注數(shù)據(jù),對模型的參數(shù)進行小幅調(diào)整,使其在該任務(wù)上表現(xiàn)更專業(yè)。

37.什么是指令微調(diào)?

指令微調(diào)是微調(diào)的一種重要形式,使用提示對(指令,期望輸出)進行訓(xùn)練,教會模型如何理解和遵循人類的指令。

38.什么是參數(shù)高效微調(diào)?

參數(shù)高效微調(diào)(PEFT)是一系列技術(shù)的總稱,其核心思想是:在微調(diào)時,不動或只更新預(yù)訓(xùn)練模型的絕大部分參數(shù),只額外引入極少量的新參數(shù)并只訓(xùn)練這些新參數(shù),從而達到與全量微調(diào)相近的效果。常見技術(shù)有:LoRA、QLoRA、Adapter等。

39.什么是上下文學(xué)習(xí)?

上下文學(xué)習(xí)(In-Context Learning,ICL)是大模型一項革命性的能力。它指的是模型不需要更新自身的任何參數(shù),僅通過在當(dāng)前對話的提示中提供幾個任務(wù)示例或指令,就能立刻學(xué)會并執(zhí)行一個新任務(wù)。

40.什么是上下文窗口?

模型在一次推理過程中能夠考慮和處理的文本總量(包括提示和模型已生成的內(nèi)容),通常以token數(shù)量衡量。例如,上下文窗口為8k,意味著模型最多能處理8192個token。

41.上下文窗口長度限制有什么影響?

限制模型處理長文本的能力,可能丟失遠(yuǎn)距離信息,影響回答連貫性和準(zhǔn)確性。

42.為什么大模型具備上下文學(xué)習(xí)能力?

這種能力被認(rèn)為是模型規(guī)模達到一定程度后涌現(xiàn)出來的。在預(yù)訓(xùn)練過程中,模型“閱讀”了海量的文本,這些文本中本身就包含了各種任務(wù)和示例(如問答對、文章摘要等)。當(dāng)模型足夠大時,模型內(nèi)部形成了強大的模式匹配和推理能力,使得它能夠在推理時,根據(jù)提供的幾個示例快速識別出所需的任務(wù)模式,并模擬生成相應(yīng)的輸出。

43.什么是零樣本學(xué)習(xí)?

零樣本學(xué)習(xí)(Zero-Shot Learning)是機器學(xué)習(xí)的一種高級范式,其核心目標(biāo)是讓模型能夠識別或理解在訓(xùn)練階段從未見過任何樣本的類別。

44.什么是少樣本學(xué)習(xí)?

少樣本學(xué)習(xí)(Few-Shot Learning)是上下文學(xué)習(xí)最常見的形式。指在提示中提供少量(通常是幾個)任務(wù)示例,從而幫助模型更好地理解任務(wù)意圖和格式,生成更高質(zhì)量的答案。例如,先給幾個翻譯例子,再讓模型翻譯新的句子。

45.什么是災(zāi)難性遺忘?

災(zāi)難性遺忘(Catastrophic Forgetting)是機器學(xué)習(xí)中的一個經(jīng)典問題。指當(dāng)一個模型學(xué)習(xí)新任務(wù)或新知識時,會嚴(yán)重覆蓋或破壞之前已經(jīng)學(xué)會的舊任務(wù)或舊知識的性能。

46.什么是思維樹?

思維樹(Tree of Thoughts,ToT)讓模型在推理的每一步都探索多種可能的下一步,然后通過評估分支優(yōu)劣,選擇最有希望的路徑繼續(xù),必要時甚至可以回溯,使得模型能進行更深度、更可靠的推理。

47.人類反饋強化學(xué)習(xí)是什么?

人類反饋強化學(xué)習(xí)(RLHF)是讓大模型的行為與人類價值觀和偏好對齊的核心技術(shù)。它分為收集人類偏好、訓(xùn)練獎勵模型、強化學(xué)習(xí)微調(diào)三個步驟。

48.為什么大模型需要數(shù)十億參數(shù)?

參數(shù)是模型存儲知識和進行計算的基礎(chǔ),需要如此多參數(shù)的主要原因:

①存儲知識:模型需要將學(xué)到的海量語言知識、世界事實存儲在參數(shù)中。參數(shù)越多,“記憶庫”就越大。

②建模復(fù)雜關(guān)聯(lián):語言和理解需要捕捉詞與詞、句與句之間極其復(fù)雜、細(xì)微的關(guān)聯(lián)。大量的參數(shù)使得模型有能力構(gòu)建非常復(fù)雜的函數(shù)來表示這些關(guān)聯(lián)。

③支撐涌現(xiàn)能力:如前所述,許多高級能力(如推理)只有在模型達到一定規(guī)模后才會涌現(xiàn)。

49.大模型的參數(shù)量越大越好嗎?

參數(shù)量越大,模型的表達能力越強,但也需要更多的計算資源和數(shù)據(jù),且可能面臨過擬合問題。

50.GPU、NPU有什么區(qū)別?

NPU專為AI推理而設(shè)計,具有高效執(zhí)行神經(jīng)網(wǎng)絡(luò)計算的能力,適用于低功耗、高實時性的應(yīng)用場景。GPU廣泛應(yīng)用于圖形渲染和通用計算領(lǐng)域,具有極高的計算吞吐量和靈活性,適合處理大規(guī)模并行任務(wù)和深度學(xué)習(xí)訓(xùn)練。

51.大模型邊端部署的難點是什么?

①算不動/算得慢:計算資源有限邊緣設(shè)備的算力遠(yuǎn)不如服務(wù)器;

②裝不下:內(nèi)存不足,大模型體積大(比如10億參數(shù)的模型占幾十GB內(nèi)存),邊緣設(shè)備內(nèi)存通常只有幾GB;

③能耗高:大模型運行耗電多,邊緣設(shè)備電池容量或供電功率有限。

52.如何解決大模型邊端部署問題?

通常結(jié)合模型輕量化與硬件加速等方法解決相關(guān)問題。

53.什么是大模型輕量化?

大模型輕量化是指通過一系列技術(shù)減少模型的大小、計算量和能耗,使其能夠部署在資源受限的環(huán)境中(如手機、嵌入式設(shè)備、邊緣服務(wù)器)。主要技術(shù)包括模型剪枝、量化、知識蒸餾等。

54.什么是模型剪枝?

模型剪枝的目的是識別并移除模型中冗余、不重要的參數(shù),在保證能力的前提下,降低算力和內(nèi)存需求。

55.什么是大模型量化?

大模型量化通過將模型權(quán)重和激活從高精度轉(zhuǎn)換為低精度,減少存儲和計算開銷。

56.什么是知識蒸餾?

知識蒸餾是一種模型壓縮技術(shù),通過讓小模型(學(xué)生)學(xué)習(xí)大模型(教師)的輸出分布(軟標(biāo)簽),將其“知識”遷移至輕量級模型。學(xué)生模型在保留相近性能的同時顯著降低參數(shù)量和計算成本,適用于模型部署與加速。


四、評估篇

57.數(shù)據(jù)質(zhì)量評價主要維度是什么?

數(shù)據(jù)質(zhì)量評價主要維度包括準(zhǔn)確性、完整性、一致性、及時性、唯一性和有效性等。

58.大模型評價主要維度是什么?

大模型評價主要關(guān)注以下方面:

①知識廣度與準(zhǔn)確性:模型是否能回答廣泛領(lǐng)域的問題,答案是否準(zhǔn)確;

②推理能力與邏輯思維:模型是否具備解決復(fù)雜問題的能力;

③指令遵循與對齊程度:模型是否能按照用戶意圖生成內(nèi)容;

④創(chuàng)造力與多樣性:模型是否能生成新穎且多樣化的內(nèi)容;

⑤安全性與魯棒性:模型是否能在惡意輸入或極端場景下保持穩(wěn)定。

59.大模型安全性評價主要維度是什么?

大模型安全性評價主要維度包括:①模型應(yīng)用安全:模型在真實交互中抵御惡意攻擊的能力,如提示注入、數(shù)據(jù)泄露、資源濫用等;②數(shù)據(jù)與隱私安全:訓(xùn)練和使用過程中,對用戶敏感數(shù)據(jù)和模型內(nèi)部信息的保護水平;③模型自身安全:模型在訓(xùn)練和部署階段的健壯性,抵御投毒、后門等攻擊的能力;④安全治理與合規(guī):是否將安全融入全生命周期,并符合國際國內(nèi)的相關(guān)標(biāo)準(zhǔn)與法規(guī)。

60.大模型性能評測主要指標(biāo)是什么?

生成質(zhì)量指標(biāo)(流暢度與連貫性、準(zhǔn)確性、BLUE和ROUGE分?jǐn)?shù)、F1分?jǐn)?shù)、困惑度等)、響應(yīng)效率(首Token延遲、吐字率、吞吐量等)、資源消耗等。

61.什么是BLEU

BLEU(Bilingual Evaluation Understudy)是一種用于評估機器翻譯質(zhì)量的指標(biāo),它通過比較機器翻譯輸出與一個或多個參考翻譯之間的n-gram重疊來進行評分,關(guān)注精確度。

62.什么是ROUGE?

ROUGE(Recall-Oriented Understudy for Gisting Evaluation)是一種用于評估自動文本摘要和機器翻譯質(zhì)量的指標(biāo),通過比較自動生成的摘要與參考摘要(通常是人工生成的)之間的相似度來進行評估,關(guān)注生成內(nèi)容對原文的召回率。

63.什么是F1分?jǐn)?shù)(F1 Score)?

F1分?jǐn)?shù)用于綜合評估分類模型的精確率(Precision)和召回率(Recall),由于能夠平衡這兩個指標(biāo)的影響,可有效反映模型在處理類別不平衡問題時的性能。

64.什么是困惑度(Perplexity)?

困惑度是自然語言處理(NLP)中一種常用的評估語言模型性能的指標(biāo)??梢灾庇^地將其理解為模型在預(yù)測下一個詞時的“平均不確定程度”:如果模型能準(zhǔn)確預(yù)測文本中的下一個字,困惑度就低;如果預(yù)測不準(zhǔn),困惑度就高。

65.什么是首Token延遲?

首Token延遲是指從用戶發(fā)送請求到模型返回第一個Token所花費的時間,該指標(biāo)直接影響用戶感知的響應(yīng)速度,是交互流暢度的關(guān)鍵。

66.什么是吐字率?

吐字率指模型每秒生成Token的數(shù)量,該指標(biāo)決定了答案的輸出速度,影響用戶體驗,在長文本生成場景下,較高的吐字率會更流暢。


五、平臺篇

67.Palantir AIP平臺是什么?

PalantirAIP(Artificial Intelligence Platform)是一款用于企業(yè)級應(yīng)用集成和數(shù)據(jù)交換的平臺,它提供了一套完整的工具集,幫助企業(yè)快速、安全地將不同應(yīng)用系統(tǒng)集成在一起,實現(xiàn)數(shù)據(jù)的無縫交換。

68.“元星座”是什么?

“元星座”是(Meta Constellation)Palantir公司的下一代行星級時敏情報系統(tǒng),其本質(zhì)上是一個軟件平臺,其核心能力在于智能調(diào)度和融合數(shù)百顆商業(yè)衛(wèi)星的數(shù)據(jù),并借助人工智能技術(shù),旨在為用戶提供全球范圍內(nèi)近實時的情報洞察和決策支持。

69.“晶格”是什么?

美軍的“晶格”(Lattice)系統(tǒng)是由美國科技初創(chuàng)公司安杜利爾(Anduril)從2017年開始研制的一款智能指揮控制軟件平臺。主要瞄準(zhǔn)現(xiàn)代戰(zhàn)場上的“數(shù)據(jù)洪流”難題,旨在將陸、海、空、天等不同領(lǐng)域成千上萬的傳感器和武器平臺連接起來,通過人工智能技術(shù)融合數(shù)據(jù),為作戰(zhàn)人員生成一張統(tǒng)一的、實時的共用作戰(zhàn)圖,從而極大縮短從發(fā)現(xiàn)目標(biāo)到實施打擊的決策時間,支撐更快的決策。

70.Manus是什么?

Manus是由中國團隊Monica于2025年3月6日正式推出的全球首款通用型AI智能體(AI Agent),其核心理念是“手腦并用”(源自拉丁語“Mens et Manus”),旨在通過自主規(guī)劃與執(zhí)行復(fù)雜任務(wù),直接交付完整成果,而非僅提供建議或文本答案。

71.什么是MCP?

MCP(Model Context Protocol)是一個開放協(xié)議,用于讓大型語言模型能夠安全、標(biāo)準(zhǔn)化地使用外部工具、數(shù)據(jù)和服務(wù)。

72.什么是A2A?

A2A(Agent-to-Agent)即智能體間的交互,指的是多個AI智能體通過通信和協(xié)作,模擬人類團隊的工作模式,共同完成一個復(fù)雜任務(wù)。

73.什么是AI智能體(AI Agent)?

AI智能體是一種能夠跨領(lǐng)域自主規(guī)劃、執(zhí)行復(fù)雜任務(wù)并交付完整成果的人工智能系統(tǒng)。不同于傳統(tǒng)專注于單一任務(wù)的AI,AI智能體具備類似人類的綜合認(rèn)知與執(zhí)行能力,能夠獨立完成從任務(wù)分解到結(jié)果輸出的全流程。

74.什么是檢索增強生成(RAG)?

檢索增強生成(Retrieval-Augmented Generation,RAG)通過檢索外部知識庫增強模型生成能力。用戶提問后,RAG先從外部知識庫(如文檔、數(shù)據(jù)庫、網(wǎng)頁)中檢索出與問題最相關(guān)的文檔片段,并將這些片段和原始問題一起作為上下文,輸入給大模型,大模型基于提供的權(quán)威知識生成回答。

75.檢索增強生成有什么優(yōu)勢?

RAG的核心優(yōu)勢是減少幻覺、提升準(zhǔn)確性和時效性。

①減少幻覺:模型基于真實的檢索數(shù)據(jù)回答,減少了模型憑空編造的可能;

②提升準(zhǔn)確性:能調(diào)用專業(yè)知識庫(如醫(yī)療指南、法律條文),回答更專業(yè);

③提升時效性:知識庫可以隨時更新,讓模型能回答最新問題,而不必重新訓(xùn)練模型。


六、應(yīng)用篇

76.大模型如何輔助代碼開發(fā)?

①代碼補全:寫代碼時自動補全后續(xù)內(nèi)容;②注釋生成:為寫好的代碼添加注釋;③代碼解釋:解釋現(xiàn)有代碼的功能;④bug修復(fù):發(fā)現(xiàn)代碼中錯誤,并提出修改建議;⑤單元測試生成:為代碼生成測試用例,驗證代碼是否能正常運行;⑥重構(gòu)建議:優(yōu)化舊代碼的結(jié)構(gòu),使代碼更簡潔、易維護;⑦代碼自動編寫:根據(jù)提示詞,自動生成代碼基本版。

77.大模型如何優(yōu)化搜索引擎?

大模型使搜索引擎“更懂用戶、更實用”,主要優(yōu)化包括理解模糊需求、多輪對話式搜索、生成式答案、多模態(tài)搜索等。

78.大模型如何輔助內(nèi)容創(chuàng)作?

主要場景包括:①文本組織:整理報告、抽取信息、語言翻譯等;②創(chuàng)意生成:創(chuàng)作小說、宣傳文案等;③音樂生成:根據(jù)文本描述生成音樂;④圖片配文:根據(jù)文本生成匹配適當(dāng)圖片。

79.大模型如何實現(xiàn)多輪對話的連貫性?

主要方法包括:①維護對話歷史:將之前的對話內(nèi)容也作為上下文輸入給模型;②上下文注意力:模型處理新問題時,同時關(guān)注歷史對話里的關(guān)鍵信息;③狀態(tài)跟蹤:顯式地維護對話狀態(tài)(如用戶的目標(biāo)、已提及的信息),確保對話圍繞主題;④情感理解:感知用戶的情緒,并做出恰當(dāng)?shù)姆磻?yīng)。

80.多模態(tài)模型的應(yīng)用場景有哪些?

應(yīng)用場景主要包括:①文生圖:根據(jù)文字描述生成圖片;②圖生文:根據(jù)輸入圖片生成文字描述;③圖文問答:結(jié)合圖片和文字提問,模型回答;④視頻摘要:輸入視頻,生成文字摘要;⑤語音轉(zhuǎn)文本并分析:把語音轉(zhuǎn)成文本,再根據(jù)文本內(nèi)容進行分析。

81.大模型如何結(jié)合知識圖譜使用?

大模型通過檢索增強、圖神經(jīng)網(wǎng)絡(luò)、實體鏈接、關(guān)系推理等方式整合知識圖譜信息,輔助回答,減少幻覺,提升專業(yè)性。

82.大模型進行信息抽取能提取哪些關(guān)鍵內(nèi)容?

①實體:具體的人、事、物;

②關(guān)系:實體之間的聯(lián)系;

③事件:具體發(fā)生的事;情感:文本的情緒傾向;

④關(guān)鍵詞/摘要:文本的核心詞和摘要生成。

83.大模型如何將復(fù)雜文本簡化為通俗表達?

通過摘要生成(提取核心要點生成摘要)、術(shù)語解釋(將專業(yè)術(shù)語替換為日常用語或加以解釋)、句式簡化(拆分長難句,使用更簡單的句子結(jié)構(gòu))、上下文重組(調(diào)整邏輯順序,使其更符合大眾的理解習(xí)慣)等方式實現(xiàn)。

84.大模型結(jié)合知識庫能實現(xiàn)什么檢索效果?

提升答案準(zhǔn)確性、時效性、可解釋性,支持復(fù)雜推理和多跳問答。

85.大模型如何整合多源信息進行回答?

主要方法包括:

①通過注意力機制權(quán)衡不同信息源的重要性,重點關(guān)注更相關(guān)的內(nèi)容;

②將不同信息中的互補部分組合起來,形成完整答案;去冗余,識別并去除重復(fù)的信息;

③當(dāng)不同信息沖突時,根據(jù)來源可靠性等因素進行判斷或如實告知用戶存在沖突等技術(shù)實現(xiàn)。

86.大模型如何篩選檢索到的冗余信息?

使用去重算法、相關(guān)性排序、摘要生成、信息聚合等方法篩選冗余信息。

87.美軍推進的大模型典型應(yīng)用有哪些?

①“多諾萬”(Donovan)是Scale AI公司研發(fā)的端到端AI決策支持平臺,用于支撐美國陸軍第18空降師輔助決策制定,實現(xiàn)海量情報數(shù)據(jù)(如任務(wù)命令、態(tài)勢報告)快速分析、行動方案生成和評估等功能,大幅縮短作戰(zhàn)規(guī)劃周期。

②“雷霆熔爐”(Thunderforge)是由國防創(chuàng)新單元(DIU)主導(dǎo)的關(guān)鍵項目,由Scale AI公司進行開發(fā),通過將AI深度整合到作戰(zhàn)規(guī)劃中,利用大模型和兵棋推演快速生成、模擬和評估多種行動方案,旨在獲得對對手的決策速度優(yōu)勢。

③Amelia助手是海軍與通用動力信息技術(shù)公司(GDIT)合作推出的人工智能助手,旨在提升海軍體系服務(wù)臺應(yīng)答效率,解放人類操作員,以便其開展更復(fù)雜、更重要的工作。

④Hermes大語言模型是Scale AI公司與海軍陸戰(zhàn)隊大學(xué)合作開發(fā)的專注于軍事教育和規(guī)劃的大模型,通過加載特定條令和數(shù)據(jù),可幫助軍事人員理解復(fù)雜作戰(zhàn)環(huán)境、進行策略分析和問答。


七、安全篇

88.大模型的主要安全問題包括哪些?

數(shù)據(jù)隱私與泄露風(fēng)險、模型安全與對抗攻擊、內(nèi)容安全與倫理風(fēng)險、基礎(chǔ)設(shè)施與合規(guī)風(fēng)險、智能體與系統(tǒng)級風(fēng)險等。

89.常見的大模型攻擊手段有哪些?

提示注入、對抗樣本、數(shù)據(jù)投毒、模型竊取、成員推斷攻擊等。

90.常見的大模型防御手段有哪些?

提示詞過濾、對抗訓(xùn)練、差分隱私、模型監(jiān)控、安全對齊、紅隊測試等。

91.大模型“幻覺”是什么?

“幻覺”問題是大模型當(dāng)前的核心缺陷之一,是指大模型生成內(nèi)容看似流暢合理,但實際上是錯誤的或虛構(gòu)的,與現(xiàn)實或輸入信息不符。

92.如何緩解大模型幻覺問題?

通過使用RAG提供事實依據(jù)、指令微調(diào)要求模型誠實、讓模型提供引用來源、用戶交叉驗證信息、通過RLHF持續(xù)優(yōu)化等方式,減少模型捏造答案的傾向。

93.大模型可解釋性是什么?

可解釋性(Interpretability)是指人類能夠理解、信任和有效管控人工智能模型如何做出決策的程度。它旨在打開AI的“黑箱”,讓模型的決策過程對人類而言變得透明和可理解。

94.如何防止模型生成有害內(nèi)容?

主要方法包括:①過濾器:使用內(nèi)容過濾器,預(yù)訓(xùn)練時去掉有害數(shù)據(jù);②指令微調(diào)與RLHF:通過人類反饋訓(xùn)練模型,使其拒絕生成有害內(nèi)容;③內(nèi)容審核:對模型的輸出進行實時檢測和過濾,攔截有害內(nèi)容;④紅隊測試:主動模擬攻擊,發(fā)現(xiàn)模型漏洞并修復(fù)。

95.什么是提示注入?

攻擊者通過特殊提示詞,誘導(dǎo)模型忽略原有指令,執(zhí)行惡意操作。如果模型防御不足,就可能泄露信息。

96.模型對齊的目標(biāo)是什么?

模型對齊(Model Alignment)確保輸出符合人類價值觀,防止生成有害內(nèi)容。例如未對齊的模型可能反饋一些違法違規(guī)內(nèi)容,對齊后會拒絕;未對齊的模型可能答非所問,對齊后會準(zhǔn)確回應(yīng)。

97.如何識別AI生成內(nèi)容?

①AI檢測工具:使用專門的工具分析內(nèi)容特征,判斷是否是AI生成;②特征分析:檢查內(nèi)容是否有AI的“痕跡”(比如文本重復(fù)率高、邏輯弱);③水印技術(shù):在生成時嵌入難以察覺的特定模式;④行為模式檢測:訓(xùn)練專門的二分類模型來區(qū)分AI生成和人類撰寫。

98.模型訓(xùn)練是否侵犯版權(quán)?

存在爭議,需考慮數(shù)據(jù)來源、合理使用原則、版權(quán)法例外條款、行業(yè)協(xié)議等。


八、政策篇

99.我國發(fā)布了什么人工智能政策?

2025年8月,國務(wù)院印發(fā)《國務(wù)院關(guān)于深入實施“人工智能+”行動的意見》(國發(fā)〔2025〕11號),是繼十年前“互聯(lián)網(wǎng)+”行動之后,我國推出的又一個重量級國家行動,旨在推動人工智能與經(jīng)濟社會各行業(yè)各領(lǐng)域深度融合,標(biāo)志著中國人工智能發(fā)展進入新階段。

100.美國發(fā)布了什么人工智能政策?

2025年7月,美國白宮發(fā)布《贏得競爭:美國人工智能行動計劃》,圍繞加速AI創(chuàng)新、構(gòu)建美國AI基礎(chǔ)設(shè)施、引領(lǐng)國際AI外交和安全三大戰(zhàn)略支柱展開,配套提出30項舉措和100余條具體政策行動,旨在通過AI的主導(dǎo)權(quán),確保美國在全球AI競賽中占據(jù)領(lǐng)先地位,從而贏得全球技術(shù)和經(jīng)濟競爭的主動權(quán)。

本文來源:新鄉(xiāng)數(shù)字不動產(chǎn)、中國信息支援

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1819

    文章

    50284

    瀏覽量

    266780
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    550

    瀏覽量

    11642
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3746

    瀏覽量

    5266
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【大語言模型:原理與工程實踐】大語言模型的評測

    度、多角度的解釋或回答。通過這些評測任務(wù),我們能夠全面而深入地了解模型在中文語言理解方面的實際能力。 常識百科類評測任務(wù):此類評測任務(wù)主要評估大語言模型在知識覆蓋廣度方面的表現(xiàn)。一個
    發(fā)表于 05-07 17:12

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    科正將AI能力體系化并賦能終端生態(tài)。 大會上,聯(lián)發(fā)科定義了“智能化用戶體驗”的五大特征:主動及時、知你懂你、互動協(xié)作、學(xué)習(xí)進化和專屬隱私信息守護。這五大特征需要跨越從芯片、模型、應(yīng)用、終端乃至整個
    發(fā)表于 04-13 19:52

    【2025夏季班正課】大模型Agent智能開發(fā)實戰(zhàn) 課分享

    【2025年12月班】大模型與Agent智能開發(fā)實戰(zhàn)] 拒絕碎片化:體系化學(xué) Agent 開發(fā)方法的技術(shù)深度剖析 在當(dāng)今的人工智能應(yīng)用開發(fā)領(lǐng)域,一種浮躁的“碎片化”風(fēng)氣正在蔓延。許多
    發(fā)表于 03-29 16:12

    九天菜菜大模型agent智能開發(fā)實戰(zhàn)2026一月班

    自主 AI 新范式:大模型 Agent 開發(fā)實戰(zhàn)火爆開課 在科技浪潮洶涌澎湃的當(dāng)下,人工智能領(lǐng)域正經(jīng)歷著一場深刻變革,大模型 Agent 開發(fā)實戰(zhàn)課程如璀璨新星般閃耀登場,迅速成為科技圈的熱門焦點
    發(fā)表于 04-15 16:04

    模型預(yù)測控制介紹

    這篇主要講一下模型預(yù)測控制,如果對PID控制了解的同學(xué),那效果更好。如果不了解PID控制,還是熟悉下比較好。模型預(yù)測控制,顧名思義,基于模型
    發(fā)表于 08-18 06:21

    如何快速搭建STM32應(yīng)用模型

    如何快速搭建STM32應(yīng)用模型?
    發(fā)表于 02-10 06:27

    用于快速模型模型調(diào)試器11.21版用戶指南

    用于快速模型模型調(diào)試器是用于可擴展集群軟件開發(fā)的完全可重定目標(biāo)的調(diào)試器。它旨在滿足SoC軟件開發(fā)人員的需求。 Model Debugger具有易于使用的GUI前端,并支持: ?源代碼級調(diào)試
    發(fā)表于 08-09 07:57

    用于快速模型模型調(diào)試器11.20版用戶指南

    用于快速模型模型調(diào)試器是用于可擴展集群軟件開發(fā)的完全可重定目標(biāo)的調(diào)試器。它旨在滿足SoC軟件開發(fā)人員的需求。 Model Debugger具有易于使用的GUI前端,并支持: ?源代碼級調(diào)試
    發(fā)表于 08-10 06:33

    快速全面了解模型長文本能力

    那關(guān)于LLM的長文本能力,目前業(yè)界通常都是怎么做的?有哪些技術(shù)點或者方向?今天我們就來總結(jié)一波,供大家快速全面了解。
    發(fā)表于 02-22 14:04 ?1665次閱讀
    <b class='flag-5'>快速</b><b class='flag-5'>全面</b><b class='flag-5'>了解</b>大<b class='flag-5'>模型</b>長文本能力

    中軟國際【】系列大模型應(yīng)用一機正式發(fā)布

    的最新應(yīng)用實踐,攜手華鯤振宇正式發(fā)布了中軟國際【】系列大模型應(yīng)用一機,聯(lián)合華為發(fā)布了“同舟共濟”行動計劃。會上,中軟國際互聯(lián)網(wǎng)ITS事業(yè)部AIGC解決方案總經(jīng)理黃高尚發(fā)表了題為《中軟國際【
    的頭像 發(fā)表于 03-19 19:34 ?2565次閱讀
    中軟國際【<b class='flag-5'>問</b>】系列大<b class='flag-5'>模型</b>應(yīng)用一<b class='flag-5'>體</b>機正式發(fā)布

    通義千推出1100億參數(shù)開源模型

    通義千近日震撼發(fā)布1100億參數(shù)的開源模型Qwen1.5-110B,這一舉措標(biāo)志著通義千在AI領(lǐng)域邁出了重大步伐。該模型成為通義千全系
    的頭像 發(fā)表于 05-06 10:49 ?1507次閱讀

    騰訊元器免費模型資源增至1億tokens,混元大模型全面降價

    從騰訊方面獲悉,一站式智能創(chuàng)作與分發(fā)平臺騰訊元器即日起全面升級了模型資源扶持方案。
    的頭像 發(fā)表于 05-27 14:22 ?3217次閱讀

    什么是大模型?快速了解模型基本概念

    “在人工智能的世界里,大模型就像超級大腦一樣,能夠處理和理解大量的信息。你可能聽說過ChatGPT,它就是大模型的一個典型代表。那么,什么是大模型呢?讓我們一起來探索這個神奇的領(lǐng)域。什
    的頭像 發(fā)表于 08-07 08:28 ?4247次閱讀
    什么是大<b class='flag-5'>模型</b>?<b class='flag-5'>快速</b><b class='flag-5'>了解</b>大<b class='flag-5'>模型</b>基本概念

    黑芝麻智能芯片全面兼容DeepSeek模型推理

    目前,黑芝麻智能武當(dāng)C1200家族芯片已經(jīng)完成DeepSeek模型的部署,A2000也將全面支持基于DeepSeek的多模態(tài)大模型。 伴隨DeepSeek等AI應(yīng)用
    的頭像 發(fā)表于 02-14 11:27 ?1506次閱讀

    APP與通義系列大模型,才是智能汽車的“黃金組合”

    智能汽車這兩年的一個典型現(xiàn)象是,幾乎所有車企都用上了大模型,但智能座艙體驗并沒有出現(xiàn)同等量級的躍遷。 于是,行業(yè)集體思考新的出路和方向,共識逐漸形成,即接入大模型只是
    的頭像 發(fā)表于 12-30 17:25 ?700次閱讀