一、概念篇
1.什么是大模型?
大模型是指參數(shù)規(guī)模巨大(通常達到數(shù)十億甚至萬億級別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能模型。
2.什么是大語言模型(LLM)?
大語言模型(Large Language Model,LLM)是大模型中最主 要的一類,專門用于處理和生成人類語言。大語言模型通過“閱讀”海量的文本數(shù)據(jù)(如書籍、網(wǎng)頁、文章等)進行預(yù)訓(xùn)練,學(xué)會語言的模式、知識和上下文關(guān)系。
3.什么是多模態(tài)大模型?
多模態(tài)大模型是指能夠統(tǒng)一處理和理解多種模態(tài)數(shù)據(jù)(如文本、圖像、音頻、視頻)的人工智能模型,實現(xiàn)圖文對應(yīng)、音視頻理解、視覺問答等任務(wù),使人工智能具備更接近人類的綜合感知與交互能力。
4.什么是推理大模型?
推理大模型是指專門強化邏輯推理、多步推導(dǎo)和計算能力的大規(guī)模人工智能模型。它通過結(jié)構(gòu)設(shè)計或訓(xùn)練方法優(yōu)化,提升在數(shù)學(xué)解題、代碼生成與調(diào)試、邏輯推理、策略規(guī)劃等復(fù)雜任務(wù)中的表現(xiàn),注重逐步分析,以生成準(zhǔn)確、可解釋的結(jié)論。
5.L0級、L1級、L2級大模型分別代表什么?
L0級、L1級、L2級大模型是一種非官方但業(yè)界常用的模型能力分級方式,幫助理解模型的“加工”程度,分別代表基礎(chǔ)大模型、垂域/領(lǐng)域大模型、場景大模型。
6.什么是基礎(chǔ)大模型?
基礎(chǔ)大模型,又稱基座模型,是指在海量數(shù)據(jù)上預(yù)訓(xùn)練而成、具備強大泛化能力和多任務(wù)適應(yīng)性的大型人工智能模型。它可作為各類下游任務(wù)的通用基礎(chǔ),支持?jǐn)?shù)據(jù)理解、生成等多種能力,通常需要通過微調(diào)或提示工程后應(yīng)用于具體場景。
7.什么是垂域/領(lǐng)域大模型?
垂域大模型是在基礎(chǔ)大模型的基礎(chǔ)上,使用大量某個專業(yè)領(lǐng)域的數(shù)據(jù)(如醫(yī)學(xué)文獻、法律條文、金融報告)進行進一步訓(xùn)練(微調(diào))得到的模型。這使得它在該領(lǐng)域內(nèi)的知識更深入、更準(zhǔn)確,回答也更專業(yè)。
8.什么是場景大模型?
場景大模型是針對具體的使用場景和應(yīng)用,在通用模型或領(lǐng)域模型的基礎(chǔ)上,針對特定任務(wù)流程和用戶交互方式進行微調(diào)得到。
9.什么是混合專家模型(MoE)?
混合專家模型(Mixture of Experts,MoE)由許多“專家模型”組成。獲取到任務(wù)時,模型會判斷哪個專家最擅長處理它,然后只激活這部分專家進行計算。
10.什么是專家鏈模型(COE)?
專家鏈(Chain-of-Experts,CoE)是MoE的一種演進。在傳統(tǒng)的MoE中,專家們是并行工作的。而在CoE中,專家們像流水線一樣按順序工作。第一個專家處理完任務(wù)后,將結(jié)果傳遞給下一個更專業(yè)的專家,如此反復(fù)進行多輪交互,逐步逼近最精準(zhǔn)的解決方案。
11.什么是大模型推理?
大模型推理是應(yīng)用知識的過程(與之對應(yīng),大模型訓(xùn)練是學(xué)習(xí)知識的過程),使用已經(jīng)訓(xùn)練好的、參數(shù)固定的模型,根據(jù)新的輸入進行計算,并生成輸出。
12.什么是開源大模型?
開源大模型:公開模型的權(quán)重(參數(shù))和代碼,任何人都可以免費下載、使用、修改和研究,促進了創(chuàng)新、透明度和社區(qū)協(xié)作。優(yōu)勢是可定制、可控、成本可能更低;劣勢是可能需要自身有較強的技術(shù)能力來部署和優(yōu)化。
13.什么是閉源大模型?
閉源大模型:不公開模型內(nèi)部,只通過API提供服務(wù),用戶只需輸入和獲取輸出,無需關(guān)心后臺。優(yōu)勢是簡單易用、性能穩(wěn)定、通常能力更強;劣勢是無法定制內(nèi)部邏輯、數(shù)據(jù)隱私存在顧慮、持續(xù)使用需付費。
14.什么是智能體?
智能體(Agent)是能夠感知環(huán)境并采取行動以實現(xiàn)特定目標(biāo)的代理體,具備自主性、適應(yīng)性和交互能力,廣泛應(yīng)用于人工智能領(lǐng)域,通常基于大模型構(gòu)建。?
15.什么是GPU?
GPU(Graphics Processing Unit,圖形處理器)最初設(shè)計用于處理圖形和圖像相關(guān)的任務(wù),如圖形渲染和游戲圖形處理。然而,由于其并行處理能力較強,也被用于執(zhí)行許多通用計算任務(wù),尤其是在深度學(xué)習(xí)和科學(xué)計算領(lǐng)域。
16.什么是NPU?
NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理器)是專門為神經(jīng)網(wǎng)絡(luò)任務(wù)而設(shè)計的處理器,NPU專注于加速深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練和推理。
17.什么是“PFlops”?
PFlops(PetaFLOPS)是衡量計算機浮點運算能力的標(biāo)準(zhǔn)單位,表示每秒執(zhí)行1千萬億次浮點運算,介于TFLOPS(萬億次)與EFLOPS(百億億次)之間,通常用于評估超級計算機和高性能計算集群的運算能力。
二、數(shù)據(jù)篇
18.什么是高質(zhì)量數(shù)據(jù)集?
高質(zhì)量數(shù)據(jù)集是指經(jīng)過清洗、標(biāo)注和結(jié)構(gòu)化處理,具備高準(zhǔn)確性、完整性、一致性和相關(guān)性的數(shù)據(jù)集合。高質(zhì)量數(shù)據(jù)集能夠真實反映現(xiàn)實場景,可用于訓(xùn)練和優(yōu)化智能模型。
19.預(yù)訓(xùn)練數(shù)據(jù)質(zhì)量如何影響模型能力?
高質(zhì)量、多樣化、覆蓋廣的語料能提升模型的泛化與生成能力,減少偏差與幻覺。低質(zhì)量數(shù)據(jù)會導(dǎo)致模型能力低下、偏見嚴(yán)重、“幻覺”頻發(fā)。
20.為什么大模型需要海量數(shù)據(jù)訓(xùn)練?
海量數(shù)據(jù)能覆蓋更多知識和場景,讓模型學(xué)會通用規(guī)律,提升泛化能力。
21.常見的數(shù)據(jù)標(biāo)注類型有哪些?
① 圖像標(biāo)注:對圖像中的物體進行拉框(邊界框標(biāo)注)、按物體輪廓進行精細(xì)分割(圖像分割)、標(biāo)記特定點位(關(guān)鍵點檢測)等;
② 文本標(biāo)注:對文本進行分類、識別實體(如人名、地名)、分析情感傾向、標(biāo)注語義關(guān)系等;
③ 語音標(biāo)注:將語音轉(zhuǎn)寫成文字、識別不同的說話人、標(biāo)注聲音事件等;
④ 視頻標(biāo)注:對視頻連續(xù)幀中的物體、動作、事件進行追蹤和標(biāo)注。
22.數(shù)據(jù)標(biāo)注中人類偏好數(shù)據(jù)如何獲???
①排序比較:標(biāo)注員對模型的多個回答“排序”或“打分”;
②直接撰寫:標(biāo)注員針對一個問題,直接寫“優(yōu)質(zhì)回答”,作為模型的學(xué)習(xí)樣本訓(xùn)練獎勵模型,優(yōu)化大模型。
23.數(shù)據(jù)集如何轉(zhuǎn)化為提示詞?
該過程的核心是將數(shù)據(jù)集中結(jié)構(gòu)化知識或樣本轉(zhuǎn)化為能夠清晰引導(dǎo)大模型完成特定任務(wù)的指令或問題形式。
24.什么是提示詞?
提示詞(Prompt)是用戶輸入給大模型的指令、問題、上下文或示例的統(tǒng)稱。它是用戶與模型交互的主要方式,用于引導(dǎo)和激發(fā)模型生成期望的輸出。提示詞的質(zhì)量直接決定了模型輸出質(zhì)量的上限。
25.提示詞如何生成?
主要方法包括:
①手動編寫:最直接的方式,依賴提示詞構(gòu)建人員知識經(jīng)驗,正確率較高;
②提示詞模板:使用預(yù)設(shè)的模板結(jié)構(gòu)化提示詞;
③自動化工具:提供提示詞生成工具,幫助測試和優(yōu)化提示詞效果。
26.提示詞工程的作用是什么?
提示工程是指設(shè)計和優(yōu)化輸入提示,使模型準(zhǔn)確理解需求,提升輸出準(zhǔn)確性和相關(guān)性,應(yīng)用于對話生成、文本生成等任務(wù)。
27.什么是Token?
Token是模型處理、理解和生成文本的基本單位,直接決定模型的上下文窗口限制和使用成本(按Token數(shù)量計費)。
28.分詞器的作用是什么?
分詞器(Tokenizer)是模型處理文本的第一道關(guān)口,它有兩個核心功能:①分詞:將原始文本字符串拆分成Token序列。②映射:將每個Token轉(zhuǎn)換成一個唯一的數(shù)字ID。
29.什么是向量數(shù)據(jù)庫?
向量數(shù)據(jù)庫(Vector Database)是一種專門存儲和檢索向量(高維數(shù)值數(shù)組)的數(shù)據(jù)庫。在RAG等應(yīng)用中,用于存儲文本、圖像的嵌入(Embedding)表示,實現(xiàn)高效的語義相似性搜索。
三、訓(xùn)練篇
30.大模型的核心技術(shù)基礎(chǔ)是什么?
Transformer是大模型最核心的技術(shù)基礎(chǔ)。大模型的爆發(fā)始于2017年Transformer架構(gòu)的提出,幾乎所有現(xiàn)代大模型都是基于Transformer或它的變體構(gòu)建的。圍繞Transformer,衍生出了預(yù)訓(xùn)練、微調(diào)、對齊等一系列強化大模型的關(guān)鍵技術(shù)。
31.大模型的基本工作原理是什么?
①輸入處理:將輸入(文字、圖片)轉(zhuǎn)成模型能懂的格式,例如文字轉(zhuǎn)Tokens、圖片轉(zhuǎn)像素特征;
②計算理解:通過Transformer架構(gòu)計算輸入的語義/特征;
③輸出生成:根據(jù)計算結(jié)果生成人類能懂的內(nèi)容,例如文字任務(wù)生成Tokens再轉(zhuǎn)文字、圖像任務(wù)生成像素再轉(zhuǎn)圖片。
32.什么是Transformer架構(gòu)?
Transformer架構(gòu)是一種基于自注意力機制的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并行化能力強、擅長并行計算與序列建模,能很好地處理距離很遠(yuǎn)的詞之間的關(guān)系。主要包括編碼器(Encoder)和解碼器(Decoder)兩部分。但后來出現(xiàn)了很多變體,如僅用解碼器的GPT(生成式)和僅用編碼器的BERT(理解式)。
33.什么是涌現(xiàn)能力?
涌現(xiàn)能力(Emergent Ability)是指當(dāng)人工智能模型(尤其是大語言模型)的規(guī)模(如參數(shù)量、訓(xùn)練數(shù)據(jù)量、計算量)增長到某個臨界點時,突然展現(xiàn)出在較小模型中完全不存在或非常微弱的、新的、強大的能力,簡單來說,就是“量變引起質(zhì)變”。
34.大模型是如何進行訓(xùn)練的?
先“預(yù)訓(xùn)練”:在海量無標(biāo)注文本數(shù)據(jù)上,通過自監(jiān)督學(xué)習(xí)目標(biāo)進行訓(xùn)練。再“微調(diào)”:在預(yù)訓(xùn)練好的“基座模型”上,使用特定任務(wù)的數(shù)據(jù)集進行進一步訓(xùn)練,使其適應(yīng)下游具體任務(wù)(如對話、總結(jié))。
35.什么是預(yù)訓(xùn)練?
預(yù)訓(xùn)練是指在構(gòu)建大型人工智能模型時,使用海量的、通常是無標(biāo)注的數(shù)據(jù),在通用任務(wù)上進行的第一階段大規(guī)模訓(xùn)練過程。這是大模型能夠具備強大通用能力的基礎(chǔ)和核心步驟。
36.什么是微調(diào)?
微調(diào)是在預(yù)訓(xùn)練模型的基礎(chǔ)上,針對特定任務(wù)或領(lǐng)域進行“專項培訓(xùn)”的過程。使用相對較少的有標(biāo)注數(shù)據(jù),對模型的參數(shù)進行小幅調(diào)整,使其在該任務(wù)上表現(xiàn)更專業(yè)。
37.什么是指令微調(diào)?
指令微調(diào)是微調(diào)的一種重要形式,使用提示對(指令,期望輸出)進行訓(xùn)練,教會模型如何理解和遵循人類的指令。
38.什么是參數(shù)高效微調(diào)?
參數(shù)高效微調(diào)(PEFT)是一系列技術(shù)的總稱,其核心思想是:在微調(diào)時,不動或只更新預(yù)訓(xùn)練模型的絕大部分參數(shù),只額外引入極少量的新參數(shù)并只訓(xùn)練這些新參數(shù),從而達到與全量微調(diào)相近的效果。常見技術(shù)有:LoRA、QLoRA、Adapter等。
39.什么是上下文學(xué)習(xí)?
上下文學(xué)習(xí)(In-Context Learning,ICL)是大模型一項革命性的能力。它指的是模型不需要更新自身的任何參數(shù),僅通過在當(dāng)前對話的提示中提供幾個任務(wù)示例或指令,就能立刻學(xué)會并執(zhí)行一個新任務(wù)。
40.什么是上下文窗口?
模型在一次推理過程中能夠考慮和處理的文本總量(包括提示和模型已生成的內(nèi)容),通常以token數(shù)量衡量。例如,上下文窗口為8k,意味著模型最多能處理8192個token。
41.上下文窗口長度限制有什么影響?
限制模型處理長文本的能力,可能丟失遠(yuǎn)距離信息,影響回答連貫性和準(zhǔn)確性。
42.為什么大模型具備上下文學(xué)習(xí)能力?
這種能力被認(rèn)為是模型規(guī)模達到一定程度后涌現(xiàn)出來的。在預(yù)訓(xùn)練過程中,模型“閱讀”了海量的文本,這些文本中本身就包含了各種任務(wù)和示例(如問答對、文章摘要等)。當(dāng)模型足夠大時,模型內(nèi)部形成了強大的模式匹配和推理能力,使得它能夠在推理時,根據(jù)提供的幾個示例快速識別出所需的任務(wù)模式,并模擬生成相應(yīng)的輸出。
43.什么是零樣本學(xué)習(xí)?
零樣本學(xué)習(xí)(Zero-Shot Learning)是機器學(xué)習(xí)的一種高級范式,其核心目標(biāo)是讓模型能夠識別或理解在訓(xùn)練階段從未見過任何樣本的類別。
44.什么是少樣本學(xué)習(xí)?
少樣本學(xué)習(xí)(Few-Shot Learning)是上下文學(xué)習(xí)最常見的形式。指在提示中提供少量(通常是幾個)任務(wù)示例,從而幫助模型更好地理解任務(wù)意圖和格式,生成更高質(zhì)量的答案。例如,先給幾個翻譯例子,再讓模型翻譯新的句子。
45.什么是災(zāi)難性遺忘?
災(zāi)難性遺忘(Catastrophic Forgetting)是機器學(xué)習(xí)中的一個經(jīng)典問題。指當(dāng)一個模型學(xué)習(xí)新任務(wù)或新知識時,會嚴(yán)重覆蓋或破壞之前已經(jīng)學(xué)會的舊任務(wù)或舊知識的性能。
46.什么是思維樹?
思維樹(Tree of Thoughts,ToT)讓模型在推理的每一步都探索多種可能的下一步,然后通過評估分支優(yōu)劣,選擇最有希望的路徑繼續(xù),必要時甚至可以回溯,使得模型能進行更深度、更可靠的推理。
47.人類反饋強化學(xué)習(xí)是什么?
人類反饋強化學(xué)習(xí)(RLHF)是讓大模型的行為與人類價值觀和偏好對齊的核心技術(shù)。它分為收集人類偏好、訓(xùn)練獎勵模型、強化學(xué)習(xí)微調(diào)三個步驟。
48.為什么大模型需要數(shù)十億參數(shù)?
參數(shù)是模型存儲知識和進行計算的基礎(chǔ),需要如此多參數(shù)的主要原因:
①存儲知識:模型需要將學(xué)到的海量語言知識、世界事實存儲在參數(shù)中。參數(shù)越多,“記憶庫”就越大。
②建模復(fù)雜關(guān)聯(lián):語言和理解需要捕捉詞與詞、句與句之間極其復(fù)雜、細(xì)微的關(guān)聯(lián)。大量的參數(shù)使得模型有能力構(gòu)建非常復(fù)雜的函數(shù)來表示這些關(guān)聯(lián)。
③支撐涌現(xiàn)能力:如前所述,許多高級能力(如推理)只有在模型達到一定規(guī)模后才會涌現(xiàn)。
49.大模型的參數(shù)量越大越好嗎?
參數(shù)量越大,模型的表達能力越強,但也需要更多的計算資源和數(shù)據(jù),且可能面臨過擬合問題。
50.GPU、NPU有什么區(qū)別?
NPU專為AI推理而設(shè)計,具有高效執(zhí)行神經(jīng)網(wǎng)絡(luò)計算的能力,適用于低功耗、高實時性的應(yīng)用場景。GPU廣泛應(yīng)用于圖形渲染和通用計算領(lǐng)域,具有極高的計算吞吐量和靈活性,適合處理大規(guī)模并行任務(wù)和深度學(xué)習(xí)訓(xùn)練。
51.大模型邊端部署的難點是什么?
①算不動/算得慢:計算資源有限邊緣設(shè)備的算力遠(yuǎn)不如服務(wù)器;
②裝不下:內(nèi)存不足,大模型體積大(比如10億參數(shù)的模型占幾十GB內(nèi)存),邊緣設(shè)備內(nèi)存通常只有幾GB;
③能耗高:大模型運行耗電多,邊緣設(shè)備電池容量或供電功率有限。
52.如何解決大模型邊端部署問題?
通常結(jié)合模型輕量化與硬件加速等方法解決相關(guān)問題。
53.什么是大模型輕量化?
大模型輕量化是指通過一系列技術(shù)減少模型的大小、計算量和能耗,使其能夠部署在資源受限的環(huán)境中(如手機、嵌入式設(shè)備、邊緣服務(wù)器)。主要技術(shù)包括模型剪枝、量化、知識蒸餾等。
54.什么是模型剪枝?
模型剪枝的目的是識別并移除模型中冗余、不重要的參數(shù),在保證能力的前提下,降低算力和內(nèi)存需求。
55.什么是大模型量化?
大模型量化通過將模型權(quán)重和激活從高精度轉(zhuǎn)換為低精度,減少存儲和計算開銷。
56.什么是知識蒸餾?
知識蒸餾是一種模型壓縮技術(shù),通過讓小模型(學(xué)生)學(xué)習(xí)大模型(教師)的輸出分布(軟標(biāo)簽),將其“知識”遷移至輕量級模型。學(xué)生模型在保留相近性能的同時顯著降低參數(shù)量和計算成本,適用于模型部署與加速。
四、評估篇
57.數(shù)據(jù)質(zhì)量評價主要維度是什么?
數(shù)據(jù)質(zhì)量評價主要維度包括準(zhǔn)確性、完整性、一致性、及時性、唯一性和有效性等。
58.大模型評價主要維度是什么?
大模型評價主要關(guān)注以下方面:
①知識廣度與準(zhǔn)確性:模型是否能回答廣泛領(lǐng)域的問題,答案是否準(zhǔn)確;
②推理能力與邏輯思維:模型是否具備解決復(fù)雜問題的能力;
③指令遵循與對齊程度:模型是否能按照用戶意圖生成內(nèi)容;
④創(chuàng)造力與多樣性:模型是否能生成新穎且多樣化的內(nèi)容;
⑤安全性與魯棒性:模型是否能在惡意輸入或極端場景下保持穩(wěn)定。
59.大模型安全性評價主要維度是什么?
大模型安全性評價主要維度包括:①模型應(yīng)用安全:模型在真實交互中抵御惡意攻擊的能力,如提示注入、數(shù)據(jù)泄露、資源濫用等;②數(shù)據(jù)與隱私安全:訓(xùn)練和使用過程中,對用戶敏感數(shù)據(jù)和模型內(nèi)部信息的保護水平;③模型自身安全:模型在訓(xùn)練和部署階段的健壯性,抵御投毒、后門等攻擊的能力;④安全治理與合規(guī):是否將安全融入全生命周期,并符合國際國內(nèi)的相關(guān)標(biāo)準(zhǔn)與法規(guī)。
60.大模型性能評測主要指標(biāo)是什么?
生成質(zhì)量指標(biāo)(流暢度與連貫性、準(zhǔn)確性、BLUE和ROUGE分?jǐn)?shù)、F1分?jǐn)?shù)、困惑度等)、響應(yīng)效率(首Token延遲、吐字率、吞吐量等)、資源消耗等。
61.什么是BLEU
BLEU(Bilingual Evaluation Understudy)是一種用于評估機器翻譯質(zhì)量的指標(biāo),它通過比較機器翻譯輸出與一個或多個參考翻譯之間的n-gram重疊來進行評分,關(guān)注精確度。
62.什么是ROUGE?
ROUGE(Recall-Oriented Understudy for Gisting Evaluation)是一種用于評估自動文本摘要和機器翻譯質(zhì)量的指標(biāo),通過比較自動生成的摘要與參考摘要(通常是人工生成的)之間的相似度來進行評估,關(guān)注生成內(nèi)容對原文的召回率。
63.什么是F1分?jǐn)?shù)(F1 Score)?
F1分?jǐn)?shù)用于綜合評估分類模型的精確率(Precision)和召回率(Recall),由于能夠平衡這兩個指標(biāo)的影響,可有效反映模型在處理類別不平衡問題時的性能。
64.什么是困惑度(Perplexity)?
困惑度是自然語言處理(NLP)中一種常用的評估語言模型性能的指標(biāo)??梢灾庇^地將其理解為模型在預(yù)測下一個詞時的“平均不確定程度”:如果模型能準(zhǔn)確預(yù)測文本中的下一個字,困惑度就低;如果預(yù)測不準(zhǔn),困惑度就高。
65.什么是首Token延遲?
首Token延遲是指從用戶發(fā)送請求到模型返回第一個Token所花費的時間,該指標(biāo)直接影響用戶感知的響應(yīng)速度,是交互流暢度的關(guān)鍵。
66.什么是吐字率?
吐字率指模型每秒生成Token的數(shù)量,該指標(biāo)決定了答案的輸出速度,影響用戶體驗,在長文本生成場景下,較高的吐字率會更流暢。
五、平臺篇
67.Palantir AIP平臺是什么?
PalantirAIP(Artificial Intelligence Platform)是一款用于企業(yè)級應(yīng)用集成和數(shù)據(jù)交換的平臺,它提供了一套完整的工具集,幫助企業(yè)快速、安全地將不同應(yīng)用系統(tǒng)集成在一起,實現(xiàn)數(shù)據(jù)的無縫交換。
68.“元星座”是什么?
“元星座”是(Meta Constellation)Palantir公司的下一代行星級時敏情報系統(tǒng),其本質(zhì)上是一個軟件平臺,其核心能力在于智能調(diào)度和融合數(shù)百顆商業(yè)衛(wèi)星的數(shù)據(jù),并借助人工智能技術(shù),旨在為用戶提供全球范圍內(nèi)近實時的情報洞察和決策支持。
69.“晶格”是什么?
美軍的“晶格”(Lattice)系統(tǒng)是由美國科技初創(chuàng)公司安杜利爾(Anduril)從2017年開始研制的一款智能指揮控制軟件平臺。主要瞄準(zhǔn)現(xiàn)代戰(zhàn)場上的“數(shù)據(jù)洪流”難題,旨在將陸、海、空、天等不同領(lǐng)域成千上萬的傳感器和武器平臺連接起來,通過人工智能技術(shù)融合數(shù)據(jù),為作戰(zhàn)人員生成一張統(tǒng)一的、實時的共用作戰(zhàn)圖,從而極大縮短從發(fā)現(xiàn)目標(biāo)到實施打擊的決策時間,支撐更快的決策。
70.Manus是什么?
Manus是由中國團隊Monica于2025年3月6日正式推出的全球首款通用型AI智能體(AI Agent),其核心理念是“手腦并用”(源自拉丁語“Mens et Manus”),旨在通過自主規(guī)劃與執(zhí)行復(fù)雜任務(wù),直接交付完整成果,而非僅提供建議或文本答案。
71.什么是MCP?
MCP(Model Context Protocol)是一個開放協(xié)議,用于讓大型語言模型能夠安全、標(biāo)準(zhǔn)化地使用外部工具、數(shù)據(jù)和服務(wù)。
72.什么是A2A?
A2A(Agent-to-Agent)即智能體間的交互,指的是多個AI智能體通過通信和協(xié)作,模擬人類團隊的工作模式,共同完成一個復(fù)雜任務(wù)。
73.什么是AI智能體(AI Agent)?
AI智能體是一種能夠跨領(lǐng)域自主規(guī)劃、執(zhí)行復(fù)雜任務(wù)并交付完整成果的人工智能系統(tǒng)。不同于傳統(tǒng)專注于單一任務(wù)的AI,AI智能體具備類似人類的綜合認(rèn)知與執(zhí)行能力,能夠獨立完成從任務(wù)分解到結(jié)果輸出的全流程。
74.什么是檢索增強生成(RAG)?
檢索增強生成(Retrieval-Augmented Generation,RAG)通過檢索外部知識庫增強模型生成能力。用戶提問后,RAG先從外部知識庫(如文檔、數(shù)據(jù)庫、網(wǎng)頁)中檢索出與問題最相關(guān)的文檔片段,并將這些片段和原始問題一起作為上下文,輸入給大模型,大模型基于提供的權(quán)威知識生成回答。
75.檢索增強生成有什么優(yōu)勢?
RAG的核心優(yōu)勢是減少幻覺、提升準(zhǔn)確性和時效性。
①減少幻覺:模型基于真實的檢索數(shù)據(jù)回答,減少了模型憑空編造的可能;
②提升準(zhǔn)確性:能調(diào)用專業(yè)知識庫(如醫(yī)療指南、法律條文),回答更專業(yè);
③提升時效性:知識庫可以隨時更新,讓模型能回答最新問題,而不必重新訓(xùn)練模型。
六、應(yīng)用篇
76.大模型如何輔助代碼開發(fā)?
①代碼補全:寫代碼時自動補全后續(xù)內(nèi)容;②注釋生成:為寫好的代碼添加注釋;③代碼解釋:解釋現(xiàn)有代碼的功能;④bug修復(fù):發(fā)現(xiàn)代碼中錯誤,并提出修改建議;⑤單元測試生成:為代碼生成測試用例,驗證代碼是否能正常運行;⑥重構(gòu)建議:優(yōu)化舊代碼的結(jié)構(gòu),使代碼更簡潔、易維護;⑦代碼自動編寫:根據(jù)提示詞,自動生成代碼基本版。
77.大模型如何優(yōu)化搜索引擎?
大模型使搜索引擎“更懂用戶、更實用”,主要優(yōu)化包括理解模糊需求、多輪對話式搜索、生成式答案、多模態(tài)搜索等。
78.大模型如何輔助內(nèi)容創(chuàng)作?
主要場景包括:①文本組織:整理報告、抽取信息、語言翻譯等;②創(chuàng)意生成:創(chuàng)作小說、宣傳文案等;③音樂生成:根據(jù)文本描述生成音樂;④圖片配文:根據(jù)文本生成匹配適當(dāng)圖片。
79.大模型如何實現(xiàn)多輪對話的連貫性?
主要方法包括:①維護對話歷史:將之前的對話內(nèi)容也作為上下文輸入給模型;②上下文注意力:模型處理新問題時,同時關(guān)注歷史對話里的關(guān)鍵信息;③狀態(tài)跟蹤:顯式地維護對話狀態(tài)(如用戶的目標(biāo)、已提及的信息),確保對話圍繞主題;④情感理解:感知用戶的情緒,并做出恰當(dāng)?shù)姆磻?yīng)。
80.多模態(tài)模型的應(yīng)用場景有哪些?
應(yīng)用場景主要包括:①文生圖:根據(jù)文字描述生成圖片;②圖生文:根據(jù)輸入圖片生成文字描述;③圖文問答:結(jié)合圖片和文字提問,模型回答;④視頻摘要:輸入視頻,生成文字摘要;⑤語音轉(zhuǎn)文本并分析:把語音轉(zhuǎn)成文本,再根據(jù)文本內(nèi)容進行分析。
81.大模型如何結(jié)合知識圖譜使用?
大模型通過檢索增強、圖神經(jīng)網(wǎng)絡(luò)、實體鏈接、關(guān)系推理等方式整合知識圖譜信息,輔助回答,減少幻覺,提升專業(yè)性。
82.大模型進行信息抽取能提取哪些關(guān)鍵內(nèi)容?
①實體:具體的人、事、物;
②關(guān)系:實體之間的聯(lián)系;
③事件:具體發(fā)生的事;情感:文本的情緒傾向;
④關(guān)鍵詞/摘要:文本的核心詞和摘要生成。
83.大模型如何將復(fù)雜文本簡化為通俗表達?
通過摘要生成(提取核心要點生成摘要)、術(shù)語解釋(將專業(yè)術(shù)語替換為日常用語或加以解釋)、句式簡化(拆分長難句,使用更簡單的句子結(jié)構(gòu))、上下文重組(調(diào)整邏輯順序,使其更符合大眾的理解習(xí)慣)等方式實現(xiàn)。
84.大模型結(jié)合知識庫能實現(xiàn)什么檢索效果?
提升答案準(zhǔn)確性、時效性、可解釋性,支持復(fù)雜推理和多跳問答。
85.大模型如何整合多源信息進行回答?
主要方法包括:
①通過注意力機制權(quán)衡不同信息源的重要性,重點關(guān)注更相關(guān)的內(nèi)容;
②將不同信息中的互補部分組合起來,形成完整答案;去冗余,識別并去除重復(fù)的信息;
③當(dāng)不同信息沖突時,根據(jù)來源可靠性等因素進行判斷或如實告知用戶存在沖突等技術(shù)實現(xiàn)。
86.大模型如何篩選檢索到的冗余信息?
使用去重算法、相關(guān)性排序、摘要生成、信息聚合等方法篩選冗余信息。
87.美軍推進的大模型典型應(yīng)用有哪些?
①“多諾萬”(Donovan)是Scale AI公司研發(fā)的端到端AI決策支持平臺,用于支撐美國陸軍第18空降師輔助決策制定,實現(xiàn)海量情報數(shù)據(jù)(如任務(wù)命令、態(tài)勢報告)快速分析、行動方案生成和評估等功能,大幅縮短作戰(zhàn)規(guī)劃周期。
②“雷霆熔爐”(Thunderforge)是由國防創(chuàng)新單元(DIU)主導(dǎo)的關(guān)鍵項目,由Scale AI公司進行開發(fā),通過將AI深度整合到作戰(zhàn)規(guī)劃中,利用大模型和兵棋推演快速生成、模擬和評估多種行動方案,旨在獲得對對手的決策速度優(yōu)勢。
③Amelia助手是海軍與通用動力信息技術(shù)公司(GDIT)合作推出的人工智能助手,旨在提升海軍體系服務(wù)臺應(yīng)答效率,解放人類操作員,以便其開展更復(fù)雜、更重要的工作。
④Hermes大語言模型是Scale AI公司與海軍陸戰(zhàn)隊大學(xué)合作開發(fā)的專注于軍事教育和規(guī)劃的大模型,通過加載特定條令和數(shù)據(jù),可幫助軍事人員理解復(fù)雜作戰(zhàn)環(huán)境、進行策略分析和問答。
七、安全篇
88.大模型的主要安全問題包括哪些?
數(shù)據(jù)隱私與泄露風(fēng)險、模型安全與對抗攻擊、內(nèi)容安全與倫理風(fēng)險、基礎(chǔ)設(shè)施與合規(guī)風(fēng)險、智能體與系統(tǒng)級風(fēng)險等。
89.常見的大模型攻擊手段有哪些?
提示注入、對抗樣本、數(shù)據(jù)投毒、模型竊取、成員推斷攻擊等。
90.常見的大模型防御手段有哪些?
提示詞過濾、對抗訓(xùn)練、差分隱私、模型監(jiān)控、安全對齊、紅隊測試等。
91.大模型“幻覺”是什么?
“幻覺”問題是大模型當(dāng)前的核心缺陷之一,是指大模型生成內(nèi)容看似流暢合理,但實際上是錯誤的或虛構(gòu)的,與現(xiàn)實或輸入信息不符。
92.如何緩解大模型幻覺問題?
通過使用RAG提供事實依據(jù)、指令微調(diào)要求模型誠實、讓模型提供引用來源、用戶交叉驗證信息、通過RLHF持續(xù)優(yōu)化等方式,減少模型捏造答案的傾向。
93.大模型可解釋性是什么?
可解釋性(Interpretability)是指人類能夠理解、信任和有效管控人工智能模型如何做出決策的程度。它旨在打開AI的“黑箱”,讓模型的決策過程對人類而言變得透明和可理解。
94.如何防止模型生成有害內(nèi)容?
主要方法包括:①過濾器:使用內(nèi)容過濾器,預(yù)訓(xùn)練時去掉有害數(shù)據(jù);②指令微調(diào)與RLHF:通過人類反饋訓(xùn)練模型,使其拒絕生成有害內(nèi)容;③內(nèi)容審核:對模型的輸出進行實時檢測和過濾,攔截有害內(nèi)容;④紅隊測試:主動模擬攻擊,發(fā)現(xiàn)模型漏洞并修復(fù)。
95.什么是提示注入?
攻擊者通過特殊提示詞,誘導(dǎo)模型忽略原有指令,執(zhí)行惡意操作。如果模型防御不足,就可能泄露信息。
96.模型對齊的目標(biāo)是什么?
模型對齊(Model Alignment)確保輸出符合人類價值觀,防止生成有害內(nèi)容。例如未對齊的模型可能反饋一些違法違規(guī)內(nèi)容,對齊后會拒絕;未對齊的模型可能答非所問,對齊后會準(zhǔn)確回應(yīng)。
97.如何識別AI生成內(nèi)容?
①AI檢測工具:使用專門的工具分析內(nèi)容特征,判斷是否是AI生成;②特征分析:檢查內(nèi)容是否有AI的“痕跡”(比如文本重復(fù)率高、邏輯弱);③水印技術(shù):在生成時嵌入難以察覺的特定模式;④行為模式檢測:訓(xùn)練專門的二分類模型來區(qū)分AI生成和人類撰寫。
98.模型訓(xùn)練是否侵犯版權(quán)?
存在爭議,需考慮數(shù)據(jù)來源、合理使用原則、版權(quán)法例外條款、行業(yè)協(xié)議等。
八、政策篇
99.我國發(fā)布了什么人工智能政策?
2025年8月,國務(wù)院印發(fā)《國務(wù)院關(guān)于深入實施“人工智能+”行動的意見》(國發(fā)〔2025〕11號),是繼十年前“互聯(lián)網(wǎng)+”行動之后,我國推出的又一個重量級國家行動,旨在推動人工智能與經(jīng)濟社會各行業(yè)各領(lǐng)域深度融合,標(biāo)志著中國人工智能發(fā)展進入新階段。
100.美國發(fā)布了什么人工智能政策?
2025年7月,美國白宮發(fā)布《贏得競爭:美國人工智能行動計劃》,圍繞加速AI創(chuàng)新、構(gòu)建美國AI基礎(chǔ)設(shè)施、引領(lǐng)國際AI外交和安全三大戰(zhàn)略支柱展開,配套提出30項舉措和100余條具體政策行動,旨在通過AI的主導(dǎo)權(quán),確保美國在全球AI競賽中占據(jù)領(lǐng)先地位,從而贏得全球技術(shù)和經(jīng)濟競爭的主動權(quán)。
本文來源:新鄉(xiāng)數(shù)字不動產(chǎn)、中國信息支援
-
人工智能
+關(guān)注
關(guān)注
1819文章
50284瀏覽量
266780 -
智能體
+關(guān)注
關(guān)注
1文章
550瀏覽量
11642 -
大模型
+關(guān)注
關(guān)注
2文章
3746瀏覽量
5266
發(fā)布評論請先 登錄
【大語言模型:原理與工程實踐】大語言模型的評測
首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手
【2025夏季班正課】大模型Agent智能體開發(fā)實戰(zhàn) 課分享
九天菜菜大模型agent智能體開發(fā)實戰(zhàn)2026一月班
模型預(yù)測控制介紹
用于快速模型的模型調(diào)試器11.21版用戶指南
用于快速模型的模型調(diào)試器11.20版用戶指南
快速全面了解大模型長文本能力
中軟國際【問】系列大模型應(yīng)用一體機正式發(fā)布
通義千問推出1100億參數(shù)開源模型
騰訊元器免費模型資源增至1億tokens,混元大模型全面降價
什么是大模型?快速了解大模型基本概念
什么是大模型,智能體...?大模型100問,快速全面了解!
評論