国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

AI 工程化實(shí)戰(zhàn):不學(xué)算法也能用好的 LLM 指南

0
分享至

本文全面介紹了大模型相關(guān)知識(shí),包括大模型(LLM)、提示詞工程(PE)、檢索增強(qiáng)生成(RAG)、工具調(diào)用(Function Calling)、模型上下文協(xié)議(MCP) 等,適合零基礎(chǔ)小白入門(mén)。

近些年,AI 的發(fā)展速度越來(lái)越快,越來(lái)越多的業(yè)務(wù)開(kāi)始尋求“AI 賦能”。面對(duì)這個(gè)黑盒,很多研發(fā)人員的反應(yīng)是疑惑:“我需要學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法嗎?我要懂 Transformer 架構(gòu)嗎?”

其實(shí),對(duì)于非算法人員,我們不需要成為研發(fā)「發(fā)動(dòng)機(jī)」的算法科學(xué)家,而是要成為能夠駕馭賽車(chē)的 AI 工程師。我們無(wú)需深究底層的數(shù)學(xué)原理,但必須洞察它的能力邊界,知道如何將這個(gè)“黑盒能力”高效、穩(wěn)定地融入到我們的業(yè)務(wù)系統(tǒng)中。

一. 大模型

傳統(tǒng)編程:顯式的邏輯規(guī)則

作為研發(fā)人員,我們的日常工作本質(zhì)上就是在定義各種函數(shù)。在傳統(tǒng)的軟件工程中,這些函數(shù)的內(nèi)部邏輯是確定性的。比如判斷一個(gè)人是否成年,可以寫(xiě)出以下函數(shù):

}

在這種模式下,我們明確知道輸入什么參數(shù),經(jīng)過(guò)怎樣的判斷,一定會(huì)得到確定的輸出。

但當(dāng)我們面對(duì)“識(shí)別圖片中是貓還是狗”或“總結(jié)一篇文檔”這類(lèi)任務(wù)時(shí),規(guī)則變得極其復(fù)雜且模糊,此時(shí)我們無(wú)法寫(xiě)一個(gè)確定性的函數(shù)來(lái)完成對(duì)應(yīng)的任務(wù)。

機(jī)器學(xué)習(xí):擬合復(fù)雜的函數(shù)

既然無(wú)法手寫(xiě)復(fù)雜規(guī)則,機(jī)器學(xué)習(xí)便放棄了“直接定義邏輯”的思路,轉(zhuǎn)而通過(guò)算法讓機(jī)器在大規(guī)模數(shù)據(jù)中自動(dòng)尋找規(guī)律,從而擬合出那個(gè)極其復(fù)雜的函數(shù)。

具體而言,機(jī)器學(xué)習(xí)會(huì)首先構(gòu)建一個(gè)巨大的數(shù)學(xué)模型(神經(jīng)網(wǎng)絡(luò)),通過(guò)訓(xùn)練來(lái)修正模型內(nèi)部的權(quán)重和偏差。訓(xùn)練的過(guò)程,本質(zhì)上是一個(gè)迭代“試錯(cuò)”的過(guò)程:

  1. 預(yù)測(cè):模型基于當(dāng)前參數(shù)對(duì)輸入數(shù)據(jù)做出預(yù)測(cè)(初始階段基本是隨機(jī)“瞎猜”)。

  2. 反饋:當(dāng)發(fā)現(xiàn)預(yù)測(cè)值與真實(shí)標(biāo)簽不符時(shí)(例如將貓誤認(rèn)為狗),算法會(huì)計(jì)算兩者之間的誤差。

  3. 微調(diào):利用數(shù)學(xué)方法(反向傳播)回溯并微調(diào)內(nèi)部的權(quán)重參數(shù),目標(biāo)是減小誤差,讓下一次預(yù)測(cè)更準(zhǔn)。


經(jīng)過(guò)數(shù)百萬(wàn)次的重復(fù)訓(xùn)練,模型最終能基本精準(zhǔn)地將輸入映射到輸出。此時(shí),我們便得到了一個(gè)擬合好的函數(shù)。即便面對(duì)從未見(jiàn)過(guò)的數(shù)據(jù),它也能根據(jù)從海量樣本中提取出的特征規(guī)律,給出相應(yīng)的判斷。

需要注意的是: 機(jī)器學(xué)習(xí)得到的函數(shù)是一個(gè)概率模型。它不像傳統(tǒng)代碼那樣保證 100% 的絕對(duì)準(zhǔn)確,而是在統(tǒng)計(jì)學(xué)上不斷逼近正確答案。因此它天然存在出錯(cuò)的可能——即便是一張清晰的貓,模型仍有極小的概率產(chǎn)生偏差,將其識(shí)別成狗。

大模型(LLM):量變引起的“涌現(xiàn)”

在傳統(tǒng)機(jī)器學(xué)習(xí)時(shí)代,參數(shù)量通常在幾百萬(wàn)到幾億級(jí)別,且大多是專(zhuān)用型的:識(shí)圖模型無(wú)法處理翻譯任務(wù),翻譯模型無(wú)法編寫(xiě)代碼等。

而當(dāng)參數(shù)量和訓(xùn)練數(shù)據(jù)突破臨界點(diǎn)(如 GPT-3的千億級(jí)參數(shù))時(shí),發(fā)生了神奇的“涌現(xiàn)現(xiàn)象”,模型的能力發(fā)生了質(zhì)的飛躍(這類(lèi)大參數(shù)量模型被稱(chēng)為大模型):

  • 通用性:在學(xué)習(xí)預(yù)測(cè)萬(wàn)億級(jí)語(yǔ)料的過(guò)程中,它自然而然地掌握了摘要、翻譯、代碼編寫(xiě)等多種能力,成為了一個(gè)可以處理幾乎所有自然語(yǔ)言任務(wù)的“通用大腦”。

  • 上下文學(xué)習(xí):不需要修改模型參數(shù),只需在提示詞(Prompt)里給出幾個(gè)示例(Few-Shot),模型就能憑借強(qiáng)大的學(xué)習(xí)能力,快速適配新任務(wù)并執(zhí)行。

以 GPT (Generative Pre-trained Transformer) 為例,盡管其功能看似復(fù)雜,但底層核心機(jī)制十分純粹,類(lèi)似于“成語(yǔ)接龍”:

  • 輸入:用戶(hù)的提示詞 + 模型已經(jīng)生成的上文(比如 “床前明月”)。

  • 預(yù)測(cè):模型在詞表中計(jì)算下一個(gè)最可能出現(xiàn)的詞的概率分布(就像接龍時(shí)想 “床前明月” 后面該接 “光”)。

  • 輸出:模型通常選取概率最高的詞(例如輸出 “光”),將該詞拼接到原有輸入中,形成新的上下文(“床前明月光”),再進(jìn)入下一輪預(yù)測(cè),直至觸發(fā)結(jié)束標(biāo)志。

二. 提示詞工程

什么是 PE?

我們已經(jīng)知道 LLM 本質(zhì)上是一個(gè)“概率預(yù)測(cè)機(jī)”,它讀取文本,計(jì)算概率,預(yù)測(cè)下一個(gè)詞,循環(huán)往復(fù)。在這個(gè)過(guò)程中,我們給 LLM 的所有輸入統(tǒng)稱(chēng)為 Prompt(提示詞)。

但這里有個(gè)工程難題:如果輸入是發(fā)散的,輸出必然也是發(fā)散的。

舉個(gè)例子,我們想讓 LLM 判斷用戶(hù)反饋是正面還是負(fù)面:

寫(xiě)法 A這條評(píng)論是正面的還是負(fù)面的?用戶(hù)說(shuō)界面太丑了,卸載了。

LLM 可能這樣回答:

  • "是負(fù)面的。"

  • "負(fù)面情緒"

  • "這條評(píng)論表達(dá)了用戶(hù)的負(fù)面情緒,因?yàn)樗f(shuō)界面太丑,還卸載了應(yīng)用。"

三種回答都對(duì),但格式完全不同。這在聊天時(shí)沒(méi)問(wèn)題,但如果你的程序需要解析這個(gè)結(jié)果(比如存入數(shù)據(jù)庫(kù)、觸發(fā)告警),這種不統(tǒng)一的格式簡(jiǎn)直是開(kāi)發(fā)者的噩夢(mèng)。

寫(xiě)法B你是一個(gè)情感分析專(zhuān)家。請(qǐng)判斷以下用戶(hù)反饋的情感傾向,只返回"正面"或"負(fù)面",不要輸出任何解釋?zhuān)?br/>用戶(hù)反饋:"界面太丑了,卸載了!"

這一次 LLM 的輸出就很穩(wěn)定:負(fù)面。

為什么?因?yàn)閷?xiě)法 A 模棱兩可,LLM 不知道你想要什么格式;寫(xiě)法 B 明確了角色、任務(wù)和輸出要求。

這就是提示詞工程(Prompt Engineering)的核心:通過(guò)精心設(shè)計(jì) Prompt,讓 LLM 的輸出更穩(wěn)定、更準(zhǔn)確、更符合業(yè)務(wù)需求。

在聊天場(chǎng)景下,我們和 LLM 對(duì)話(huà)是"發(fā)散"的,它可能會(huì)說(shuō)很多無(wú)關(guān)緊要的話(huà),輸出格式也可能隨機(jī)變化。但一旦要把 LLM 接入業(yè)務(wù)系統(tǒng),問(wèn)題就來(lái)了:程序需要解析 LLM 的返回結(jié)果,一個(gè)格式不對(duì)的 JSON 就能讓整個(gè)系統(tǒng)崩潰。

因此,PE 的核心目標(biāo)是從“自由對(duì)話(huà)”轉(zhuǎn)向“工程化協(xié)議”,就像調(diào)用 API 需要構(gòu)造請(qǐng)求參數(shù)、定義返回格式一樣,Prompt 就是這個(gè)"人機(jī)接口的協(xié)議"

如何寫(xiě)好 PE?

寫(xiě) Prompt 就像給實(shí)習(xí)生布置任務(wù):你說(shuō)得越清楚,他干得越靠譜。我們繼續(xù)用"判斷用戶(hù)反饋情感"這個(gè)例子,看看如何逐步優(yōu)化。

(1) 先把話(huà)清楚:明確角色和任務(wù)

第一步是“定義人設(shè)”,告訴 LLM:你是誰(shuí),要做什么。在 API 開(kāi)發(fā)中,這通常通過(guò) System Prompt(系統(tǒng)提示詞) 來(lái)實(shí)現(xiàn)。

  • 角色定義:"你是一個(gè)情感分析專(zhuān)家"——這樣 LLM 會(huì)自動(dòng)調(diào)整"專(zhuān)業(yè)程度",知道要從用戶(hù)反饋中提取情感信號(hào)。

  • 任務(wù)指令:"請(qǐng)判斷用戶(hù)反饋的情感傾向"——不要讓 LLM 去猜你想干什么,直接說(shuō)清楚。

# 角色
你是一個(gè)情感分析專(zhuān)家,擅長(zhǎng)從用戶(hù)反饋中識(shí)別情緒。
# 任務(wù)
請(qǐng)判斷用戶(hù)反饋的情感傾向,只返回"正面"或"負(fù)面":

(2)給出模板:讓 LLM 照著做

直接下指令,LLM 有時(shí)仍會(huì)“放飛自我”。比如你要求“只返回正面或負(fù)面”,它可能會(huì)輸出“這條反饋是負(fù)面的”或者“Negative”。這些都是"負(fù)面"的意思,但格式不一致。這時(shí)候,給他幾個(gè)示例最有效,這叫 少樣本學(xué)習(xí)(Few-Shot Learning)。

# 角色
你是一個(gè)情感分析專(zhuān)家,擅長(zhǎng)從用戶(hù)反饋中識(shí)別情緒。
# 任務(wù)
請(qǐng)判斷用戶(hù)反饋的情感傾向,只返回"正面"或"負(fù)面":
# 示例
## 示例1輸入:
這個(gè)APP太棒了!
## 示例1輸出:
正面
## 示例2輸入:
用了一天就崩了,垃圾軟件。
## 示例2輸出:
負(fù)面

就像給實(shí)習(xí)生一個(gè)"參考答案模板",他看了幾個(gè)例子,自然就明白該怎么干了。而且這不需要重新訓(xùn)練模型,完全靠 LLM 強(qiáng)大的"上下文學(xué)習(xí)能力",給它幾個(gè)例子,它就能學(xué)會(huì)新任務(wù)的規(guī)律。

(3)讓它慢下來(lái):逐步推理

在處理復(fù)雜情感時(shí)(比如陰陽(yáng)怪氣、轉(zhuǎn)折句),LLM 容易直接“跳步”給錯(cuò)答案。比如用戶(hù)評(píng)論:“界面漂亮但反應(yīng)慢、想卸載”。LLM 可能看到“漂亮”就直覺(jué)式地判斷為“正面”。

如果加一句話(huà): "請(qǐng)逐步思考(Let's think step by step)" ,準(zhǔn)確率會(huì)神奇地提升。這就是 CoT(Chain of Thought,思維鏈)

LLM 的內(nèi)部邏輯流會(huì)變?yōu)椋?/strong>

  1. 關(guān)鍵詞提取:“界面漂亮”(正)、“反應(yīng)慢”(負(fù))、“想卸載”(極負(fù))。

  2. 意圖分析:雖然有視覺(jué)上的夸贊,但最終行為是卸載,表達(dá)了強(qiáng)烈的挫敗感。

  3. 最終結(jié)論:負(fù)面。

核心邏輯: 強(qiáng)迫 LLM 先把推理過(guò)程寫(xiě)出來(lái),這個(gè)過(guò)程會(huì)成為后續(xù)生成的“上下文”,相當(dāng)于模型在“自我檢查”,確保結(jié)論是推導(dǎo)出來(lái)的,而不是“猜”出來(lái)的。

# 角色
你是一個(gè)情感分析專(zhuān)家,擅長(zhǎng)從用戶(hù)反饋中識(shí)別情緒。
# 任務(wù)
請(qǐng)判斷用戶(hù)反饋的情感傾向。請(qǐng)逐步思考后再輸出結(jié)果。只返回"正面"或"負(fù)面":
# 示例
## 示例1輸入:
這個(gè)APP太棒了!
## 示例1輸出:
正面
## 示例2輸入:
用了一天就崩了,垃圾軟件。
## 示例2輸出:
負(fù)面

(4)格式約束:讓程序能讀懂

前面解決的是“答得對(duì)”,但在代碼場(chǎng)景下,還有一個(gè)關(guān)鍵問(wèn)題:讓 LLM “答得能被程序解析”。

業(yè)務(wù)系統(tǒng)中,我們通常希望 LLM 返回 JSON 這種結(jié)構(gòu)化數(shù)據(jù)。但 LLM 是個(gè)“話(huà)癆”,你讓它返回 JSON,它可能隨口回一句:“好的,這是你要的結(jié)果:{...}”。這多出來(lái)的幾個(gè)字,就會(huì)導(dǎo)致 json.loads() 直接報(bào)錯(cuò)。

為了解決這個(gè)問(wèn)題,工程上通常采用“事前約束 + 事后糾錯(cuò)”的組合拳

1. 結(jié)構(gòu)化 Prompt(事前約束)

  • 直接給模型一個(gè)標(biāo)準(zhǔn)的 JSON 模板,并約束它不要輸出多余的解釋。

# 角色
你是一個(gè)情感分析專(zhuān)家,擅長(zhǎng)從用戶(hù)反饋中識(shí)別情緒。
# 任務(wù)
請(qǐng)判斷用戶(hù)反饋的情感傾向并分析原因。請(qǐng)逐步思考后再輸出結(jié)果。
# 輸入格式
{
"feedback": " <用戶(hù)反饋內(nèi)容> "
}
# 輸出格式
{
"sentiment": "正面/負(fù)面",
"reason": " <原因分析> "
}
# 約束
1. 必須僅返回 JSON 數(shù)據(jù),禁止任何解釋性文字
2. sentiment 字段只能是 "正面" 或 "負(fù)面"
# 示例
## 示例1輸入
{"feedback": "這個(gè)APP太棒了!"}
## 示例1輸出
{"sentiment": "正面", "reason": "用戶(hù)對(duì)產(chǎn)品表示滿(mǎn)意"}
## 示例2輸入
{"feedback": "用了一天就崩了,垃圾軟件。"}
## 示例2輸出
{"sentiment": "負(fù)面", "reason": "用戶(hù)遇到穩(wěn)定性問(wèn)題"}

2. 工程化魯棒性(事后糾錯(cuò)) 在實(shí)際業(yè)務(wù)中,單靠 Prompt 依然會(huì)有概率遇到非法格式。研發(fā)通常會(huì)引入以下兜底方案:

  • 原生 JSON 模式:調(diào)用 API 時(shí)開(kāi)啟模型自帶的 response_format: { "type": "json_object" } 模式,強(qiáng)制模型輸出。(如果平臺(tái)支持的話(huà))。

  • 自動(dòng)修復(fù)(Repair):使用類(lèi)似 json_repair 的庫(kù)。這些庫(kù)利用算法修復(fù)模型輸出中缺失的引號(hào)、括號(hào)或多余的解釋語(yǔ)。

  • 重試機(jī)制(Retry):如果解析失敗,自動(dòng)進(jìn)行 2-3 次重試,或者在重試時(shí)把錯(cuò)誤信息返還給模型(“你剛才返回的格式錯(cuò)了,請(qǐng)修正”)。

三. 檢索增強(qiáng)生成

PE(提示詞工程)解決了讓大模型“更聽(tīng)話(huà)”的問(wèn)題,但即便再會(huì)寫(xiě) Prompt,大模型本質(zhì)上仍是一個(gè)靜態(tài)的知識(shí)庫(kù)(它的記憶停留在訓(xùn)練結(jié)束的那一天)。它有兩大無(wú)法克服的缺陷:幻覺(jué)知識(shí)滯后。

  • 幻覺(jué)(一本正經(jīng)的胡說(shuō)八道):無(wú)論我們對(duì)大模型說(shuō)些什么,它都會(huì)通過(guò)“概率預(yù)測(cè)”生成一段回答,這段回答看起來(lái)很專(zhuān)業(yè),但可能完全是錯(cuò)誤的,就像學(xué)生在考試時(shí)遇到不會(huì)的題,憑借“直覺(jué)”編一個(gè)聽(tīng)起來(lái)像樣的答案。

  • 知識(shí)滯后(不知道最新的事):LLM 無(wú)法實(shí)時(shí)獲取信息。無(wú)法用它來(lái)查詢(xún)公司最新的內(nèi)部文檔或今天的實(shí)時(shí)銷(xiāo)售數(shù)據(jù)。

為了解決這些問(wèn)題,就誕生了RAG (Retrieval-Augmented Generation,檢索增強(qiáng)生成) ,它將大模型的“生成能力”與傳統(tǒng)數(shù)據(jù)檢索的“準(zhǔn)確性”結(jié)合起來(lái),給大模型外掛一個(gè)“實(shí)時(shí)更新的知識(shí)庫(kù)”。

如果把大模型直接回答問(wèn)題比作“閉卷考試”,那么 RAG 就是讓它變成一個(gè)“開(kāi)卷考試”的學(xué)生。

  • 閉卷模式:由于模型沒(méi)學(xué)過(guò)公司的私有文檔,它只能憑直覺(jué)“編”。

  • 開(kāi)卷模式(RAG)

    1. 翻書(shū)(檢索):當(dāng)用戶(hù)提問(wèn)時(shí),系統(tǒng)先去內(nèi)部文檔庫(kù)里搜索相關(guān)的段落。

    2. 摘抄(增強(qiáng)):把找到的準(zhǔn)確信息“抄”在 Prompt 里,作為背景參考資料。

    3. 作答(生成):最后讓大模型根據(jù)這些“參考資料”來(lái)組織語(yǔ)言回答。

這樣,AI 就不再是憑空想象,而是“有據(jù)可查”。要把這套“開(kāi)卷考試”系統(tǒng)跑通,需要經(jīng)歷以下核心步驟:

第一步:準(zhǔn)備階段 —— 語(yǔ)義向量化

計(jì)算機(jī)讀不懂文字,它只懂?dāng)?shù)字。我們需要把文字轉(zhuǎn)換成一種數(shù)學(xué)表達(dá),這就是 Embedding(詞嵌入)。

  • Embedding 模型:這是一種特殊的模型,它能把文本映射成一串高維數(shù)組(向量)。

  • 核心邏輯語(yǔ)義相近的文本,在數(shù)學(xué)空間里的“距離”也更近。 比如,“貓”和“小貓”的向量距離,會(huì)比“貓”和“挖掘機(jī)”近得多。這使得“語(yǔ)義搜索”成為可能。

第二步:檢索階段 —— 向量數(shù)據(jù)庫(kù)

有了向量,我們需要一個(gè)專(zhuān)門(mén)的“倉(cāng)庫(kù)”來(lái)存儲(chǔ)和查詢(xún)它們。

  • 入庫(kù):我們將公司文檔切割成一個(gè)個(gè)小段(Chunking),算出向量,存入向量數(shù)據(jù)庫(kù)。

  • 查詢(xún):當(dāng)用戶(hù)問(wèn)“怎么申請(qǐng)年假?”時(shí),系統(tǒng)先算出這個(gè)問(wèn)題的向量。

  • 搜索:向量數(shù)據(jù)庫(kù)會(huì)瞬間找出倉(cāng)庫(kù)里和該問(wèn)題“空間距離最近”的文檔段落(這就是 Top-K 檢索)。

第三步:生成階段 —— Prompt 增強(qiáng)

這是最關(guān)鍵的一步,當(dāng)系統(tǒng)從向量數(shù)據(jù)庫(kù)中檢索出相關(guān)的文檔段落后,需要把這些資料和大模型連接起來(lái)。怎么做?很簡(jiǎn)單:把檢索到的資料作為"上下文",嵌入到 Prompt 里。這樣,大模型在回答問(wèn)題時(shí),就能看到“參考資料”,而不是“憑空編造”。

四. 工具調(diào)用

如果說(shuō) PE(提示詞工程)讓大模型學(xué)會(huì)了“說(shuō)話(huà)”,RAG(檢索增強(qiáng)生成)讓大模型擁有了知識(shí),那么此時(shí)的大模型更像是一個(gè)“軍師”,只能在對(duì)話(huà)框里指點(diǎn)江山,卻無(wú)法替你出門(mén)辦事。

比如當(dāng)問(wèn)它:“今天北京天氣怎么樣?”它會(huì)說(shuō):“我無(wú)法獲取實(shí)時(shí)信息?!?;

當(dāng)讓它發(fā)封郵件,它會(huì)抱歉地說(shuō):“我沒(méi)有操作權(quán)限?!?/p>

為了解決這個(gè)問(wèn)題,就誕生了Function Calling(函數(shù)調(diào)用),相當(dāng)于給大模型裝了一雙“手腳”,讓它從只會(huì)聊天的機(jī)器人,進(jìn)化為能夠干活的智能助手。

Function Calling 的核心機(jī)制,是讓大模型具備意圖識(shí)別參數(shù)生成的能力:

  1. 意圖識(shí)別:用戶(hù)的問(wèn)題需要調(diào)用什么工具?

  2. 參數(shù)生成:調(diào)用這個(gè)工具需要什么參數(shù)?

很多人會(huì)誤解以為大模型親自去查了天氣、發(fā)了郵件。但實(shí)際上大模型本身不會(huì)“執(zhí)行”任何函數(shù),它只是告訴服務(wù)端:“我覺(jué)得應(yīng)該調(diào)用這個(gè)函數(shù),參數(shù)是這樣的”。真正的執(zhí)行,依然是由你的服務(wù)端程序去完成的。

一個(gè)完整的 Function Calling 流程,包括四個(gè)步驟:

  1. 工具注冊(cè):在讓大模型使用工具之前,開(kāi)發(fā)者需要先告訴它有哪些工具可以用。開(kāi)發(fā)者會(huì)向大模型注冊(cè)它能使用的函數(shù),并提供一個(gè)嚴(yán)格的 JSON Schema。這個(gè) Schema 定義了:

    這就像給大模型一本"工具說(shuō)明書(shū)":"如果你看到查天氣、發(fā)郵件的意圖,你可以調(diào)用我注冊(cè)的這些函數(shù)。"

    • 函數(shù)叫什么名字

    • 函數(shù)是干什么的

    • 需要什么參數(shù)

    • 參數(shù)的類(lèi)型是什么

  2. 模型的意圖識(shí)別:當(dāng)用戶(hù)提問(wèn)時(shí),大模型會(huì)做兩件事:

    關(guān)鍵是:大模型不再生成自然語(yǔ)言回答,而是生成一個(gè)符合 Schema 的 JSON 結(jié)構(gòu)。舉個(gè)例子:

    用戶(hù)問(wèn): "今天北京天氣怎么樣?"

    大模型分析后,不會(huì)說(shuō)"我查一下天氣",而是生成一個(gè) JSON:

    {
    "function": "get_weather",
    "parameters": {
    "city": "北京"
    }
    }

    這就是 Function Call 的核心,大模型扮演的是"調(diào)度員",它負(fù)責(zé)理解意圖、提取參數(shù),但不真正執(zhí)行操作。

    1. 判斷是否需要調(diào)用工具:用戶(hù)是只想聊聊天,還是真的需要執(zhí)行某個(gè)操作?

    2. 如果需要,生成調(diào)用信息:調(diào)用哪個(gè)函數(shù)?參數(shù)是什么?

  3. 執(zhí)行函數(shù)與結(jié)果回傳:服務(wù)端接收到這個(gè) JSON,就知道:"哦,用戶(hù)想查北京天氣。此時(shí)會(huì)執(zhí)行真正的業(yè)務(wù)函數(shù),比如調(diào)用天氣 API,拿到實(shí)時(shí)數(shù)據(jù):"北京今天 15°C,晴。"然后,這個(gè)執(zhí)行結(jié)果被打包成文本,作為新的 Prompt 上下文,重新喂回給大模型。

  4. 最終回復(fù)

    現(xiàn)在,大模型有了實(shí)時(shí)數(shù)據(jù)——"北京今天 15°C,晴",它可以根據(jù)這些信息,生成最終的自然語(yǔ)言回答:"北京今天天氣不錯(cuò),溫度是 15°C,晴朗。"

五. 模型上下文協(xié)議

Function Calling 賦予了大模型執(zhí)行任務(wù)的能力,但在實(shí)際工程中,開(kāi)發(fā)者面臨著一個(gè)巨大的痛苦:協(xié)議碎片化。

想象一下,你為 OpenAI 的模型寫(xiě)了一套查天氣的工具,但換到 Google 的模型上,這套工具完全不能用,你需要重新寫(xiě)一遍。這就好像每家手機(jī)廠商都有自己的充電接口,你的充電器只能給自家的手機(jī)充電,換個(gè)牌子就沒(méi)法用了。

為了實(shí)現(xiàn)大規(guī)模協(xié)作和生態(tài)互聯(lián),需要統(tǒng)一的標(biāo)準(zhǔn)高效的工具。這個(gè)時(shí)候就誕生了MCP(Model Context Protocol,模型上下文協(xié)議) ,可以將其理解為它是 AI 時(shí)代的 Type-C 接口TCP/IP 協(xié)議

MCP 的核心目標(biāo)是實(shí)現(xiàn) “一次開(kāi)發(fā),到處可用”。它將 LLM(大腦)與 Context/Tools(知識(shí)與工具)徹底解耦。

  • 之前(模型綁定):工具和數(shù)據(jù)源往往與特定的模型廠商深度綁定。你想讓模型讀取你的本地文件或數(shù)據(jù)庫(kù),必須為每個(gè)模型量身定制適配層。

  • 現(xiàn)在(通用標(biāo)準(zhǔn)):無(wú)論是哪個(gè)模型(大腦),只要它支持 MCP 標(biāo)準(zhǔn),就能像插拔 Type-C 設(shè)備一樣,無(wú)縫調(diào)用任何遵守 MCP 協(xié)議的數(shù)據(jù)源或工具。

對(duì)于開(kāi)發(fā)者和企業(yè)來(lái)說(shuō),MCP 協(xié)議的出現(xiàn)具有里程碑式的意義:

  1. 統(tǒng)一的標(biāo)準(zhǔn)協(xié)議: MCP 就像是 AI 領(lǐng)域的 TCP/IP 協(xié)議。它定義了一套通用的語(yǔ)言,讓模型能夠以統(tǒng)一的方式發(fā)現(xiàn)工具(Tools)、讀取資源(Resources)和查看提示詞模板(Prompts)。

  2. 極低的適配成本

    • 以前:如果你有 10 個(gè)數(shù)據(jù)源(數(shù)據(jù)庫(kù)、GitHub、Slack 等)和 3 個(gè)主流模型,你可能需要維護(hù) 30 套適配邏輯。

    • 現(xiàn)在:你只需要讓這 10 個(gè)數(shù)據(jù)源支持 MCP 協(xié)議,任何支持 MCP 的模型(如 Claude Desktop 或各類(lèi) AI IDE)都能立即接管并使用它們。

  3. 生態(tài)互聯(lián)的基石: MCP 為 AI 生態(tài)的爆發(fā)奠定了基礎(chǔ)。開(kāi)發(fā)者可以像拼樂(lè)高積木一樣,將來(lái)自不同供應(yīng)商的 MCP 服務(wù)器(數(shù)據(jù)源)組合在一起,構(gòu)建出極其復(fù)雜的自動(dòng)化工作流。

總結(jié)

AI 不是黑魔法,它是一個(gè)有概率、需要被控制(PE)、需要知識(shí)(RAG)、需要執(zhí)行能力(Function Calling)和標(biāo)準(zhǔn)互聯(lián)(MCP)的復(fù)雜系統(tǒng)。

  • PE(提示詞工程) :解決了"如何讓 AI 聽(tīng)話(huà)"。

  • RAG(檢索增強(qiáng)生成) :解決了"如何讓 AI 有知識(shí)"。

  • Function Calling(工具調(diào)用) :解決了"如何讓 AI 能干活"。

  • MCP(模型上下文協(xié)議) :解決了"如何讓 AI 生態(tài)互聯(lián)"。

本文主要是作為一個(gè)概述,通俗的講一下 AI 相關(guān)的名詞概念,后續(xù)會(huì)更加深入的講一下必要的知識(shí)點(diǎn),比如提示詞工程(PE)、檢索增強(qiáng)(RAG)、工作流(Workflow)、智能體(Agent)、Langchain、Coze、n8n 等等。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
油價(jià)最新分析:或出現(xiàn)歷史性飆升

油價(jià)最新分析:或出現(xiàn)歷史性飆升

上觀新聞
2026-03-01 06:50:08
為什么交通部約談高德?業(yè)務(wù)全踩紅線,五天被約談三次

為什么交通部約談高德?業(yè)務(wù)全踩紅線,五天被約談三次

小蜜情感說(shuō)
2026-02-27 06:43:29
楊瀾也沒(méi)想到,被她拋棄的普通人前夫,如今早已收獲了真的幸福

楊瀾也沒(méi)想到,被她拋棄的普通人前夫,如今早已收獲了真的幸福

誮惜顏a
2026-03-01 08:34:46
林庭謙:中國(guó)男籃很多都是CBA的老對(duì)手 今天是很大的挑戰(zhàn)

林庭謙:中國(guó)男籃很多都是CBA的老對(duì)手 今天是很大的挑戰(zhàn)

狼叔評(píng)論
2026-03-01 12:10:05
汽油用量暴跌得嚇人,數(shù)據(jù)出來(lái)大家都驚了!未來(lái)油價(jià)會(huì)大幅降嗎?

汽油用量暴跌得嚇人,數(shù)據(jù)出來(lái)大家都驚了!未來(lái)油價(jià)會(huì)大幅降嗎?

小李子體育
2026-02-28 19:06:52
犧牲時(shí)僅19歲:被20多名土匪輪番侵犯,行刑前高呼"毛主席萬(wàn)歲"

犧牲時(shí)僅19歲:被20多名土匪輪番侵犯,行刑前高呼"毛主席萬(wàn)歲"

小莜讀史
2026-03-01 09:04:30
洗草莓時(shí),有人放食鹽,有人放面粉,果農(nóng):都不對(duì),教你正確做法

洗草莓時(shí),有人放食鹽,有人放面粉,果農(nóng):都不對(duì),教你正確做法

阿龍美食記
2026-02-28 10:49:43
985女碩士被活活餓死,父母:不會(huì)給她收尸,就讓她死在日本吧!

985女碩士被活活餓死,父母:不會(huì)給她收尸,就讓她死在日本吧!

來(lái)科點(diǎn)譜
2026-02-18 07:11:56
高速服務(wù)區(qū)靠啥賺錢(qián)?多數(shù)人只上廁所,聽(tīng)保安說(shuō)出真實(shí)盈利方式

高速服務(wù)區(qū)靠啥賺錢(qián)?多數(shù)人只上廁所,聽(tīng)保安說(shuō)出真實(shí)盈利方式

科學(xué)發(fā)掘
2026-02-26 21:44:53
伊朗高豐度濃縮鈾儲(chǔ)藏處首次曝光!多處核設(shè)施在蓋新屋頂、用土埋隧道口

伊朗高豐度濃縮鈾儲(chǔ)藏處首次曝光!多處核設(shè)施在蓋新屋頂、用土埋隧道口

紅星新聞
2026-02-28 13:23:18
金價(jià),飆漲!

金價(jià),飆漲!

中吳網(wǎng)
2026-02-28 15:36:08
哈梅內(nèi)伊“死亡”真相

哈梅內(nèi)伊“死亡”真相

藍(lán)鉆故事
2026-03-01 09:20:00
中俄朝3國(guó)都明白了,打美軍航母不重要了:必須先打日本導(dǎo)彈基地

中俄朝3國(guó)都明白了,打美軍航母不重要了:必須先打日本導(dǎo)彈基地

人生就是要簡(jiǎn)單
2026-01-30 08:22:46
賭中國(guó)不會(huì)還手?巴拿馬總統(tǒng)被秒打臉,中方第五波反制馬上就到

賭中國(guó)不會(huì)還手?巴拿馬總統(tǒng)被秒打臉,中方第五波反制馬上就到

石江月
2026-02-28 17:09:34
特朗普苦等4天中方終于回信,對(duì)美開(kāi)出兩大條件,做不到訪華免談

特朗普苦等4天中方終于回信,對(duì)美開(kāi)出兩大條件,做不到訪華免談

安珈使者啊
2026-03-01 12:15:35
戴旭:中美一旦發(fā)生戰(zhàn)爭(zhēng),美國(guó)有實(shí)力將中國(guó)沿海城市打得稀巴爛?

戴旭:中美一旦發(fā)生戰(zhàn)爭(zhēng),美國(guó)有實(shí)力將中國(guó)沿海城市打得稀巴爛?

二大爺觀世界
2026-01-16 03:04:40
中國(guó)不當(dāng)冤大頭了!中科院停付國(guó)際期刊發(fā)表費(fèi),老外專(zhuān)家也急了

中國(guó)不當(dāng)冤大頭了!中科院停付國(guó)際期刊發(fā)表費(fèi),老外專(zhuān)家也急了

青青子衿
2026-02-27 20:32:03
特朗普掀桌!連夜下死令,欲廢除中國(guó)一地位,中方亮劍:奉陪到底

特朗普掀桌!連夜下死令,欲廢除中國(guó)一地位,中方亮劍:奉陪到底

聚焦真實(shí)瞬間
2026-02-28 10:03:00
伊朗稱(chēng)摧毀美軍雷達(dá):將展示神秘武器,威力遠(yuǎn)超外界想象

伊朗稱(chēng)摧毀美軍雷達(dá):將展示神秘武器,威力遠(yuǎn)超外界想象

上游新聞
2026-02-28 23:17:12
不留遺產(chǎn),拒絕見(jiàn)面,沒(méi)有微信,這一次,向華強(qiáng)撕碎了向佑的體面

不留遺產(chǎn),拒絕見(jiàn)面,沒(méi)有微信,這一次,向華強(qiáng)撕碎了向佑的體面

叨嘮
2026-02-26 22:49:36
2026-03-01 14:44:49
開(kāi)源中國(guó) incentive-icons
開(kāi)源中國(guó)
每天為開(kāi)發(fā)者推送最新技術(shù)資訊
7604文章數(shù) 34503關(guān)注度
往期回顧 全部

科技要聞

小米超跑概念車(chē)全球首秀!殺入頂豪俱樂(lè)部

頭條要聞

揮兵伊朗之際 特朗普開(kāi)炮"絕不允許企業(yè)干涉軍隊(duì)作戰(zhàn)"

頭條要聞

揮兵伊朗之際 特朗普開(kāi)炮"絕不允許企業(yè)干涉軍隊(duì)作戰(zhàn)"

體育要聞

火箭輸給熱火:烏度卡又輸斯波教練

娛樂(lè)要聞

《江山為聘》:吳謹(jǐn)言陳哲遠(yuǎn)燃炸朝堂

財(cái)經(jīng)要聞

中東局勢(shì)升級(jí) 如何影響A股、黃金和原油

汽車(chē)要聞

小米汽車(chē)2月交付超20000臺(tái) 雷軍:為新SU7量產(chǎn)作準(zhǔn)備

態(tài)度原創(chuàng)

旅游
教育
藝術(shù)
房產(chǎn)
公開(kāi)課

旅游要聞

意外走紅!穿過(guò)縣政府免費(fèi)看國(guó)保!這里內(nèi)藏中國(guó)“最美”阿育王塔

教育要聞

國(guó)家統(tǒng)計(jì)局最新數(shù)據(jù)!研究生招生首破140萬(wàn)

藝術(shù)要聞

2025第四屆“精神·圖式”——中國(guó)寫(xiě)意油畫(huà)雙年展 | 入選油畫(huà)選刊

房產(chǎn)要聞

濱江九小也來(lái)了!集齊海僑北+哈羅、寰島...江東教育要炸了!

公開(kāi)課

李玫瑾:為什么性格比能力更重要?

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版