国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

AI 工程化實(shí)戰(zhàn):不學(xué)算法也能用好的 LLM 指南

0
分享至

本文全面介紹了大模型相關(guān)知識(shí),包括大模型(LLM)、提示詞工程(PE)、檢索增強(qiáng)生成(RAG)、工具調(diào)用(Function Calling)、模型上下文協(xié)議(MCP) 等,適合零基礎(chǔ)小白入門。

近些年,AI 的發(fā)展速度越來(lái)越快,越來(lái)越多的業(yè)務(wù)開(kāi)始尋求“AI 賦能”。面對(duì)這個(gè)黑盒,很多研發(fā)人員的反應(yīng)是疑惑:“我需要學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法嗎?我要懂 Transformer 架構(gòu)嗎?”

其實(shí),對(duì)于非算法人員,我們不需要成為研發(fā)「發(fā)動(dòng)機(jī)」的算法科學(xué)家,而是要成為能夠駕馭賽車的 AI 工程師。我們無(wú)需深究底層的數(shù)學(xué)原理,但必須洞察它的能力邊界,知道如何將這個(gè)“黑盒能力”高效、穩(wěn)定地融入到我們的業(yè)務(wù)系統(tǒng)中。

一. 大模型

傳統(tǒng)編程:顯式的邏輯規(guī)則

作為研發(fā)人員,我們的日常工作本質(zhì)上就是在定義各種函數(shù)。在傳統(tǒng)的軟件工程中,這些函數(shù)的內(nèi)部邏輯是確定性的。比如判斷一個(gè)人是否成年,可以寫出以下函數(shù):

}

在這種模式下,我們明確知道輸入什么參數(shù),經(jīng)過(guò)怎樣的判斷,一定會(huì)得到確定的輸出。

但當(dāng)我們面對(duì)“識(shí)別圖片中是貓還是狗”或“總結(jié)一篇文檔”這類任務(wù)時(shí),規(guī)則變得極其復(fù)雜且模糊,此時(shí)我們無(wú)法寫一個(gè)確定性的函數(shù)來(lái)完成對(duì)應(yīng)的任務(wù)。

機(jī)器學(xué)習(xí):擬合復(fù)雜的函數(shù)

既然無(wú)法手寫復(fù)雜規(guī)則,機(jī)器學(xué)習(xí)便放棄了“直接定義邏輯”的思路,轉(zhuǎn)而通過(guò)算法讓機(jī)器在大規(guī)模數(shù)據(jù)中自動(dòng)尋找規(guī)律,從而擬合出那個(gè)極其復(fù)雜的函數(shù)。

具體而言,機(jī)器學(xué)習(xí)會(huì)首先構(gòu)建一個(gè)巨大的數(shù)學(xué)模型(神經(jīng)網(wǎng)絡(luò)),通過(guò)訓(xùn)練來(lái)修正模型內(nèi)部的權(quán)重和偏差。訓(xùn)練的過(guò)程,本質(zhì)上是一個(gè)迭代“試錯(cuò)”的過(guò)程:

  1. 預(yù)測(cè):模型基于當(dāng)前參數(shù)對(duì)輸入數(shù)據(jù)做出預(yù)測(cè)(初始階段基本是隨機(jī)“瞎猜”)。

  2. 反饋:當(dāng)發(fā)現(xiàn)預(yù)測(cè)值與真實(shí)標(biāo)簽不符時(shí)(例如將貓誤認(rèn)為狗),算法會(huì)計(jì)算兩者之間的誤差。

  3. 微調(diào):利用數(shù)學(xué)方法(反向傳播)回溯并微調(diào)內(nèi)部的權(quán)重參數(shù),目標(biāo)是減小誤差,讓下一次預(yù)測(cè)更準(zhǔn)。


經(jīng)過(guò)數(shù)百萬(wàn)次的重復(fù)訓(xùn)練,模型最終能基本精準(zhǔn)地將輸入映射到輸出。此時(shí),我們便得到了一個(gè)擬合好的函數(shù)。即便面對(duì)從未見(jiàn)過(guò)的數(shù)據(jù),它也能根據(jù)從海量樣本中提取出的特征規(guī)律,給出相應(yīng)的判斷。

需要注意的是: 機(jī)器學(xué)習(xí)得到的函數(shù)是一個(gè)概率模型。它不像傳統(tǒng)代碼那樣保證 100% 的絕對(duì)準(zhǔn)確,而是在統(tǒng)計(jì)學(xué)上不斷逼近正確答案。因此它天然存在出錯(cuò)的可能——即便是一張清晰的貓,模型仍有極小的概率產(chǎn)生偏差,將其識(shí)別成狗。

大模型(LLM):量變引起的“涌現(xiàn)”

在傳統(tǒng)機(jī)器學(xué)習(xí)時(shí)代,參數(shù)量通常在幾百萬(wàn)到幾億級(jí)別,且大多是專用型的:識(shí)圖模型無(wú)法處理翻譯任務(wù),翻譯模型無(wú)法編寫代碼等。

而當(dāng)參數(shù)量和訓(xùn)練數(shù)據(jù)突破臨界點(diǎn)(如 GPT-3的千億級(jí)參數(shù))時(shí),發(fā)生了神奇的“涌現(xiàn)現(xiàn)象”,模型的能力發(fā)生了質(zhì)的飛躍(這類大參數(shù)量模型被稱為大模型):

  • 通用性:在學(xué)習(xí)預(yù)測(cè)萬(wàn)億級(jí)語(yǔ)料的過(guò)程中,它自然而然地掌握了摘要、翻譯、代碼編寫等多種能力,成為了一個(gè)可以處理幾乎所有自然語(yǔ)言任務(wù)的“通用大腦”。

  • 上下文學(xué)習(xí):不需要修改模型參數(shù),只需在提示詞(Prompt)里給出幾個(gè)示例(Few-Shot),模型就能憑借強(qiáng)大的學(xué)習(xí)能力,快速適配新任務(wù)并執(zhí)行。

以 GPT (Generative Pre-trained Transformer) 為例,盡管其功能看似復(fù)雜,但底層核心機(jī)制十分純粹,類似于“成語(yǔ)接龍”:

  • 輸入:用戶的提示詞 + 模型已經(jīng)生成的上文(比如 “床前明月”)。

  • 預(yù)測(cè):模型在詞表中計(jì)算下一個(gè)最可能出現(xiàn)的詞的概率分布(就像接龍時(shí)想 “床前明月” 后面該接 “光”)。

  • 輸出:模型通常選取概率最高的詞(例如輸出 “光”),將該詞拼接到原有輸入中,形成新的上下文(“床前明月光”),再進(jìn)入下一輪預(yù)測(cè),直至觸發(fā)結(jié)束標(biāo)志。

二. 提示詞工程

什么是 PE?

我們已經(jīng)知道 LLM 本質(zhì)上是一個(gè)“概率預(yù)測(cè)機(jī)”,它讀取文本,計(jì)算概率,預(yù)測(cè)下一個(gè)詞,循環(huán)往復(fù)。在這個(gè)過(guò)程中,我們給 LLM 的所有輸入統(tǒng)稱為 Prompt(提示詞)

但這里有個(gè)工程難題:如果輸入是發(fā)散的,輸出必然也是發(fā)散的。

舉個(gè)例子,我們想讓 LLM 判斷用戶反饋是正面還是負(fù)面:

寫法 A這條評(píng)論是正面的還是負(fù)面的?用戶說(shuō)界面太丑了,卸載了。

LLM 可能這樣回答:

  • "是負(fù)面的。"

  • "負(fù)面情緒"

  • "這條評(píng)論表達(dá)了用戶的負(fù)面情緒,因?yàn)樗f(shuō)界面太丑,還卸載了應(yīng)用。"

三種回答都對(duì),但格式完全不同。這在聊天時(shí)沒(méi)問(wèn)題,但如果你的程序需要解析這個(gè)結(jié)果(比如存入數(shù)據(jù)庫(kù)、觸發(fā)告警),這種不統(tǒng)一的格式簡(jiǎn)直是開(kāi)發(fā)者的噩夢(mèng)。

寫法B你是一個(gè)情感分析專家。請(qǐng)判斷以下用戶反饋的情感傾向,只返回"正面"或"負(fù)面",不要輸出任何解釋:
用戶反饋:"界面太丑了,卸載了!"

這一次 LLM 的輸出就很穩(wěn)定:負(fù)面

為什么?因?yàn)閷懛?A 模棱兩可,LLM 不知道你想要什么格式;寫法 B 明確了角色、任務(wù)和輸出要求。

這就是提示詞工程(Prompt Engineering)的核心:通過(guò)精心設(shè)計(jì) Prompt,讓 LLM 的輸出更穩(wěn)定、更準(zhǔn)確、更符合業(yè)務(wù)需求。

在聊天場(chǎng)景下,我們和 LLM 對(duì)話是"發(fā)散"的,它可能會(huì)說(shuō)很多無(wú)關(guān)緊要的話,輸出格式也可能隨機(jī)變化。但一旦要把 LLM 接入業(yè)務(wù)系統(tǒng),問(wèn)題就來(lái)了:程序需要解析 LLM 的返回結(jié)果,一個(gè)格式不對(duì)的 JSON 就能讓整個(gè)系統(tǒng)崩潰。

因此,PE 的核心目標(biāo)是從“自由對(duì)話”轉(zhuǎn)向“工程化協(xié)議”,就像調(diào)用 API 需要構(gòu)造請(qǐng)求參數(shù)、定義返回格式一樣,Prompt 就是這個(gè)"人機(jī)接口的協(xié)議"

如何寫好 PE?

寫 Prompt 就像給實(shí)習(xí)生布置任務(wù):你說(shuō)得越清楚,他干得越靠譜。我們繼續(xù)用"判斷用戶反饋情感"這個(gè)例子,看看如何逐步優(yōu)化。

(1) 先把話清楚:明確角色和任務(wù)

第一步是“定義人設(shè)”,告訴 LLM:你是誰(shuí),要做什么。在 API 開(kāi)發(fā)中,這通常通過(guò) System Prompt(系統(tǒng)提示詞) 來(lái)實(shí)現(xiàn)。

  • 角色定義:"你是一個(gè)情感分析專家"——這樣 LLM 會(huì)自動(dòng)調(diào)整"專業(yè)程度",知道要從用戶反饋中提取情感信號(hào)。

  • 任務(wù)指令:"請(qǐng)判斷用戶反饋的情感傾向"——不要讓 LLM 去猜你想干什么,直接說(shuō)清楚。

# 角色
你是一個(gè)情感分析專家,擅長(zhǎng)從用戶反饋中識(shí)別情緒。
# 任務(wù)
請(qǐng)判斷用戶反饋的情感傾向,只返回"正面"或"負(fù)面":

(2)給出模板:讓 LLM 照著做

直接下指令,LLM 有時(shí)仍會(huì)“放飛自我”。比如你要求“只返回正面或負(fù)面”,它可能會(huì)輸出“這條反饋是負(fù)面的”或者“Negative”。這些都是"負(fù)面"的意思,但格式不一致。這時(shí)候,給他幾個(gè)示例最有效,這叫 少樣本學(xué)習(xí)(Few-Shot Learning)。

# 角色
你是一個(gè)情感分析專家,擅長(zhǎng)從用戶反饋中識(shí)別情緒。
# 任務(wù)
請(qǐng)判斷用戶反饋的情感傾向,只返回"正面"或"負(fù)面":
# 示例
## 示例1輸入:
這個(gè)APP太棒了!
## 示例1輸出:
正面
## 示例2輸入:
用了一天就崩了,垃圾軟件。
## 示例2輸出:
負(fù)面

就像給實(shí)習(xí)生一個(gè)"參考答案模板",他看了幾個(gè)例子,自然就明白該怎么干了。而且這不需要重新訓(xùn)練模型,完全靠 LLM 強(qiáng)大的"上下文學(xué)習(xí)能力",給它幾個(gè)例子,它就能學(xué)會(huì)新任務(wù)的規(guī)律。

(3)讓它慢下來(lái):逐步推理

在處理復(fù)雜情感時(shí)(比如陰陽(yáng)怪氣、轉(zhuǎn)折句),LLM 容易直接“跳步”給錯(cuò)答案。比如用戶評(píng)論:“界面漂亮但反應(yīng)慢、想卸載”。LLM 可能看到“漂亮”就直覺(jué)式地判斷為“正面”。

如果加一句話: "請(qǐng)逐步思考(Let's think step by step)" ,準(zhǔn)確率會(huì)神奇地提升。這就是 CoT(Chain of Thought,思維鏈)。

LLM 的內(nèi)部邏輯流會(huì)變?yōu)椋?/strong>

  1. 關(guān)鍵詞提取:“界面漂亮”(正)、“反應(yīng)慢”(負(fù))、“想卸載”(極負(fù))。

  2. 意圖分析:雖然有視覺(jué)上的夸贊,但最終行為是卸載,表達(dá)了強(qiáng)烈的挫敗感。

  3. 最終結(jié)論:負(fù)面。

核心邏輯: 強(qiáng)迫 LLM 先把推理過(guò)程寫出來(lái),這個(gè)過(guò)程會(huì)成為后續(xù)生成的“上下文”,相當(dāng)于模型在“自我檢查”,確保結(jié)論是推導(dǎo)出來(lái)的,而不是“猜”出來(lái)的。

# 角色
你是一個(gè)情感分析專家,擅長(zhǎng)從用戶反饋中識(shí)別情緒。
# 任務(wù)
請(qǐng)判斷用戶反饋的情感傾向。請(qǐng)逐步思考后再輸出結(jié)果。只返回"正面"或"負(fù)面":
# 示例
## 示例1輸入:
這個(gè)APP太棒了!
## 示例1輸出:
正面
## 示例2輸入:
用了一天就崩了,垃圾軟件。
## 示例2輸出:
負(fù)面

(4)格式約束:讓程序能讀懂

前面解決的是“答得對(duì)”,但在代碼場(chǎng)景下,還有一個(gè)關(guān)鍵問(wèn)題:讓 LLM “答得能被程序解析”。

業(yè)務(wù)系統(tǒng)中,我們通常希望 LLM 返回 JSON 這種結(jié)構(gòu)化數(shù)據(jù)。但 LLM 是個(gè)“話癆”,你讓它返回 JSON,它可能隨口回一句:“好的,這是你要的結(jié)果:{...}”。這多出來(lái)的幾個(gè)字,就會(huì)導(dǎo)致 json.loads() 直接報(bào)錯(cuò)。

為了解決這個(gè)問(wèn)題,工程上通常采用“事前約束 + 事后糾錯(cuò)”的組合拳

1. 結(jié)構(gòu)化 Prompt(事前約束)

  • 直接給模型一個(gè)標(biāo)準(zhǔn)的 JSON 模板,并約束它不要輸出多余的解釋。

# 角色
你是一個(gè)情感分析專家,擅長(zhǎng)從用戶反饋中識(shí)別情緒。
# 任務(wù)
請(qǐng)判斷用戶反饋的情感傾向并分析原因。請(qǐng)逐步思考后再輸出結(jié)果。
# 輸入格式
{
"feedback": " <用戶反饋內(nèi)容> "
}
# 輸出格式
{
"sentiment": "正面/負(fù)面",
"reason": " <原因分析> "
}
# 約束
1. 必須僅返回 JSON 數(shù)據(jù),禁止任何解釋性文字
2. sentiment 字段只能是 "正面" 或 "負(fù)面"
# 示例
## 示例1輸入
{"feedback": "這個(gè)APP太棒了!"}
## 示例1輸出
{"sentiment": "正面", "reason": "用戶對(duì)產(chǎn)品表示滿意"}
## 示例2輸入
{"feedback": "用了一天就崩了,垃圾軟件。"}
## 示例2輸出
{"sentiment": "負(fù)面", "reason": "用戶遇到穩(wěn)定性問(wèn)題"}

2. 工程化魯棒性(事后糾錯(cuò)) 在實(shí)際業(yè)務(wù)中,單靠 Prompt 依然會(huì)有概率遇到非法格式。研發(fā)通常會(huì)引入以下兜底方案:

  • 原生 JSON 模式:調(diào)用 API 時(shí)開(kāi)啟模型自帶的 response_format: { "type": "json_object" } 模式,強(qiáng)制模型輸出。(如果平臺(tái)支持的話)。

  • 自動(dòng)修復(fù)(Repair):使用類似 json_repair 的庫(kù)。這些庫(kù)利用算法修復(fù)模型輸出中缺失的引號(hào)、括號(hào)或多余的解釋語(yǔ)。

  • 重試機(jī)制(Retry):如果解析失敗,自動(dòng)進(jìn)行 2-3 次重試,或者在重試時(shí)把錯(cuò)誤信息返還給模型(“你剛才返回的格式錯(cuò)了,請(qǐng)修正”)。

三. 檢索增強(qiáng)生成

PE(提示詞工程)解決了讓大模型“更聽(tīng)話”的問(wèn)題,但即便再會(huì)寫 Prompt,大模型本質(zhì)上仍是一個(gè)靜態(tài)的知識(shí)庫(kù)(它的記憶停留在訓(xùn)練結(jié)束的那一天)。它有兩大無(wú)法克服的缺陷:幻覺(jué)知識(shí)滯后。

  • 幻覺(jué)(一本正經(jīng)的胡說(shuō)八道):無(wú)論我們對(duì)大模型說(shuō)些什么,它都會(huì)通過(guò)“概率預(yù)測(cè)”生成一段回答,這段回答看起來(lái)很專業(yè),但可能完全是錯(cuò)誤的,就像學(xué)生在考試時(shí)遇到不會(huì)的題,憑借“直覺(jué)”編一個(gè)聽(tīng)起來(lái)像樣的答案。

  • 知識(shí)滯后(不知道最新的事):LLM 無(wú)法實(shí)時(shí)獲取信息。無(wú)法用它來(lái)查詢公司最新的內(nèi)部文檔或今天的實(shí)時(shí)銷售數(shù)據(jù)。

為了解決這些問(wèn)題,就誕生了RAG (Retrieval-Augmented Generation,檢索增強(qiáng)生成) ,它將大模型的“生成能力”與傳統(tǒng)數(shù)據(jù)檢索的“準(zhǔn)確性”結(jié)合起來(lái),給大模型外掛一個(gè)“實(shí)時(shí)更新的知識(shí)庫(kù)”。

如果把大模型直接回答問(wèn)題比作“閉卷考試”,那么 RAG 就是讓它變成一個(gè)“開(kāi)卷考試”的學(xué)生。

  • 閉卷模式:由于模型沒(méi)學(xué)過(guò)公司的私有文檔,它只能憑直覺(jué)“編”。

  • 開(kāi)卷模式(RAG)

    1. 翻書(檢索):當(dāng)用戶提問(wèn)時(shí),系統(tǒng)先去內(nèi)部文檔庫(kù)里搜索相關(guān)的段落。

    2. 摘抄(增強(qiáng)):把找到的準(zhǔn)確信息“抄”在 Prompt 里,作為背景參考資料。

    3. 作答(生成):最后讓大模型根據(jù)這些“參考資料”來(lái)組織語(yǔ)言回答。

這樣,AI 就不再是憑空想象,而是“有據(jù)可查”。要把這套“開(kāi)卷考試”系統(tǒng)跑通,需要經(jīng)歷以下核心步驟:

第一步:準(zhǔn)備階段 —— 語(yǔ)義向量化

計(jì)算機(jī)讀不懂文字,它只懂?dāng)?shù)字。我們需要把文字轉(zhuǎn)換成一種數(shù)學(xué)表達(dá),這就是 Embedding(詞嵌入)。

  • Embedding 模型:這是一種特殊的模型,它能把文本映射成一串高維數(shù)組(向量)。

  • 核心邏輯語(yǔ)義相近的文本,在數(shù)學(xué)空間里的“距離”也更近。 比如,“貓”和“小貓”的向量距離,會(huì)比“貓”和“挖掘機(jī)”近得多。這使得“語(yǔ)義搜索”成為可能。

第二步:檢索階段 —— 向量數(shù)據(jù)庫(kù)

有了向量,我們需要一個(gè)專門的“倉(cāng)庫(kù)”來(lái)存儲(chǔ)和查詢它們。

  • 入庫(kù):我們將公司文檔切割成一個(gè)個(gè)小段(Chunking),算出向量,存入向量數(shù)據(jù)庫(kù)。

  • 查詢:當(dāng)用戶問(wèn)“怎么申請(qǐng)年假?”時(shí),系統(tǒng)先算出這個(gè)問(wèn)題的向量。

  • 搜索:向量數(shù)據(jù)庫(kù)會(huì)瞬間找出倉(cāng)庫(kù)里和該問(wèn)題“空間距離最近”的文檔段落(這就是 Top-K 檢索)。

第三步:生成階段 —— Prompt 增強(qiáng)

這是最關(guān)鍵的一步,當(dāng)系統(tǒng)從向量數(shù)據(jù)庫(kù)中檢索出相關(guān)的文檔段落后,需要把這些資料和大模型連接起來(lái)。怎么做?很簡(jiǎn)單:把檢索到的資料作為"上下文",嵌入到 Prompt 里。這樣,大模型在回答問(wèn)題時(shí),就能看到“參考資料”,而不是“憑空編造”。

四. 工具調(diào)用

如果說(shuō) PE(提示詞工程)讓大模型學(xué)會(huì)了“說(shuō)話”,RAG(檢索增強(qiáng)生成)讓大模型擁有了知識(shí),那么此時(shí)的大模型更像是一個(gè)“軍師”,只能在對(duì)話框里指點(diǎn)江山,卻無(wú)法替你出門辦事。

比如當(dāng)問(wèn)它:“今天北京天氣怎么樣?”它會(huì)說(shuō):“我無(wú)法獲取實(shí)時(shí)信息。”;

當(dāng)讓它發(fā)封郵件,它會(huì)抱歉地說(shuō):“我沒(méi)有操作權(quán)限?!?/p>

為了解決這個(gè)問(wèn)題,就誕生了Function Calling(函數(shù)調(diào)用),相當(dāng)于給大模型裝了一雙“手腳”,讓它從只會(huì)聊天的機(jī)器人,進(jìn)化為能夠干活的智能助手。

Function Calling 的核心機(jī)制,是讓大模型具備意圖識(shí)別參數(shù)生成的能力:

  1. 意圖識(shí)別:用戶的問(wèn)題需要調(diào)用什么工具?

  2. 參數(shù)生成:調(diào)用這個(gè)工具需要什么參數(shù)?

很多人會(huì)誤解以為大模型親自去查了天氣、發(fā)了郵件。但實(shí)際上大模型本身不會(huì)“執(zhí)行”任何函數(shù),它只是告訴服務(wù)端:“我覺(jué)得應(yīng)該調(diào)用這個(gè)函數(shù),參數(shù)是這樣的”。真正的執(zhí)行,依然是由你的服務(wù)端程序去完成的。

一個(gè)完整的 Function Calling 流程,包括四個(gè)步驟:

  1. 工具注冊(cè):在讓大模型使用工具之前,開(kāi)發(fā)者需要先告訴它有哪些工具可以用。開(kāi)發(fā)者會(huì)向大模型注冊(cè)它能使用的函數(shù),并提供一個(gè)嚴(yán)格的 JSON Schema。這個(gè) Schema 定義了:

    這就像給大模型一本"工具說(shuō)明書":"如果你看到查天氣、發(fā)郵件的意圖,你可以調(diào)用我注冊(cè)的這些函數(shù)。"

    • 函數(shù)叫什么名字

    • 函數(shù)是干什么的

    • 需要什么參數(shù)

    • 參數(shù)的類型是什么

  2. 模型的意圖識(shí)別:當(dāng)用戶提問(wèn)時(shí),大模型會(huì)做兩件事:

    關(guān)鍵是:大模型不再生成自然語(yǔ)言回答,而是生成一個(gè)符合 Schema 的 JSON 結(jié)構(gòu)。舉個(gè)例子:

    用戶問(wèn): "今天北京天氣怎么樣?"

    大模型分析后,不會(huì)說(shuō)"我查一下天氣",而是生成一個(gè) JSON:

    {
    "function": "get_weather",
    "parameters": {
    "city": "北京"
    }
    }

    這就是 Function Call 的核心,大模型扮演的是"調(diào)度員",它負(fù)責(zé)理解意圖、提取參數(shù),但不真正執(zhí)行操作。

    1. 判斷是否需要調(diào)用工具:用戶是只想聊聊天,還是真的需要執(zhí)行某個(gè)操作?

    2. 如果需要,生成調(diào)用信息:調(diào)用哪個(gè)函數(shù)?參數(shù)是什么?

  3. 執(zhí)行函數(shù)與結(jié)果回傳:服務(wù)端接收到這個(gè) JSON,就知道:"哦,用戶想查北京天氣。此時(shí)會(huì)執(zhí)行真正的業(yè)務(wù)函數(shù),比如調(diào)用天氣 API,拿到實(shí)時(shí)數(shù)據(jù):"北京今天 15°C,晴。"然后,這個(gè)執(zhí)行結(jié)果被打包成文本,作為新的 Prompt 上下文,重新喂回給大模型。

  4. 最終回復(fù)

    現(xiàn)在,大模型有了實(shí)時(shí)數(shù)據(jù)——"北京今天 15°C,晴",它可以根據(jù)這些信息,生成最終的自然語(yǔ)言回答:"北京今天天氣不錯(cuò),溫度是 15°C,晴朗。"

五. 模型上下文協(xié)議

Function Calling 賦予了大模型執(zhí)行任務(wù)的能力,但在實(shí)際工程中,開(kāi)發(fā)者面臨著一個(gè)巨大的痛苦:協(xié)議碎片化

想象一下,你為 OpenAI 的模型寫了一套查天氣的工具,但換到 Google 的模型上,這套工具完全不能用,你需要重新寫一遍。這就好像每家手機(jī)廠商都有自己的充電接口,你的充電器只能給自家的手機(jī)充電,換個(gè)牌子就沒(méi)法用了。

為了實(shí)現(xiàn)大規(guī)模協(xié)作和生態(tài)互聯(lián),需要統(tǒng)一的標(biāo)準(zhǔn)高效的工具。這個(gè)時(shí)候就誕生了MCP(Model Context Protocol,模型上下文協(xié)議) ,可以將其理解為它是 AI 時(shí)代的 Type-C 接口TCP/IP 協(xié)議。

MCP 的核心目標(biāo)是實(shí)現(xiàn) “一次開(kāi)發(fā),到處可用”。它將 LLM(大腦)與 Context/Tools(知識(shí)與工具)徹底解耦。

  • 之前(模型綁定):工具和數(shù)據(jù)源往往與特定的模型廠商深度綁定。你想讓模型讀取你的本地文件或數(shù)據(jù)庫(kù),必須為每個(gè)模型量身定制適配層。

  • 現(xiàn)在(通用標(biāo)準(zhǔn)):無(wú)論是哪個(gè)模型(大腦),只要它支持 MCP 標(biāo)準(zhǔn),就能像插拔 Type-C 設(shè)備一樣,無(wú)縫調(diào)用任何遵守 MCP 協(xié)議的數(shù)據(jù)源或工具。

對(duì)于開(kāi)發(fā)者和企業(yè)來(lái)說(shuō),MCP 協(xié)議的出現(xiàn)具有里程碑式的意義:

  1. 統(tǒng)一的標(biāo)準(zhǔn)協(xié)議: MCP 就像是 AI 領(lǐng)域的 TCP/IP 協(xié)議。它定義了一套通用的語(yǔ)言,讓模型能夠以統(tǒng)一的方式發(fā)現(xiàn)工具(Tools)、讀取資源(Resources)和查看提示詞模板(Prompts)。

  2. 極低的適配成本

    • 以前:如果你有 10 個(gè)數(shù)據(jù)源(數(shù)據(jù)庫(kù)、GitHub、Slack 等)和 3 個(gè)主流模型,你可能需要維護(hù) 30 套適配邏輯。

    • 現(xiàn)在:你只需要讓這 10 個(gè)數(shù)據(jù)源支持 MCP 協(xié)議,任何支持 MCP 的模型(如 Claude Desktop 或各類 AI IDE)都能立即接管并使用它們。

  3. 生態(tài)互聯(lián)的基石: MCP 為 AI 生態(tài)的爆發(fā)奠定了基礎(chǔ)。開(kāi)發(fā)者可以像拼樂(lè)高積木一樣,將來(lái)自不同供應(yīng)商的 MCP 服務(wù)器(數(shù)據(jù)源)組合在一起,構(gòu)建出極其復(fù)雜的自動(dòng)化工作流。

總結(jié)

AI 不是黑魔法,它是一個(gè)有概率、需要被控制(PE)、需要知識(shí)(RAG)、需要執(zhí)行能力(Function Calling)和標(biāo)準(zhǔn)互聯(lián)(MCP)的復(fù)雜系統(tǒng)。

  • PE(提示詞工程) :解決了"如何讓 AI 聽(tīng)話"。

  • RAG(檢索增強(qiáng)生成) :解決了"如何讓 AI 有知識(shí)"。

  • Function Calling(工具調(diào)用) :解決了"如何讓 AI 能干活"。

  • MCP(模型上下文協(xié)議) :解決了"如何讓 AI 生態(tài)互聯(lián)"。

本文主要是作為一個(gè)概述,通俗的講一下 AI 相關(guān)的名詞概念,后續(xù)會(huì)更加深入的講一下必要的知識(shí)點(diǎn),比如提示詞工程(PE)、檢索增強(qiáng)(RAG)、工作流(Workflow)、智能體(Agent)、Langchain、Coze、n8n 等等。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
以色列已失控?以軍炮打聯(lián)合國(guó)維和部隊(duì),法軍犧牲,馬克龍表態(tài)

以色列已失控?以軍炮打聯(lián)合國(guó)維和部隊(duì),法軍犧牲,馬克龍表態(tài)

來(lái)科點(diǎn)譜
2026-04-19 07:15:46
許家印大兒的加拿大生活:無(wú)錢但自由、每天抽中華、二弟前途未卜

許家印大兒的加拿大生活:無(wú)錢但自由、每天抽中華、二弟前途未卜

茶喝多了睡不著
2026-04-15 22:15:05
1976年誰(shuí)為周總理致悼詞?江青推薦一人,葉劍英搖頭拒絕:不合適

1976年誰(shuí)為周總理致悼詞?江青推薦一人,葉劍英搖頭拒絕:不合適

雍親王府
2026-03-30 10:55:03
2025年外賣騎手破1300萬(wàn),大專生占近四分之一,曾經(jīng)的退路也卷了

2025年外賣騎手破1300萬(wàn),大專生占近四分之一,曾經(jīng)的退路也卷了

老特有話說(shuō)
2026-04-16 16:16:26
17點(diǎn)開(kāi)球!丁俊暉VS吉爾伯特,央視更改直播頻道,誰(shuí)贏誰(shuí)打趙心童

17點(diǎn)開(kāi)球!丁俊暉VS吉爾伯特,央視更改直播頻道,誰(shuí)贏誰(shuí)打趙心童

體育大學(xué)僧
2026-04-20 08:57:09
意外!蒯紀(jì)聞為何連續(xù)無(wú)緣上港比賽大名單,背后原因讓球迷無(wú)奈

意外!蒯紀(jì)聞為何連續(xù)無(wú)緣上港比賽大名單,背后原因讓球迷無(wú)奈

張麗說(shuō)足球
2026-04-20 08:55:28
殺害羅大美的兇手余金生被執(zhí)行死刑!他瘋狂成魔有兩個(gè)原因

殺害羅大美的兇手余金生被執(zhí)行死刑!他瘋狂成魔有兩個(gè)原因

細(xì)品名人
2026-04-20 07:40:08
48小時(shí)內(nèi),俄美伊都對(duì)中國(guó)提了一個(gè)要求,涉及中方主權(quán),必須滿足

48小時(shí)內(nèi),俄美伊都對(duì)中國(guó)提了一個(gè)要求,涉及中方主權(quán),必須滿足

安珈使者啊
2026-04-17 11:50:45
麥當(dāng)娜的風(fēng)流往事:他的欲望太強(qiáng),讓她疲憊不堪又欲罷不能

麥當(dāng)娜的風(fēng)流往事:他的欲望太強(qiáng),讓她疲憊不堪又欲罷不能

錢小刀娛樂(lè)
2026-04-17 11:24:32
隨著尤文圖斯2-0,意甲最新積分榜出爐

隨著尤文圖斯2-0,意甲最新積分榜出爐

側(cè)身凌空斬
2026-04-20 07:46:56
鄭麗文之后,國(guó)民黨大佬抵京!她的2個(gè)“必然”、狠狠敲打賴清德

鄭麗文之后,國(guó)民黨大佬抵京!她的2個(gè)“必然”、狠狠敲打賴清德

墨印齋
2026-04-19 19:59:49
沈夢(mèng)辰自曝“連續(xù)4年做熱瑪吉,臉越打越薄”

沈夢(mèng)辰自曝“連續(xù)4年做熱瑪吉,臉越打越薄”

天馬幸福的人生
2026-04-19 18:18:18
63歲王姬難逃命運(yùn)磋磨:兒子自閉,女兒重蹈覆轍,風(fēng)光背后皆是債

63歲王姬難逃命運(yùn)磋磨:兒子自閉,女兒重蹈覆轍,風(fēng)光背后皆是債

不寫散文詩(shī)
2026-04-17 14:15:35
DeepMind科學(xué)家重磅論文:AI永遠(yuǎn)不可能產(chǎn)生意識(shí),與算力無(wú)關(guān)

DeepMind科學(xué)家重磅論文:AI永遠(yuǎn)不可能產(chǎn)生意識(shí),與算力無(wú)關(guān)

西游日記
2026-04-19 19:48:16
太尷尬了!9個(gè)姐妹聚餐,臨時(shí)倡議各邀請(qǐng)一男生,竟然無(wú)一人到場(chǎng)

太尷尬了!9個(gè)姐妹聚餐,臨時(shí)倡議各邀請(qǐng)一男生,竟然無(wú)一人到場(chǎng)

火山詩(shī)話
2026-04-19 08:06:38
8K 電視,真沒(méi)救了?

8K 電視,真沒(méi)救了?

科技狐
2026-04-19 23:14:52
斯諾克世錦賽!10-6,中國(guó)首敗,90后名將被逆轉(zhuǎn),丁俊暉強(qiáng)勢(shì)發(fā)威

斯諾克世錦賽!10-6,中國(guó)首敗,90后名將被逆轉(zhuǎn),丁俊暉強(qiáng)勢(shì)發(fā)威

觀察鑒娛
2026-04-20 09:36:02
負(fù)債60億!年銷8.4萬(wàn)臺(tái)豪車的百億巨頭破產(chǎn),浙商大佬全被套牢

負(fù)債60億!年銷8.4萬(wàn)臺(tái)豪車的百億巨頭破產(chǎn),浙商大佬全被套牢

青眼財(cái)經(jīng)
2026-04-16 22:01:48
中國(guó)唯一泡在泉水里的城市,拒絕內(nèi)卷,安逸享樂(lè),超適合養(yǎng)老

中國(guó)唯一泡在泉水里的城市,拒絕內(nèi)卷,安逸享樂(lè),超適合養(yǎng)老

匿旅
2026-04-17 18:43:06
超710億!廣東這條“堵王”高速,即將全面改擴(kuò)建,最寬12車道!

超710億!廣東這條“堵王”高速,即將全面改擴(kuò)建,最寬12車道!

娛樂(lè)圈見(jiàn)解說(shuō)
2026-04-18 14:54:03
2026-04-20 10:12:49
開(kāi)源中國(guó) incentive-icons
開(kāi)源中國(guó)
每天為開(kāi)發(fā)者推送最新技術(shù)資訊
7698文章數(shù) 34535關(guān)注度
往期回顧 全部

科技要聞

藍(lán)色起源一級(jí)火箭完美回收 客戶衛(wèi)星未入軌

頭條要聞

媒體:日本近期一系列危險(xiǎn)動(dòng)作挑釁中國(guó) 中國(guó)需警惕

頭條要聞

媒體:日本近期一系列危險(xiǎn)動(dòng)作挑釁中國(guó) 中國(guó)需警惕

體育要聞

湖人1比0火箭:老詹比烏度卡像教練

娛樂(lè)要聞

何潤(rùn)東漲粉百萬(wàn)!內(nèi)娛隔空掀桌第一人

財(cái)經(jīng)要聞

月之暗面IPO迷局

汽車要聞

29分鐘大定破萬(wàn) 極氪8X為什么這么多人買?

態(tài)度原創(chuàng)

家居
親子
游戲
時(shí)尚
軍事航空

家居要聞

法式線條 時(shí)光靜淌

親子要聞

這睡眠質(zhì)量也太高了

《最后的生還者》前員工爆料:艾莉并非唯一免疫者!

今年最流行的衣服竟然是它?高級(jí)又氣質(zhì)!

軍事要聞

特朗普:美艦向伊朗貨船開(kāi)火炸出個(gè)洞

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版