国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

大模型本地部署,全能選手LM-Studio,你可能只用了一半

0
分享至

關(guān)于本地部署大模型和 Ollama 的話題,我之前寫過不少:

為了寫,我又重新玩了一下 LM Studio —— 這個本地大模型的"全能選手"


LM Studio 主界面

說實話,我之前對 LM Studio 的印象還停留在"點一下就能跑模型的桌面APP"。但在 0.4 版本之后,它已經(jīng)進化成了一個完整的本地 AI 開發(fā)平臺,很多隱藏用法很多同學(xué)可能都不知道。

簡介

LM Studio 是一款支持在本地運行 AI 大模型的工具,支持 Mac、Linux 和 Windows 全平臺。和 Ollama 不同,LM Studio 自帶一個漂亮的圖形界面,入門門檻極低——下載、搜索模型、點擊運行,三步搞定。


LM Studio 主界面

目前支持的主流模型相當(dāng)多:gpt-oss、Qwen3、Gemma 3、DeepSeek 等等,基本上 Hugging Face 上熱門的 GGUF 和 MLX 模型都能跑。

但今天我不想聊桌面端怎么點點點,那些是給新手看的。我想重點聊聊 LM Studio 那些真正硬核、但被大多數(shù)人忽視的用法。

0.4 版本:全面進化

1 月,LM Studio 發(fā)布了 0.4.0 大版本更新,這不是一個小修小補的版本,而是一次架構(gòu)級的重構(gòu)。

核心變化有四個:


llmster 無頭部署模式

1. llmster:無 GUI 的守護進程

這是 0.4 最炸裂的更新。LM Studio 把 GUI 和核心推理引擎拆開了,推出了llmster—— 一個可以脫離桌面界面獨立運行的守護進程

什么意思?就是你現(xiàn)在可以把 LM Studio 的核心部署到任何沒有圖形界面的機器上:云服務(wù)器、GPU 算力機、CI/CD 流水線、甚至 Google Colab。

安裝一行命令搞定:

# Linux / Mac
curl -fsSL https://lmstudio.ai/install.sh | bash


# Windows
irm https://lmstudio.ai/install.ps1 | iex

啟動也很簡單:

lms daemon up         # 啟動守護進程
lms get # 下載模型
lms server start # 啟動本地 API 服務(wù)器
lms chat # 打開交互式聊天

這意味著什么?意味著你家里那臺 4090 機器可以當(dāng) API 服務(wù)器用了,不需要開桌面、不需要一直盯著屏幕。llmster+lmsCLI,就是一套完整的無頭部署方案。

2. 并行請求 + 連續(xù)批處理

之前 LM Studio 同時只能處理一個請求,后面的排隊

0.4 之后,基于 llama.cpp 2.0 的連續(xù)批處理實現(xiàn),支持同一模型的多個并發(fā)推理請求

加載模型時有兩個新選項:

  • Max Concurrent Predictions:設(shè)置最大并發(fā)請求數(shù)(默認 4)

  • Unified KV Cache:統(tǒng)一 KV 緩存,硬件資源不會按請求硬分區(qū),幾乎不增加內(nèi)存開銷

對于需要對外提供 API 服務(wù)的場景,這個能力直接讓 LM Studio 從"玩具"變成了"生產(chǎn)工具"

3. 全新的有狀態(tài) REST API:/v1/chat

這個端點和傳統(tǒng)的 Chat Completions 不一樣。/v1/chat有狀態(tài)的:你發(fā)一條消息,會拿到一個response_id,下次請求把previous_response_id帶上就能繼續(xù)對話。

這樣的好處是:

  • 每次請求體很小,不用來回傳整個聊天記錄

  • 方便構(gòu)建多步驟工作流

  • 響應(yīng)自帶 token 統(tǒng)計和速度數(shù)據(jù)(tokens in/out、首 token 時間等)

  • 還能通過 permission keys 訪問本地 MCP 工具

4. UI 大刷新

聊天導(dǎo)出(PDF/Markdown/純文本)、分屏視圖、Developer Mode、應(yīng)用內(nèi)文檔——這些都是錦上添花,但確實讓整個用戶體驗上了一個臺階。


聊天導(dǎo)出功能 核心:LM Studio 不為人知的開發(fā)者用法

好,下面進入今天的重頭戲

大部分人只把 LM Studio 當(dāng)個聊天工具,但它其實提供了一整套開發(fā)者生態(tài)

用法一:OpenAI 兼容 API —— 不改代碼,換個 URL 就行

這是我覺得最實用的功能之一

LM Studio 提供了完整的 OpenAI 兼容端點:

端點

功能

/v1/models

列出可用模型

/v1/responses

Responses API(Codex 也用這個)

/v1/chat/completions

傳統(tǒng)的 Chat Completions

/v1/embeddings

文本嵌入

/v1/completions

文本補全

啥意思呢?你現(xiàn)在用 OpenAI SDK 跑的代碼,只需要改一行 base_url,就能切到本地模型

Python 示例:

from openai import OpenAI

client = OpenAI(
base_url="http://localhost:1234/v1"
)

response = client.chat.completions.create(
model="use the model identifier from LM Studio here",
messages=[{"role": "user", "content": "Say this is a test!"}],
temperature=0.7
)

TypeScript 示例:

import OpenAI from 'openai';


const client = new OpenAI({
baseUrl: "http://localhost:1234/v1"
});

cURL 也一樣:

curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-oss-20b",
"messages": [{"role": "user", "content": "Hello!"}],
"temperature": 0.7
}'

這對開發(fā)者來說太友好了

你寫好的 Agent、RAG 應(yīng)用、AI 工作流,測試階段完全可以用本地模型跑,零成本。上線時再切回 OpenAI 或 DeepSeek 的 API

甚至連 OpenAI 的 Codex 都支持直接對接 LM Studio

用法二:Anthropic 兼容 API —— Claude Code 也能白嫖

這個就更騷了。從 0.4.1 開始,LM Studio 還提供了Anthropic 兼容的/v1/messages端點。

什么意思?Claude Code 不需要用 Anthropic 的 API Key 了,直接指向 LM Studio 就行!

三步搞定:

第一步:啟動 LM Studio 的本地服務(wù)器

lms server start --port 1234

第二步:設(shè)置環(huán)境變量

export ANTHROPIC_BASE_URL=http://localhost:1234
export ANTHROPIC_AUTH_TOKEN=lmstudio

第三步:運行 Claude Code

claude --model openai/gpt-oss-20b
Claude Code 配合 LM Studio 使用

就這么簡單。你用本地的 GGUF 或 MLX 模型,就能驅(qū)動 Claude Code

建議上下文窗口設(shè)到 25K tokens 以上,因為 Claude Code 消耗上下文比較猛

如果你在 VS Code 里用 Claude Code,也可以直接在設(shè)置里配:

"claudeCode.environmentVariables": [
{
"name": "ANTHROPIC_BASE_URL",
"value": "http://localhost:1234"
},
{
"name": "ANTHROPIC_AUTH_TOKEN",
"value": "lmstudio"
}
]

支持的功能也很完整:Messages API、SSE 流式傳輸、Tool Use 都能用

用 Anthropic 的 Python SDK 也可以直接對接:

from anthropic import Anthropic

client = Anthropic(
base_url="http://localhost:1234",
api_key="lmstudio",
)

message = client.messages.create(
max_tokens=1024,
messages=[
{"role": "user", "content": "Hello from LM Studio"}
],
model="ibm/granite-4-micro",
)
print(message.content)

同時兼容 OpenAI 和 Anthropic 兩大 API,這在本地部署工具里幾乎是獨一份

用法三:CLI 工具lms—— 命令行控的福音

LM Studio 自帶命令行工具lms,從 0.2.22 版本就有了。但到了 0.4,CLI 的體驗完全煥然一新

安裝很簡單,會隨 LM Studio 桌面端或llmster一起安裝

npx lmstudio install-cli

常用命令速查:

lms status          # 檢查 LM Studio 狀態(tài)
lms server start # 啟動 API 服務(wù)器
lms server stop # 停止 API 服務(wù)器
lms ls # 列出已下載模型
lms ls --json # JSON 格式輸出(適合腳本處理)
lms ps # 查看當(dāng)前加載的模型
lms load # 加載模型
lms load -y # 最大 GPU 加速加載,跳過確認
lms unload --all # 卸載所有模型
lms get # 下載模型
lms chat # 交互式聊天(新?。?br/>lms create # 創(chuàng)建 SDK 項目
lms log stream # 實時查看日志
lms runtime survey # 打印 GPU 信息
lms runtime update llama.cpp # 更新推理引擎

重點說下lms chat,0.4 新增的命令。

直接在終端里開聊,支持斜杠命令、思考過程高亮、粘貼大段內(nèi)容??捎玫男备苊睿?code>/model、/download、/system-prompt、/help、/exit

對于喜歡 Terminal 的同學(xué)來說,完全不需要打開圖形界面就能完成下載模型 → 加載模型 → 聊天 → 調(diào)試 的全部流程。

用法四:原生 SDK —— TypeScript 和 Python 都安排了

除了兼容 OpenAI/Anthropic 的 API,LM Studio 還提供了自己的原生 SDK

TypeScript SDK

npm install @lmstudio/sdk

import { LMStudioClient } from "@lmstudio/sdk";


const client = new LMStudioClient();
const model = await client.llm.model("openai/gpt-oss-20b");
const result = await model.respond("Who are you, and what can you do?");
console.info(result.content);

Python SDK

pip install lmstudio

import lmstudio as lms


with lms.Client() as client:
model = client.llm.model("openai/gpt-oss-20b")
result = model.respond("Who are you, and what can you do?")
print(result)

原生 SDK 的好處是能力更全面:除了聊天和文本生成,還支持 Tool Calling、MCP 支持、結(jié)構(gòu)化輸出(JSON Schema)、Embedding 和 Tokenization、模型管理(加載、下載、列表)等高級功能

LM Studio 的 REST API

lms server start --port 1234

curl http://localhost:1234/api/v1/chat \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $LM_API_TOKEN" \
-d '{
"model": "openai/gpt-oss-20b",
"input": "Who are you, and what can you do?"
}'
用法五:LM Link —— 遠程加載你的模型

這是 LM Studio 最新推出的功能,目前還在 Preview 階段,但思路很超前


LM Link 設(shè)備連接示意

LM Link 的核心思想:你可能有好幾臺機器(家里的 GPU 機器、公司顯卡、云服務(wù)器),LM Link 讓你在任何一臺設(shè)備上,像使用本地模型一樣使用遠程設(shè)備上的模型。

  • 基于Tailscale的 mesh VPN,端到端加密,不暴露公網(wǎng)端口

  • 聊天數(shù)據(jù)保留在本地,重活累活交給遠端的 GPU

  • 連你的localhost:1234接口都通用——也就是說 Codex、Claude Code、OpenCode 這些工具也能通過 LM Link 使用遠程模型

價格方面,免費版支持 2 個用戶、每人 5 臺設(shè)備(總共 10 臺),家用和工作都可以

這個功能對多機用戶太香了

比如你家里放一臺 4090 算力機,上班時用 MacBook 通過 LM Link 無縫調(diào)用家里的模型

說實話,如果你只是想快速跑個模型聊天,Ollama 的ollama run確實更簡單。但如果你有以下需求,LM Studio 更合適:

  • 需要同時兼容 OpenAI 和 Anthropic 兩套 API

  • 多臺機器之間共享模型資源

  • 需要有狀態(tài)的 REST API + MCP 工具調(diào)用

  • 想用原生 SDK 做開發(fā)

總結(jié)

LM Studio 在 0.4 之后,已經(jīng)不是一個簡單的"本地聊天工具"了。它是一個完整的本地 AI 推理平臺:

  • 桌面端給新手用,CLI + llmster 給開發(fā)者用

  • OpenAI + Anthropic 雙兼容,幾乎所有 AI 開發(fā)工具都能無縫對接

  • LM Link 打通多設(shè)備,遠程模型像本地一樣用

  • 有狀態(tài) API + MCP + SDK,想怎么玩就怎么玩

制作不易,如果這篇文章覺得對你有用,可否點個關(guān)注。給我個三連擊:點贊、轉(zhuǎn)發(fā)和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
張掖地委專員被人打死,法醫(yī)將他的腦組織保存十年,等來昭雪

張掖地委專員被人打死,法醫(yī)將他的腦組織保存十年,等來昭雪

隴史薈王文元
2026-04-20 16:28:54
日本100多年來根本沒有變,中國人要記住村田晃大這個名字

日本100多年來根本沒有變,中國人要記住村田晃大這個名字

近史閣
2026-04-21 04:16:38
貴州網(wǎng)紅曉浪哥去世,僅34歲,愛在墓地拍視頻,早給自己選好墓地

貴州網(wǎng)紅曉浪哥去世,僅34歲,愛在墓地拍視頻,早給自己選好墓地

觀察鑒娛
2026-04-20 09:24:45
許晉亨曾單方面透露生子計劃,但遭何超瓊嚴厲駁斥和否認!

許晉亨曾單方面透露生子計劃,但遭何超瓊嚴厲駁斥和否認!

玖宇維
2026-04-20 20:44:16
扎心但清醒|莫言:沒人閑得整天關(guān)注你,各人都有各人的雞毛蒜皮

扎心但清醒|莫言:沒人閑得整天關(guān)注你,各人都有各人的雞毛蒜皮

杏花煙雨江南的碧園
2026-04-20 14:15:03
國際觀察|美伊談判懸念叢生,局勢走向有幾種可能?

國際觀察|美伊談判懸念叢生,局勢走向有幾種可能?

新華社
2026-04-20 22:02:14
清風(fēng)北京:彭偉鵬被查

清風(fēng)北京:彭偉鵬被查

極目新聞
2026-04-20 09:48:27
斯諾克世錦賽,中國選手晉級16強

斯諾克世錦賽,中國選手晉級16強

大漢體育解說
2026-04-21 05:03:30
別再尬演“萬人迷”!滿臉褶子疙瘩、鼻孔朝天,這皮囊能迷倒誰?

別再尬演“萬人迷”!滿臉褶子疙瘩、鼻孔朝天,這皮囊能迷倒誰?

雨月海星
2026-04-18 05:25:40
演員朱珠疑似塌房?照片流出,驚呆網(wǎng)友!

演員朱珠疑似塌房?照片流出,驚呆網(wǎng)友!

大眼妹妹
2025-12-15 10:39:19
切爾西有救了!藍軍全力挖鐵血名帥,羅塞尼爾命懸一線

切爾西有救了!藍軍全力挖鐵血名帥,羅塞尼爾命懸一線

奶蓋熊本熊
2026-04-21 05:20:47
35分不碰瓷,馬刺贏球送亞歷山大上熱門,17個罰球讓MVP成笑話!

35分不碰瓷,馬刺贏球送亞歷山大上熱門,17個罰球讓MVP成笑話!

林子說事
2026-04-20 19:17:58
“打烊”不讀dǎ yáng,也不讀dǎ xiáng,九成人在這樣錯讀!

“打烊”不讀dǎ yáng,也不讀dǎ xiáng,九成人在這樣錯讀!

未央看點
2026-04-21 00:05:41
鄭麗文判斷準(zhǔn)確,解放軍通牒在即,賴清德將登機離臺

鄭麗文判斷準(zhǔn)確,解放軍通牒在即,賴清德將登機離臺

風(fēng)雨與陽光
2026-04-21 03:13:01
特朗普女婿被查,61億資產(chǎn)99%來自外國,特朗普:中國會感謝我

特朗普女婿被查,61億資產(chǎn)99%來自外國,特朗普:中國會感謝我

阿傖說事
2026-04-21 03:24:22
脫掉衣服才看清:女人之間真正的差距,其實藏在這3處,不是容貌

脫掉衣服才看清:女人之間真正的差距,其實藏在這3處,不是容貌

周哥一影視
2026-03-15 14:30:11
江南造船廠這艘核動力巨輪亮相,軍迷都懂了:距離核航母還遠嗎?

江南造船廠這艘核動力巨輪亮相,軍迷都懂了:距離核航母還遠嗎?

林子說事
2026-04-21 00:55:45
贏得尊重,籃網(wǎng)隊與喬迪·費爾南德斯及其整個教練組續(xù)約

贏得尊重,籃網(wǎng)隊與喬迪·費爾南德斯及其整個教練組續(xù)約

好火子
2026-04-21 03:59:38
C919交付再遇阻礙:國產(chǎn)大飛機的夢想與現(xiàn)實有多遠?

C919交付再遇阻礙:國產(chǎn)大飛機的夢想與現(xiàn)實有多遠?

普陀動物世界
2026-04-21 00:52:40
“老實人”任重甘愿成為接盤俠,迎娶內(nèi)娛第一海王,網(wǎng)友:絕配

“老實人”任重甘愿成為接盤俠,迎娶內(nèi)娛第一海王,網(wǎng)友:絕配

天天熱點見聞
2026-04-21 05:14:09
2026-04-21 06:00:49
Ai學(xué)習(xí)的老章 incentive-icons
Ai學(xué)習(xí)的老章
Ai學(xué)習(xí)的老章
3339文章數(shù) 11138關(guān)注度
往期回顧 全部

科技要聞

HUAWEI Pura X Max發(fā)布 售價10999元起

頭條要聞

19歲女孩挪用自家1700萬當(dāng)"榜一大姐" 親爹帶女兒自首

頭條要聞

19歲女孩挪用自家1700萬當(dāng)"榜一大姐" 親爹帶女兒自首

體育要聞

阿森納已拼盡全力,但你早干嘛去了...

娛樂要聞

《八千里路云和月》田家泰暗殺

財經(jīng)要聞

利潤暴跌7成,字節(jié)到底在做什么

汽車要聞

把天門山搬進廠?開仰望U8沖上45度坡的那刻 我腿軟了

態(tài)度原創(chuàng)

本地
親子
旅游
公開課
軍事航空

本地新聞

12噸巧克力有難,全網(wǎng)化身超級偵探添亂

親子要聞

居家防夾刻不容緩,多名兒童在家玩鬧時手指被夾斷

旅游要聞

以“Fun”為名,深圳布吉將發(fā)布全域旅游品牌IP

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

特朗普:美艦向伊朗貨船開火炸出個洞

無障礙瀏覽 進入關(guān)懷版