什么?你还不会部署本地大模型 + 开发MCP服务
面向纯新手:Mac 环境、零命令行恐惧、全程截图、傻瓜式复制粘贴。
0. 先秀成果
本地 LM Studio 里用 Llama3.1-8B 对话。
Cursor 侧边栏点亮绿色 MCP 图标 → 自然语言让大模型「帮我查今天的深圳天气」→ 返回实时数据。
让读者先看到「原来真能跑起来」,再决定要不要往下看。
1. 环境总览(表格一行就够)
2. 路线 A:Ollama 命令行 3 步走(带截图)
Ollama: https://ollama.com/
2.1 安装(30 秒)
# Homebrew 一条命令
brew install --cask ollama
官方文档截图:官网下载页 → 复制命令 → 终端回车 → 出现羊驼图标即成功。
2.2 拉模型(2 分钟)
ollama pull llama3.1:8b # 4.7 GB
ollama run llama3.1:8b # 直接对话
⚠️ 国内网络:提前 export OLLAMA_HOST=0.0.0.0:11434
可局域网访问
。
2.3 可选 WebUI(1 命令)
docker run -d -p 3000:8080 --name ollama-webui --env OLLAMA_API_BASE_URL=http://host.docker.internal:11434 ghcr.io/ollama-webui/ollama-webui:main
浏览器打开 localhost:3000
即可 ChatGPT 同款界面
。
3. 路线 B:LM Studio 纯点点点(带截图)
LM Studio: https://lmstudio.ai/
3.1 安装
官网 dmg 拖进 Applications → 首次打开会提示下载第一个模型,点 Skip 跳过。
3.2 搜索 & 下载
左侧放大镜 → 输入 llama3.1
→ 绿色标签=跑得动,红色=跑不动 → Download。
3.3 加载对话
上方「Model」下拉框 → 选择刚下载的模型 → 右侧 Chat 标签 → 输入「讲个笑话」→ 看到回复即成功。
3.4 小技巧
改中文:右下角齿轮 → Language → 简体中文。
改模型保存路径:Settings → Models → Browse,别让 C 盘爆炸。
4. 什么是 MCP?一句话看懂
模型上下文协议(MCP)=「让大模型直接调用外部 API」的通用 USB 接口。
今天我们要写一个「天气查询 USB」,插到 Cursor 里,说话就能查天气。
5. 5 分钟搭一个 MCP 服务(Python 版)
5.1 安装 uv(10 秒)
curl -LsSf https://astral.sh/uv/install.sh | sh
5.2 初始化项目(20 秒)
uv init weather-mcp && cd weather-mcp
uv venv && source .venv/bin/activate
uv add fastmcp httpx
5.3 写代码(main.py,复制即可)
from fastmcp import FastMCP
import httpx, os
app = FastMCP("weather")
@app.tool()
async def get_weather(city: str) -> str:
key = os.getenv("AMAP_KEY") # 高德天气 key
url = f"https://restapi.amap.com/v3/weather/weatherInfo?city={city}&key={key}"
r = httpx.get(url, timeout=10)
return r.json()["lives"][0]["weather"]
一行启动:
uv run main.py
看到 stdio server started
即 OK。
6. 把 MCP 插进 Cursor(30 秒)
6.1 打开配置
Cursor → Settings → MCP → + Add
→ 选 Stdio → 填写:
保存后侧边栏出现绿色小圆点 = 连通。
6.2 测试
新建聊天 → 输入「深圳现在天气如何?」→ 模型自动调用工具 → 返回「晴 28℃」。截图放这里。
7. 更多现成 MCP 仓库(直接 git clone 就能玩)
8. 常见坑速查表(放折叠 FAQ)
绿灯不亮 → 看 Cursor 控制台日志,99% 是路径/环境变量写错。
模型加载慢 → LM Studio 设置 → GPU 层数调低;Ollama 加
OLLAMA_FLASH_ATTENTION=1
。国内下载不动 → LM Studio 设置 → Hugging Face 代理打开;Ollama 用代理命令
HTTPS_PROXY=http://127.0.0.1:7890 ollama pull xxx
。
9. 一键复盘(Checklist 海报)
✅ 安装 Ollama 或 LM Studio
✅ 跑通 llama3.1:8b 对话
✅ uv 创建 weather-mcp
✅ Cursor 点亮绿灯
✅ 自然语言查天气成功
全部打钩?恭喜,你已经是「会部署本地大模型 + 写 MCP 服务」的那 1% 的人了