针对 Visual Studio 2022 用户,要打造一个高效率的“本地 AI 程序员”,关键在于选择一款能与 VS 2022 深度集成、且支持连接本地模型(如 Ollama)的插件。目前最高效的方案是使用 Visual Studio 的插件 Copilot (第三方开源版,非官方) 配合 Ollama。
以下是部署全流程:
方案架构
- 核心引擎: Ollama。负责在本地运行 DeepSeek 模型。
- 模型选择: DeepSeek-Coder-V2:16b。这是目前代码能力极强且适合本地部署的专用模型(如果显存不足,可退而求其次选择 deepseek-coder:6.7b)。
- IDE 插件: Visual Copilot (在 VS 扩展市场中搜索)。这是一个开源免费插件,能够将 Ollama 接入 VS 2022,提供代码补全和聊天功能。
详细部署步骤
- 第一步:配置本地模型引擎 (Ollama)
下载安装: 访问 Ollama 官网 下载并安装 Windows 版本。
拉取专用代码模型: 打开命令行(PowerShell 或 CMD),输入以下命令下载 DeepSeek 的代码模型:
ollama run deepseek-coder-v2:16b
注:如果您的显卡显存小于 12GB,建议使用 ollama run deepseek-coder:6.7b 以保证速度。
验证运行: 安装完成后,确保 Ollama 在托盘区运行,且在浏览器访问 http://localhost:11434 能看到 “Ollama is running” 字样。
- 第二步:安装并配置 Visual Studio 2022 插件
Visual Studio 2022 原生集成了 GitHub Copilot,但它无法连接本地 Ollama(除非使用代理转发,非常麻烦)。我们需要安装支持 OpenAI 兼容接口的第三方插件。
打开扩展管理器: 在 Visual Studio 2022 中,点击顶部菜单栏的 扩展 -> 管理扩展。
搜索插件: 在搜索框中输入 “Visual Copilot” (或者搜索 “CodeGPT” ,两者皆可,这里以 Visual Copilot 为例,因为它对 OpenAI 兼容性很好)。
安装: 点击下载,安装完成后 重启 VS 2022。
- 第三步:连接插件与 Ollama
重启后,我们需要告诉插件去哪里找本地模型:
打开设置: 在 VS 菜单栏找到新出现的 Visual Copilot 图标或菜单项,选择 Settings / Options。
配置 API 地址:
找到 Api Base (或 Endpoint) 一栏。
注意:必须加上 /v1,这是为了兼容 OpenAI 的协议格式。
配置密钥 (API Key):
找到 Api Key 一栏。
填入:ollama (或者随便填几个字符,本地模式下 Ollama 不验证 Key,但这栏通常不能为空)。
配置模型名称: