VSCode 离线使用 CodeGeeX 需手动安装 ≥2.6 版本插件、Ollama 运行 codegeex4 模型并监听 11434 端口,配置 localMode、apiBase 为 http://localhost:11434/v1/chat/completions、model 为 codegeex4,且 apiKey 必须为空。

VSCode 安装 CodeGeeX 离线编程助手,核心在于「不联网也能用」——必须绕过智谱云 API,改用本地 Ollama 托管的 codegeex4 模型,并让插件走 http://localhost:11434/v1/chat/completions 这条本地通道。直接装官方插件、填 API Key 的方式在离线环境完全失效。
离线安装插件:先拿到 .vsix 文件再手动装
官网 Marketplace 无法访问,必须提前在有网机器上下载插件包。注意不是所有“CodeGeeX”插件都支持本地模式——要认准插件名含 “CodeGeeX: AI Code AutoComplete, Chat, Auto Comment”,发布者是 Zhipu AI,且版本号 ≥ 2.6(旧版无本地模式开关)。
- 打开 VS Code Marketplace 页面,搜索
CodeGeeX,点击“Download Extension”获取.vsix文件(如zhipuai.codegeex-2.6.0.vsix) - 把文件拷到离线机,VSCode 中按
Ctrl+Shift+X→ 右上角⋯→Install from VSIX→ 选中该文件 - 若提示“已禁用其他 AI 插件”,请先卸载
Tabby、Continue或旧版CodeGeeX,避免Ctrl+Enter等快捷键冲突
Ollama 部署 codegeex4:选对模型和端口是关键
CodeGeeX4 的原生 GGUF 模型(如 codegeex4-all-q4_0.gguf)比 9B 全量版更适配普通笔记本;但无论选哪个,必须确保 Ollama 启动后监听的是插件能连上的地址,默认 11434 端口常被 Docker 或旧版 Ollama 占用。
- Windows 下检查端口:打开资源监视器 → “网络”选项卡 → 查找 PID 对应的进程,结束占用
11434的程序 - 启动带自定义端口的 Ollama:
set OLLAMA_HOST=127.0.0.1:11436 && ollama serve
,然后运行模型:ollama run codegeex4
- Linux/macOS 用户需额外设跨域:
export OLLAMA_ORIGINS="*"
,否则插件发请求会因 CORS 被浏览器内核拦截(VSCode 内部 Chromium 引擎也受此限)
VSCode 插件配置:三处设置缺一不可
插件界面里“登录”按钮在离线时点不动,这是正常现象——不要试图填账号密码或点“Allow”,所有验证逻辑此时应被跳过。真正起作用的是以下三项手动配置:
- 开启
codegeex.localMode:在 VSCode 设置中搜该关键词,勾选启用(这是切换为本地模式的总开关) - 填写 API 地址:
codegeex.apiBase设为http://localhost:11434/v1/chat/completions(注意末尾路径必须是/v1/chat/completions,填错成/api/chat或漏掉v1会导致 404) - 指定模型名:
codegeex.model填codegeex4(必须与ollama list输出的第一列名称完全一致,大小写敏感)
验证是否真离线:看请求发往哪、有没有密钥依赖
最可靠的验证方式不是看补全弹出来没,而是抓包确认流量没出本机。打开 VSCode 开发者工具(Ctrl+Shift+I → Network 标签),输入代码触发补全,观察请求目标域名是否为 localhost;同时确认设置里 codegeex.apiKey 是空的——只要这里填了任何字符串,插件就会优先走云端,本地配置自动失效。
容易被忽略的一点:Ollama 默认只允许 localhost 访问,如果你在 WSL2 或远程桌面中使用 VSCode,需把 OLLAMA_HOST 改成 0.0.0.0:11434 并开放防火墙端口,否则连接会超时。











