2026年3月27日,来腾讯会议(限50人)了解掌握如何用Openclaw构建企业AI生产力
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

ollama v0.18.3 发布:VS Code 原生集成 + Agent 模式,本地 AI 开发体验全面革新

发布日期:2026-03-27 06:33:38 浏览次数: 1522
作者:福大大架构师每日一题

微信搜一搜,关注“福大大架构师每日一题”

推荐语

Ollama v0.18.3重磅更新,VS Code原生集成+Agent模式让本地AI开发更高效便捷!

核心内容:
1. VS Code原生集成:一行命令实现无缝连接,三步操作调用本地模型
2. Agent模式开放:增强本地大模型在开发场景的交互能力
3. 底层优化升级:83个文件修改全面提升工具稳定性与性能

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

 

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

一、版本总览:Ollama v0.18.3,2026年3月26日正式上线

2026年3月26日,开源本地大模型管理工具Ollama正式发布v0.18.3版本,这是Ollama在AI开发工具集成领域的一次里程碑式升级。本次更新核心聚焦VS Code深度原生集成Agent模式能力开放两大核心功能,同时完成多项底层优化与Bug修复,进一步强化了本地大模型在开发场景中的实用性与稳定性。

从版本更新数据来看,本次v0.18.3版本由8位贡献者共同参与,累计提交22次代码提交,涉及83个文件修改,覆盖从核心功能开发、文档更新到底层引擎优化的全流程,是一次功能与稳定性并重的全面升级。

二、核心功能一:Ollama原生启动VS Code,本地模型无缝融入开发环境

2.1 功能核心:一行命令打通Ollama与VS Code

Ollama v0.18.3最重磅的更新,是实现了Ollama直接启动VS Code的原生能力,开发者无需额外配置复杂的插件或中间件,仅需一行命令即可完成Ollama与VS Code的深度绑定,让本地大模型成为VS Code开发环境的原生组成部分。

启动命令极为简洁,在终端中输入以下任意一条命令即可:

ollama launch vscode
# 或
ollama launch code

执行命令后,Ollama会自动完成与VS Code的连接配置,无需手动修改VS Code设置或安装第三方扩展,即可在VS Code中直接调用本地部署的所有Ollama模型。

2.2 操作流程:三步在VS Code中使用Ollama模型

命令执行完成后,开发者可通过以下三步,在VS Code的Copilot Chat中无缝使用Ollama本地模型,实现AI辅助编码:

  1. 1. 打开Copilot Chat:在VS Code中打开Copilot Chat界面,macOS系统使用快捷键Ctrl+Cmd+I,Windows/Linux系统使用快捷键Ctrl+Alt+I
  2. 2. 选择模型选择器:在Copilot Chat的输入框上方,找到并点击模型选择器(Model Picker);
  3. 3. 选择Ollama模型:在模型选择器中点击Other models(其他模型)选项,即可在列表中找到所有本地部署的Ollama模型,选择后即可开始使用本地或云端模型进行编码辅助。

这一流程彻底简化了本地大模型与VS Code的集成步骤,此前开发者需手动安装Continue、Copilot Chat等扩展并配置模型地址,而Ollama v0.18.3通过原生集成,将这一过程压缩为一行命令+三步操作,大幅降低了本地AI开发的使用门槛。

2.3 功能价值:本地模型+VS Code,打造私有化AI开发环境

Ollama原生启动VS Code的核心价值,在于为开发者提供了私有化、离线化、可定制的AI开发环境:

  • • 数据安全:所有代码交互与模型推理均在本地完成,无需将代码上传至云端,彻底解决企业与个人开发者的代码隐私顾虑;
  • • 离线可用:无需依赖网络连接,即可在无网环境下使用本地模型进行代码生成、调试与优化,适配离线开发场景;
  • • 模型自由:支持所有Ollama兼容的本地模型(如Llama 3、Qwen、DeepSeek-Coder等),开发者可根据需求选择轻量级或高性能模型,无需受限于云端模型的选择范围;
  • • 无缝协同:与VS Code原生功能深度融合,支持代码补全、错误修复、文档生成等全场景开发辅助,无需在多个工具间切换。

三、核心功能二:Agent模式上线,Ollama化身VS Code智能开发助手

3.1 Agent模式定义:让Ollama具备自主执行开发任务的能力

Ollama v0.18.3正式开放Agent模式,这一功能让Ollama能够借助VS Code的Agent模式能力,自主执行命令、编辑文件、迭代代码,从单纯的“问答式AI助手”升级为“可行动的开发智能体”,大幅提升AI在开发流程中的自动化能力。

简单来说,Agent模式下的Ollama不再局限于“你问我答”,而是可以根据开发者的指令,直接操作VS Code完成一系列开发任务,例如运行测试、修复Bug、生成文档、修改代码等,实现开发流程的自动化与智能化。

3.2 实用指令:Agent模式下的高频开发指令示例

Agent模式支持开发者通过自然语言指令,让Ollama自主完成复杂开发任务,以下是本次更新中官方推荐的高频实用指令,覆盖测试、文档、代码生成三大核心场景:

  1. 1. 测试相关指令
  • • “Run the tests and fix any failures”(运行测试并修复所有失败用例):Ollama会自动运行项目测试,定位失败原因,直接修改代码修复问题;
  • • “Generate unit tests for this file”(为当前文件生成单元测试):自动分析当前文件的代码逻辑,生成覆盖核心功能的单元测试代码;
  • 2. 文档相关指令
    • • “Update the README with the new API changes”(根据新的API变更更新README文档):自动识别项目API的更新内容,同步修改README文档,确保文档与代码一致;
  • 3. 代码迭代指令
    • • 支持“优化当前函数性能”“重构代码结构”“添加注释”等自定义指令,Ollama会根据指令自主编辑代码文件,完成迭代优化。

    3.3 功能优势:Agent模式重构本地AI开发流程

    Agent模式的推出,彻底改变了本地大模型在开发中的角色,核心优势体现在三个方面:

    • • 任务自动化:将开发者从重复、繁琐的开发任务中解放,例如测试修复、文档更新、代码生成等,大幅提升开发效率;
    • • 上下文感知:基于VS Code的项目上下文,Ollama可精准理解项目结构、代码逻辑与开发需求,执行的操作更贴合实际开发场景;
    • • 全流程协同:从代码编写、测试到文档维护,Agent模式覆盖开发全流程,实现AI与开发工具的深度协同,打造“一站式”智能开发体验。

    四、其他核心更新:底层优化+集成增强,全面提升Ollama稳定性

    除了VS Code集成与Agent模式两大核心功能,Ollama v0.18.3还完成了多项底层优化与集成能力增强,覆盖工具调用解析、第三方集成、引擎修复、功能完善等多个维度,进一步夯实了Ollama的稳定性与兼容性。

    4.1 工具调用优化:GLM解析器升级,提升工具调用稳定性

    本次更新对GLM解析器进行了专项优化,重点提升了模型工具调用(Tool Calls)的解析能力与稳定性。GLM解析器是Ollama处理模型工具调用请求的核心组件,优化后可更精准地解析模型输出的工具调用指令,减少解析错误与格式异常,确保Agent模式下的命令执行、文件操作等功能稳定运行,为Agent模式的落地提供了底层支撑。

    4.2 第三方集成增强:OpenClaw集成优化,完善网关检查逻辑

    Ollama v0.18.3对OpenClaw集成进行了深度优化,重点改进了网关检查(Gateway Checks)的逻辑与稳定性。OpenClaw是Ollama的重要第三方集成组件,用于实现模型的联网搜索、外部服务调用等能力,本次优化后:

    • • 网关健康检查逻辑更健壮,可适配不同网络环境与部署场景;
    • • 修复了无守护进程安装时的网关检查冗余问题,减少不必要的系统资源消耗;
    • • 提升了OpenClaw与Ollama核心服务的协同效率,确保联网能力稳定可用。

    4.3 底层引擎修复:MLX Runner多项修复,优化推理性能

    针对MLX Runner(Ollama的核心推理引擎之一),本次更新修复了多项关键问题,同时优化了缓存机制与推理性能:

    1. 1. 修复Slice(0, 0)返回异常:修复了MLX Runner中Slice(0, 0)操作返回完整维度而非空维度的Bug,确保张量操作的准确性;
    2. 2. KV缓存共享优化:实现了KV缓存跨会话共享,对于具有公共前缀的对话会话,可复用已缓存的KV数据,大幅降低重复推理的内存消耗与时间成本;
    3. 3. 缓存管理增强:支持纯Transformer缓存的部分匹配,优化缓存命中率;在缓存转储树中显示“上次使用时间”,方便开发者监控缓存状态;修复了双重取消固定(double unpin)导致的panic问题,提升引擎稳定性;
    4. 4. 格式支持扩展:新增mxfp4、mxfp8、nvfp4等量化格式的导入支持,适配更多量化模型,提升本地推理的兼容性。

    4.4 功能完善与Bug修复:覆盖桌面端、日志、CI等全场景

    本次更新还完成了多项功能完善与Bug修复,覆盖桌面应用、日志系统、CI流程、交互界面等多个维度:

    1. 1. 桌面应用修复:修复了OLLAMA_HOST配置为未指定地址时,桌面应用 stuck加载的问题,提升桌面端兼容性;
    2. 2. 日志系统优化:新增调试请求日志开关,支持开启详细的请求日志记录,方便开发者排查问题;修复了MLX子进程日志死锁问题,确保日志输出稳定;
    3. 3. 交互界面优化:TUI(终端交互界面)的模型选择器新增左箭头返回导航功能,提升终端操作的便捷性;
    4. 4. CI流程修复:修复了Windows平台下CGO编译器错误,确保CI/CD流程在Windows环境下稳定运行;
    5. 5. 配置优化:launch模块新增“模型未变更时跳过冗余配置写入”逻辑,减少不必要的磁盘IO,提升启动效率;
    6. 6. API修复:修复了api/show模块中Copilot Chat的basename覆盖问题,确保模型信息展示准确。

    4.5 文档更新:完善集成指南,覆盖OpenClaw、Claude Code等场景

    为配合新功能上线,Ollama官方同步更新了文档内容,重点完善了第三方集成与使用指南:

    • • 更新Claude Code相关文档,新增Telegram集成指南,扩展Claude模型的使用场景;
    • • 新增Nemoclaw集成文档,完善OpenClaw生态的使用说明;
    • • 更新OpenClaw的Web搜索相关文档,明确联网能力的使用方法与配置细节。

    五、版本更新明细:按时间线梳理所有提交内容

    Ollama v0.18.3版本的代码提交覆盖2026年3月18日至3月25日,以下按时间线完整梳理所有提交内容,确保无遗漏:

    5.1 3月18日提交

    1. 1. 文档更新:更新Claude代码与OpenClaw的Web搜索相关内容;
    2. 2. 配置优化:cmd/launch模块新增“模型未变更时跳过冗余配置写入”逻辑;
    3. 3. MLX Runner修复:修复Slice(0, 0)返回异常问题;
    4. 4. MLX Runner优化:实现KV缓存跨会话共享(公共前缀复用)。

    5.2 3月19日提交

    1. 1. 桌面应用修复:修复OLLAMA_HOST未指定时桌面应用加载卡住问题;
    2. 2. 工具解析优化:parsers模块新增健壮的XML工具修复功能,提升工具调用稳定性。

    5.3 3月20日提交

    1. 1. 功能新增:新增调试请求日志开启功能;
    2. 2. MLX修复:修复子进程日志死锁问题;
    3. 3. MLX Runner修复:修复done通道值被第一个接收者消费的问题;
    4. 4. OpenClaw优化:launch模块新增“无守护进程安装时跳过OpenClaw网关健康检查”逻辑;
    5. 5. 文档更新:新增Nemoclaw集成文档。

    5.4 3月23日提交

    1. 1. MLX更新:同步更新MLX引擎至3月23日版本;
    2. 2. 文档更新:更新Claude Code文档,新增Telegram集成指南。

    5.5 3月24日提交

    1. 1. MLX Runner优化:支持纯Transformer缓存的部分匹配;
    2. 2. MLX Runner优化:缓存转储树中显示“上次使用时间”;
    3. 3. MLX Runner修复:修复双重取消固定导致的panic问题;
    4. 4. 格式支持:新增mxfp4、mxfp8、nvfp4量化格式导入支持;
    5. 5. 测试优化:提升单个模型的测试能力;
    6. 6. CI修复:修复Windows平台CGO编译器错误。

    5.6 3月25日提交

    1. 1. TUI优化:模型选择器新增左箭头返回导航功能;
    2. 2. 核心功能开发:实现ollama launch vscode核心功能;
    3. 3. API修复:修复api/show模块中Copilot Chat的basename覆盖问题。

    六、总结:Ollama v0.18.3,本地AI开发的“效率革命”

    代码地址:bgithub.xyz/ollama/ollama

    Ollama v0.18.3版本的发布,标志着本地大模型在开发工具集成领域进入了全新阶段。本次更新通过VS Code原生集成Agent模式开放两大核心功能,彻底打通了本地大模型与主流开发编辑器的壁垒,让私有化、离线化的AI开发成为现实;同时,底层引擎的全面优化、第三方集成的增强以及多项Bug修复,进一步提升了Ollama的稳定性与实用性。

     


    53AI,企业落地大模型首选服务商

    产品:场景落地咨询+大模型应用平台+行业解决方案

    承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

    联系我们

    售前咨询
    186 6662 7370
    预约演示
    185 8882 0121

    微信扫码

    添加专属顾问

    回到顶部

    加载中...

    扫码咨询