微信扫码
添加专属顾问
我要投稿
自然语言编程工具大比拼:Claude Code与Gemini CLI谁更胜一筹? 核心内容: 1. 终端AI工具爆火原因:从复杂操作到自然语言交互的转变 2. Gemini CLI与Claude Code的核心差异对比(上下文长度、成本等) 3. 开发者如何根据需求选择最适合的AI编程工具
今年以来,AI coding火得一塌糊涂。
除了创业公司黑马项目Cursor之外,2 月Anthropic推出了 Claude Code ;4 月 OpenAI 推出了 Codex CLI 之后,几天前,谷歌也正式推出了 Gemini CLI。
作为一款开源( 基于Apache 2.0 许可)的、能够运行在终端的 AI 智能体,谷歌 Gemini CLI 能让用户以自然语言的形式就能与AI交互,仅用了一天时间,就在GitHub上获得了 15.1k 星。
其优势简单来说有四:
开源且免费:Gemini CLI 接入的是谷歌免费、顶级大模型Gemini 2.5 Pro。使用个人 Google 账号登录,即可免费获得 Gemini Code Assist许可,预览期间,每分钟最多 60 次、每日最多1,000 次请求,全部免费。
多任务框架:可以支持编程、文件管理、内容生成、脚本控制、Deep Research 在内的各种任务等。当然,各种任务之中,Gemini CLI 最擅长的,还是编程。
轻量:用户可以将其嵌入终端脚本,或者当 Agent 来用。
超长上下文:上下文长度可以达到100万Token。也就是说,对一些小项目来说,这个上下文长度,足以直接读完完整的代码库。
那么问题来了,超强模型支持且免费,那么Gemini CLI VS 此前最火的Claude Code,这两个终端AI工具,该选谁?
传统IDE虽然功能丰富,但存在一个核心痛点:操作流程过于复杂。要重构一个函数,你需要经历多个步骤。
而终端AI工具彻底改变了这种工作模式,通过统一的对话界面,将所有操作简化为自然语言描述。不再需要记忆复杂的命令语法,你只需一句话:"帮我重构这个函数,提升代码可读性",就能完成整个操作。
这种变化的本质是将复杂的技术操作抽象为自然语言交互,让开发者能够专注于业务逻辑而非工具操作。
上下文窗口大小是两个工具最关键的差异:
Gemini CLI:支持100万token(约75万字),未来或将扩展至200万token
Claude Code:支持20万token(约15万字)
这个差异在实际使用中意味着什么?通常来说,更长的上下文,往往意味着模型能够在生成回答时,参考更多的输入内容,这对于涉及长对话、复杂任务、或者长文档理解的任务特别重要。与此同时,在多轮对话中,更长的上下文,也意味着模型能够更好地维持对话的连贯性,直白来说,就是记性更好。而100万Token,足够大模型直接读完一些小项目的完整代码库。
Gemini CLI的免费策略:
每天可以免费使用1000次,每分钟最多发送60个请求,这对个人开发者和小团队来说非常划算
Claude Code的付费模式:
采用付费模式,按实际使用量收费,用得越多花费越高。但这种模式也意味着企业级的安全保障和专业技术支持,特别适合那些对代码质量要求严格的商业项目使用
这是基于多个独立评测的综合数据:
Gemini CLI 在跨平台支持方面表现出色,从发布之初就全面兼容 Windows、macOS 和 Linux 三大主流操作系统,这种广泛的兼容性使其在多样化的开发环境和企业部署中具备明显优势。
Claude Code 在早期阶段主要针对 macOS 进行优化,虽然技术上可以在其他平台运行,但其核心功能和用户体验的重点仍集中在 macOS 生态系统,这在以 Windows 为主导的企业环境中可能会成为采用时的考虑因素。
Claude Code:访问权限与 Anthropic 的付费订阅(Pro、Max、Team 或 Enterprise)或通过 AWS Bedrock/Vertex AI 的 API 使用情况绑定 。
Gemini CLI:为使用个人 Google 账户的个人用户提供了非常慷慨的免费套餐,每天可免费使用功能齐全的 Gemini 2.5 Pro 模型发出 1,000 次请求,每分钟 60 次 。对于需要更高限额或特定模型的专业用户,可通过 API 密钥使用付费套餐 。
Claude Code安装流程
(依赖 npm
进行安装,要求 Node.js 版本为 18 或更高)
# 安装Claude Codenpm install -g @anthropic-ai/claude-code# 配置API密钥claude config set api-key YOUR_API_KEY# 验证安装claude --version
启动Claude Code
claude
Claude Code 初次使用配置技巧
Claude Code 使用技巧1:项目探索与理解
# 让Claude分析项目架构> 分析这个项目的主要架构组件# 了解安全机制> 这个系统有哪些安全措施?# 获取代码概览> 给我一个这个代码库的整体概述
提示:刚接触新项目时,先让Claude-Code帮你理解整体结构,这比直接阅读代码更高效。
Claude Code 使用技巧2:代码生成与修改
# 实现具体功能> 为GitHub issue #123实现一个初始版本# 代码迁移> 帮我将这个代码库迁移到最新的Java版本,先制定一个计划# 代码重构> 重构这个函数,使其更易读和维护
提示:描述需求时要具体明确,包含上下文信息,Claude-Code会给出更准确的建议。
Claude Code 使用技巧3:问题诊断与调试
# 错误分析> 这个错误是什么原因造成的?如何修复?# 性能优化> 分析这段代码的性能瓶颈# 代码审查> 审查这个pull request,指出潜在问题
使用建议
渐进式学习:从简单的代码解释开始,逐步尝试复杂的代码生成
上下文管理:保持对话连贯性,Claude-Code会记住之前的讨论内容
反馈机制:使用/bug
命令报告问题,帮助改进工具[[citation:2]]
隐私意识:了解数据收集政策,敏感代码谨慎使用
(依赖 npm
进行安装,要求 Node.js 版本为 18 或更高)
Gemini CLI安装流程
# 安装Gemini CLInpm install -g @google/gemini-cli# 登录Google账户gemini auth login# 验证安装gemini --version
启动Gemini CLI
gemini
认证配置技巧
个人账户认证:使用Google个人账户登录,获得每分钟60次请求限制
API密钥配置(高级用户):
export GEMINI_API_KEY="YOUR_API_KEY"
Gemini CLI 初次使用配置技巧
Gemini CLI使用技巧1:代码库探索与分析
# 架构分析> 描述这个系统架构的主要组件# 安全审查> 这个系统有哪些安全机制?# 代码理解> 解释这个复杂的算法实现
提示:Gemini CLI支持1M token的上下文窗口,可以处理大型代码库的分析
Gemini CLI使用技巧2:多模态项目创建
# 从PDF生成应用> 根据这个PDF设计文档创建一个新的应用# 从草图生成代码> 基于这个UI草图生成相应的前端代码# 图像处理任务> 将这个目录中的所有图片转换为PNG格式,并使用EXIF数据重命名
提示:Gemini CLI的多模态能力是其独特优势,可以处理图片、PDF等多种输入格式。
Gemini CLI使用技巧3:集成工具与MCP服务器
# 连接外部工具> 使用MCP服务器连接我的本地系统工具# 媒体生成> 使用Imagen生成项目logo# 搜索集成> 使用Google搜索工具查找相关技术文档
Gemini CLI使用建议
项目导向:在具体项目目录中启动,让Gemini更好理解上下文
多模态利用:充分利用图片、文档输入能力
工具集成:探索MCP服务器和各种工具连接
搜索增强:利用内置的Google搜索功能获取最新信息
整体来说,如果你更看重性价比和想要快速试错,那就选Gemini CLI,它特别适合处理大项目和喜欢尝试新东西的开发者。但如果你对代码质量要求很高,做的是重要的商业项目,需要稳定可靠的企业级服务,那Claude Code会是更好的选择。
但用Gemini CLI、Claude Code就高枕无忧了吗。
很多开发者使用各种 AI 编程软件的时候,都有遇到过一个问题,那就是模型写完,自己还得一个个改回来。因为大模型生成的代码中,经常因为知识更新滞后,而出现一些去年或更早的代码写法,并不适配当前快速迭代的技术框架与最新开发规范。
举个例子,我最近在 Cursor 里让它写一段调用 OpenAI 的代码,
它给出的代码参考里,使用的还是gpt-3.5-turbo
这个模型:
严格来说,这不算错,gpt-3.5-turbo
甚至还是当初帮助 ChatGPT 横空出世的“功臣”模型。问题在于,大模型不知道gpt-3.5-turbo
早就被官方标记为 Legacy(老旧,遗产)。这个老旧,不只是知识老旧,价格更是现在代替者gpt-4o-mini
的3倍以上。
另外,检查生成的代码,我们,可以发现,openai.ChatCompleteion
也不再是被官方推荐的 API 使用方法,早在2025年3月12日,OpenAI 官方就建议使用 Response API 来代替 Chat Completions API。
那有没有一套方案,既能使用 Cursor 等 IDE 强大的 Vibe Coding 能力,又能准确地使用最新的代码文档信息,帮助我们高效且准确地编码吗?
答案很简单,把“现在的知识”喂给它。
最近,我们结合 MCP + RAG,在企业内部实现了一套 Vibe Coding 增强版方案 -- Milvus Code Helper MCP,帮助用户在使用 Milvus SDK 开发应用时,能够自动获取最新的 Milvus 文档内容,从而让 IDE 生成更加准确的代码。
我们正在考虑把这个服务在未来正式推出,来帮助大家更好地搭建基于Milvus 的上层应用代码,下面为其技术架构抢先版预览。
架构上看,这既是一个 MCP 架构,又是一个 RAG 架构。
从 MCP 角度看,主要从整体上看图中左右两个架构,左侧为 MCP Client(客户端),右侧是 MCP Server(服务端)。在 MCP 客户端,用户通过 Cursor、Windsurf 等 IDE 对话框里触发 MCP tools(工具) 调用,这些请求被发送到 MCP 服务端。MCP 服务端预设好有几个不同功能的 tools,每个 tool 对应一个常见的代码生成或修改需求,这些 tool 会从 Milvus 数据库里读取预先索引好的 Milvus SDK 文档信息。
从 RAG 角度看,主要看图中右侧 MCP Server 部分,服务端事先将文档信息向量化,并在 Milvus 数据库进行离线索引(Offline Indexing)。当 MCP tool 进行 Milvus 向量查询时,通过向量语义检索,获取相关的文档和代码片段。检索到的片段返回给 MCP 客户端,结合 LLM 大模型进行准确的代码生成。
目前我们已完成基本架构实现,并在内部几个业务线中使用稳定:它可以帮助团队减少大量重复性的代码校对工作,同时显著提升在 Milvus 上构建上层 AI 应用的开发效率。
未来,我们考虑把这个服务在未来正式推出,如果您有更好的工具链设计思路,也欢迎你加入我们,一起把这个工具打磨得更好。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-29
2025-04-11
2025-04-12
2025-04-06
2025-04-29
2025-04-12
2025-04-29
2025-04-17
2025-05-07
2025-05-07
2025-07-01
2025-07-01
2025-07-01
2025-07-01
2025-06-30
2025-06-30
2025-06-30
2025-06-27