微信扫码
添加专属顾问
我要投稿
将复杂HTML文档一键转换为AI友好的Markdown格式,极大提升信息处理效率。 核心内容: 1. Fetch MCP Server概述及其核心功能 2. 安装与配置指南,包括uv和Docker两种方式 3. 高级定制选项,如robots.txt处理和用户代理设置
喂Cursor技术文档还有手动复制粘贴?
今天的MCP精选集介绍一个好用的Server:Fetch MCP Server
Fetch MCP Server是一个基于Model Context Protocol的服务器,专门提供网页内容获取和处理功能。
除了检索和处理网页内容,还能将HTML转换为更易于消费的markdown格式。Fetch MCP Server极大地增强了AI模型理解和分析网络信息的能力。
Fetch MCP Server提供了一个名为fetch的强大工具,具有以下参数:
url (字符串,必填):要获取的URLmax_length (整数,可选):返回的最大字符数(默认:5000)start_index (整数,可选):从此字符索引开始获取内容(默认:0)raw (布尔值,可选):获取原始内容而不进行markdown转换(默认:false)这个Server的特点是定制化和可控性。
能够按需截断响应,并通过使用start_index参数,指定从何处开始提取内容。模型能够分块阅读网页,直到找到所需的信息。
使用uv安装(推荐)
使用uv时不需要特定的安装步骤。我们将使用uvx直接运行mcp-server-fetch。
关于 uv的更多资料,请点击这里:放弃 pip/venv,拥抱 uv
uvx mcp-server-fetch
为Claude Desk配置,将以下配置添加到Claude配置项中,具体配置的方法可以参照这里:链接?
使用uvx
{
"mcpServers": {"fetch": {"command": "uvx","args": ["mcp-server-fetch"]}
}}{
"mcpServers": {"fetch": {"command": "docker","args": ["run", "--rm", "-i", "ghcr.io/modelcontextprotocol/fetch:main"]}
}}默认情况下,服务器会将遵守网站的robots.txt文件,但是通过在配置中的args列表中添加--ignore-robots-txt参数来禁用此功能。
robots.txt是网站和网络爬虫之间的君子协定,一般个人使用的话可以放开。
默认情况下,根据请求是来自模型(通过工具)还是由用户发起(通过提示),服务器将使用以下用户代理之一:
ModelContextProtocol/1.0 (Autonomous; +https://github.com/modelcontextprotocol/servers)
那当然,完全可以通过在配置中的args列表中添加--user-agent=YourUserAgent参数来自定义用户代理。
MCP服务器的一个关键特点是,只用自然语言就能使用。以下是Fetch MCP Server的几个实际应用场景:
以Claude桌面应用中,配置好Fetch MCP Server,可以直接要求Claude获取并分析网页内容:
用户: "请使用Fetch工具获取'https://nextjs.org/docs'的内容,并分析其中的主要观点。"
Claude: "我将使用Fetch工具获取该网页内容..."
此时,Claude会自动调用已配置的Fetch MCP Server,获取网页内容,然后分析并总结该内容,无需编写任何代码或执行API调用。
需要比较多个网页的内容时,使用:
用户: "请获取以下三个网页的内容并比较它们的异同:
Claude: "我会依次获取这三个网页并进行比较分析..."
Claude会使用Fetch MCP Server获取每个URL的内容,然后进行比较分析,为您提供一个综合的对比结果。
对于特别长的网页,Claude可以利用Fetch MCP Server的start_index参数分块读取:
用户: "https://example.com/longpage 这个页面很长,请帮我分析其内容"
Claude: "我注意到这是一个长网页,我将分块读取它..."
在这种情况下,Claude会自动判断需要多次获取内容,每次使用不同的start_index来获取网页的不同部分,直到它收集到足够的信息来回答您的问题。它可能会这样操作:
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-11
左脚踩右脚:大模型的有趣且简单的微调方式“SHADOW-FT”
2025-12-11
大模型训练的高效内存解决方案:流水线感知的细粒度激活卸载,实现显存开销与吞吐性能的联合最优
2025-12-08
一杯咖啡成本搞定多模态微调:FC DevPod + Llama-Factory 极速实战
2025-12-04
OpenAI公开新的模型训练方法:或许能解决模型撒谎问题,已在GPT-5 thiking验证
2025-11-23
微调Rerank模型完整指南
2025-11-22
大模型微调全流程实战指南:基于IPO框架的深度解析与优化
2025-11-21
AI基础 | Qwen3 0.6B 微调实现轻量级意图识别
2025-11-20
从零开始:手把手教你微调Embedding模型,让检索效果提升10倍!
2025-10-12
2025-10-14
2025-10-21
2025-09-24
2025-09-20
2025-09-25
2025-11-05
2025-11-05
2025-11-21
2025-12-04