免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

告别 LangChain 的复杂,用 SimpleLLMFunc 优雅调用 LLM!

发布日期:2025-12-26 19:24:19 浏览次数: 1517
作者:假于物

微信搜一搜,关注“假于物”

推荐语

告别LangChain的复杂设计,SimpleLLMFunc让你用最简单的方式调用LLM,就像写普通函数一样轻松!

核心内容:
1. LangChain框架的复杂性与痛点分析
2. SimpleLLMFunc的核心设计理念与优势
3. 实际代码示例展示其简洁优雅的使用方式

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

最近在做一个需要集成 LLM 能力的项目,一开始想当然地选择了 LangChain。结果用了两天就放弃了——不是说它不好,而是对我这种需求来说,实在是太重了

文档翻了半天找不到重点,为了实现一个简单的功能要理解一堆抽象概念,代码里到处是框架特定的类和方法。更要命的是,我只是想让 LLM 帮我做个文本分类,为什么要学习这么多额外的东西?

就在我准备手撸 API 调用代码的时候,无意中发现了 SimpleLLMFunc。试用了一下午,感觉找到了我理想中的工具——简单、直观、不过度设计。今天就来分享一下我的使用体验。

SimpleLLMFunc 是什么? 🎯

SimpleLLMFunc 是一个轻量级的 Python LLM 应用开发框架,它的核心理念可以用两句话概括:

  • LLM as Function:把 LLM 调用当作普通的 Python 函数
  • Prompt as Code:Prompt 直接写在函数的 DocString 里

听起来简单,但实际用起来确实非常优雅。它通过一个简单的装饰器,就能把你的 Python 函数变成一个 LLM 驱动的函数,自动处理 API 调用、消息构建、响应解析这些繁琐的工作。

最吸引我的几个点 ✨

1. 真的很简单

看看这段代码,你就明白我为什么喜欢它了:

from SimpleLLMFunc import llm_function, OpenAICompatible

# 加载 LLM 配置
llm = OpenAICompatible.load_from_json_file("provider.json")["DeepSeek"]["v3"]

@llm_function(llm_interface=llm)
asyncdefclassify_sentiment(text: str) -> str:
"""
    分析文本的情感倾向。

    Args:
        text: 需要分析的文本

    Returns:
        情感分类,可以是 'positive'、'negative' 或 'neutral'
    """

pass# 是的,函数体真的可以是 pass!

# 使用
result = await classify_sentiment("这个产品太棒了!")
print(result)  # 输出: positive

就这样,一个完整的情感分类功能就实现了。Prompt 写在 DocString 里,清晰明了;函数体直接 pass,因为装饰器会帮你处理所有事情。

2. 类型安全,IDE 友好 💡

作为一个习惯了类型提示的 Python 开发者,我很在意代码补全和类型检查。SimpleLLMFunc 支持用 Pydantic 模型作为返回类型,这意味着:

from pydantic import BaseModel, Field
from typing importList

classProductReview(BaseModel):
    rating: int = Field(..., description="评分,1-5分")
    pros: List[str] = Field(..., description="优点列表")
    cons: List[str] = Field(..., description="缺点列表")
    summary: str = Field(..., description="总结")

@llm_function(llm_interface=llm)
asyncdefanalyze_review(product: str, review: str) -> ProductReview:
"""你是一个专业的产品评测专家..."""
pass

result = await analyze_review("无线耳机""音质不错,但连接不稳定")
# result 是 ProductReview 对象,有完整的类型提示
print(result.rating)  # IDE 会自动补全
print(result.pros)    # 类型检查也没问题

返回的直接是 Pydantic 模型实例,不需要手动解析 JSON,IDE 也能提供完整的代码补全。这种开发体验真的很舒服。

3. 支持多模态 📸

如果你需要处理图片,SimpleLLMFunc 也支持:

from SimpleLLMFunc.typeimport ImgPath, ImgUrl, Text

@llm_function(llm_interface=llm)
asyncdefanalyze_image(
    description: Text,
    web_image: ImgUrl,
    local_image: ImgPath
) -> str:
"""
    分析图片并根据描述提供详细说明

    Args:
        description: 对图片分析的具体要求
        web_image: 要分析的网络图片 URL
        local_image: 用于对比的本地参考图片路径
    """

pass

result = await analyze_image(
    description=Text("请详细描述这两张图片的差异"),
    web_image=ImgUrl("https://example.com/image.jpg"),
    local_image=ImgPath("./reference.jpg")
)

文本、网络图片、本地图片,统统支持,类型也很清晰。

4. 工具系统很灵活 🛠️

当你需要让 LLM 调用外部函数时(比如查询天气、搜索数据库),SimpleLLMFunc 提供了 @tool 装饰器:

from SimpleLLMFunc.tool import tool
from pydantic import BaseModel

classLocation(BaseModel):
    latitude: float
    longitude: float

@tool(name="get_weather", description="获取指定位置的天气信息")
asyncdefget_weather(location: Location, days: int = 1) -> dict:
"""
    获取指定位置的天气预报

    Args:
        location: 位置信息,包含经纬度
        days: 预报天数,默认1天
    """

# 这里可以调用实际的天气 API
return {"temperature"25"condition""晴天"}

# 在 llm_function 中使用
@llm_function(llm_interface=llm, toolkit=[get_weather])
asyncdefweather_assistant(query: str) -> str:
"""你是一个天气助手,可以查询天气信息..."""
pass

工具函数可以直接被 LLM 调用,而且还可以返回图片等多模态内容。更棒的是,一个函数既可以被 @tool 装饰,也可以被 @llm_function 装饰,组合起来非常灵活。

5. 完整的可观测性 📊

SimpleLLMFunc 内置了结构化日志和 Langfuse 集成。每次调用都有自动生成的 trace_id,可以追踪完整的调用链路:

GLaDos_c790a5cc-e629-4cbd-b454-ab102c42d125
├── 函数调用输入参数
├── LLM 请求内容
├── Token 使用统计
├── 工具调用(如果有)
├── LLM 响应内容
└── 执行时间和性能指标

这对于调试和性能优化非常有帮助。你也可以用 app_log 添加自己的日志:

from SimpleLLMFunc.logger import app_log, log_context

with log_context(trace_id="task_123", function_name="my_task"):
    app_log("开始处理任务")
    # 所有日志自动关联到同一个 trace_id

安装和配置 ⚙️

安装非常简单:

pip install SimpleLLMFunc

然后创建一个 provider.json 配置文件,配置你的 LLM 服务商:

{
    "deepseek":[{
"model_name":"deepseek-chat",
"api_keys":["sk-your-api-key"],
"base_url":"https://api.deepseek.com/v1",
"max_retries":5,
"rate_limit_capacity":10
}],
"openai":[{
"model_name":"gpt-4",
"api_keys":["sk-your-api-key"],
"base_url":"https://api.openai.com/v1"
}]
}

SimpleLLMFunc 使用 OpenAI 兼容的接口,所以除了 OpenAI,Deepseek、Claude、本地 Ollama 等都可以用。配置文件还支持多个 API key,自动做负载均衡和流量控制。

一些实际使用中的感受 💭

优点:

  • 学习成本低,基本看完 README 就能上手
  • 代码可读性强,Prompt 和逻辑都在函数里,不需要到处找
  • 类型安全,配合 Pydantic 开发体验很好
  • 异步原生支持,高并发场景也没问题
  • 文档写得清楚,中英文都有

需要注意的点:

  • 所有装饰器返回的都是异步函数,需要用 await 调用
  • 小模型可能无法正确输出结构化 JSON(不过框架会自动重试)
  • 如果需要复杂的 DAG 工作流,可能还是要配合其他工具

适合谁使用? 👥

根据我的使用经验,SimpleLLMFunc 特别适合:

  • 快速原型开发:想快速验证 LLM 能力,不想陷入框架学习
  • 中小型项目:不需要超复杂的编排,但希望代码优雅易维护
  • 对类型安全有要求的开发者:习惯了 Python 类型提示和 IDE 补全
  • 已有 Python 项目集成 LLM:可以用最小代价加入 LLM 能力

如果你的需求是企业级的复杂 Agent 系统,可能还是需要更重型的框架。但对于大部分场景,SimpleLLMFunc 已经足够了。

结语 📝

SimpleLLMFunc 让我重新思考了 LLM 应用开发的方式。有时候,我们不需要那么多抽象和概念,只需要一个简单、直观、好用的工具。

"Prompt as Code, Code as Doc" 这个理念真的很棒——Prompt 就在函数里,代码即文档。对于追求简洁和效率的开发者来说,这个工具值得一试。

项目地址:https://github.com/NiJingzhe/SimpleLLMFunc

文档地址:https://simplellmfunc.readthedocs.io

如果你也在寻找一个轻量级的 LLM 开发框架,不妨试试看,说不定也会有惊喜 😊

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询