微信扫码
添加专属顾问
我要投稿
想快速掌握分类模型的核心原理和应用场景?这篇文章为你梳理逻辑回归等经典算法的数学本质与实战技巧。核心内容: 1. 分类模型的类型与典型应用场景解析 2. 逻辑回归的数学原理与Sigmoid函数详解 3. 不同分类方法的比较与选择建议
本文建议阅读时长:6分钟
分类模型(Classification Models) 是监督学习中的另一大核心分支,目标是将输入样本正确地划分到预定义的类别中。与回归模型预测连续值不同,分类模型的输出是 离散的类别标签。
典型的分类任务包括垃圾邮件识别(邮件 → 正常/垃圾)、疾病诊断(患者症状 → 是否患病)、图像识别(图片 → 猫/狗/人)等。
在分类方法中,有的模型通过 概率推断 来进行分类(如逻辑回归、朴素贝叶斯),有的依赖 相似性度量(如 k 最近邻),还有的借助 决策边界与超平面 来完成划分(如支持向量机)。除此之外,树模型和集成方法也在分类问题中表现突出。
1. 逻辑回归
在分类任务中,我们常常希望回答这样的问题:
与线性回归类似,逻辑回归也尝试通过输入特征的线性组合来预测结果。但不同的是:
1.Sigmoid 函数
Sigmoid 函数将任意输入映射到 (0,1) 区间,非常适合用于二分类问题。
其中:
例如:
2.假设函数
逻辑回归的预测函数为:
这里
3.决策规则
最终分类时,逻辑回归采用 阈值法:
4.损失函数
逻辑回归使用 对数似然损失函数(Log Loss):
这个损失函数在概率接近真实标签时惩罚小,偏离时惩罚大,保证模型能更好地拟合概率分布。
直观点理解的话可以把逻辑回归想象成线性回归 + Sigmoid 激活函数,输出的是一个 事件发生的概率,最后通过阈值把概率转化为类别。
如果还不知道什么是激活函数,我在后面的深度学习内容中有讲。
下面依然是实践环节:
import numpy as npimport matplotlib.pyplot as pltfrom sklearn.datasets import make_classificationfrom sklearn.linear_model import LogisticRegressionfrom sklearn.metrics import accuracy_score# 生成二分类数据X, y = make_classification(n_samples=200, n_features=2,n_redundant=0, n_informative=2,random_state=42)# 拟合逻辑回归模型model = LogisticRegression()model.fit(X, y)# 预测y_pred = model.predict(X)print("准确率:", accuracy_score(y, y_pred))# 可视化分类边界x_min, x_max = X[:, 0].min()-1, X[:, 0].max()+1y_min, y_max = X[:, 1].min()-1, X[:, 1].max()+1xx, yy = np.meshgrid(np.linspace(x_min, x_max, 100),np.linspace(y_min, y_max, 100))Z = model.predict(np.c_[xx.ravel(), yy.ravel()])Z = Z.reshape(xx.shape)plt.contourf(xx, yy, Z, alpha=0.3)plt.scatter(X[:, 0], X[:, 1], c=y, edgecolors='k')plt.title("逻辑回归分类结果")plt.show()
运行结果如下,图中不同颜色的区域是逻辑回归划分的类别,数据点根据真实类别着色,可以看到逻辑回归学习到了一条线性决策边界。
简单总结,逻辑回归是一种 线性分类模型,通过 Sigmoid 函数输出概率,使用 对数似然损失 进行优化,简单高效,适合处理二分类问题,同时在高维稀疏数据(如文本分类)中也表现出色。
逻辑回归在金融:信用评分、违约预测,医疗:疾病诊断(如是否患癌症),市场营销:客户是否购买产品,NLP:文本情感分类(积极 / 消极)等方面已经成功实践。但是方法太简单,现在已经没人用了,不过依然是很重要的机器学习知识,所以学学还是有必要的!
2. 朴素贝叶斯
朴素贝叶斯是一类基于贝叶斯定理(Bayes’ Theorem)的概率分类方法。它以“特征条件独立”的假设为基础,因此被称为“朴素”。尽管这个假设在现实中往往过于简化,但在许多实际应用(如文本分类、垃圾邮件过滤、情感分析等)中,朴素贝叶斯依然能够取得令人满意的效果。
其核心思想是:通过训练数据估计每个类别的 先验概率 和 条件概率,在预测时利用贝叶斯公式计算样本属于不同类别的后验概率,并将其分配给概率最大的类别。
贝叶斯定理的数学形式为:
其中:
在分类任务中,
朴素贝叶斯的关键假设是:特征之间条件独立。即在给定类别
1. 训练阶段:
2. 预测阶段:
1. 高斯朴素贝叶斯(Gaussian NB)
2. 多项式朴素贝叶斯(Multinomial NB)
3. 伯努利朴素贝叶斯(Bernoulli NB)
import numpy as npimport matplotlib.pyplot as pltfrom sklearn.datasets import make_classificationfrom sklearn.naive_bayes import GaussianNBfrom sklearn.metrics import accuracy_scoredef naive_bayes_demo():"""朴素贝叶斯分类示例函数"""# 1. 构造二维分类数据X, y = make_classification(n_samples=200, n_features=2, n_classes=2,n_informative=2, n_redundant=0, random_state=42)# 2. 拆分训练集和测试集train_size = 150X_train, X_test = X[:train_size], X[train_size:]y_train, y_test = y[:train_size], y[train_size:]# 3. 训练 Gaussian Naive Bayes 模型model = GaussianNB()model.fit(X_train, y_train)# 4. 测试集预测y_pred = model.predict(X_test)acc = accuracy_score(y_test, y_pred)print(f"Accuracy: {acc:.2f}")# 5. 可视化分类边界x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1xx, yy = np.meshgrid(np.linspace(x_min, x_max, 200),np.linspace(y_min, y_max, 200))Z = model.predict(np.c_[xx.ravel(), yy.ravel()])Z = Z.reshape(xx.shape)plt.figure(figsize=(8, 6))plt.contourf(xx, yy, Z, alpha=0.4, cmap=plt.cm.coolwarm)plt.scatter(X_train[:, 0], X_train[:, 1], c=y_train, marker='o', label="Train")plt.scatter(X_test[:, 0], X_test[:, 1], c=y_test, marker='s', edgecolor="k", label="Test")plt.xlabel("Feature 1")plt.ylabel("Feature 2")plt.title("Naive Bayes Classification (GaussianNB)")plt.legend()plt.show()# 调用示例naive_bayes_demo()
朴素贝叶斯的优点是简单高效,训练和预测速度快;对小规模数据表现良好,抗噪声能力较强;在文本分类、情感分析等任务中效果突出;并且参数少,解释性强。但是缺点包括特征独立性假设往往不成立,可能降低分类精度;对连续特征需要分布假设,若分布不符合,性能会下降;当某些条件概率为零时,可能导致整体概率为零。
简单进行总结,朴素贝叶斯是一种基于概率论的经典分类算法,依赖于条件独立的假设。尽管这个假设在现实中通常并不严格成立,但在实际应用中,它常常能取得相对优秀的效果。尤其在文本处理任务中,朴素贝叶斯因其高效、稳健而成为一个重要的基准模型。
3. 最近邻(KNN)
K近邻算法(K-Nearest Neighbors, KNN)是一种常用的监督学习方法,既可用于分类,也可用于回归。它的核心思想非常直观:对于一个未知样本,计算它与训练集中所有样本的距离,找到距离最近的 K个邻居,然后根据这些邻居的类别或数值来确定预测结果。 KNN 不依赖于显式的模型假设,是一种 基于实例的学习方法,因此又称为 懒惰学习(Lazy Learning)。
KNN的基本思想如下:
是不是很简单,有同学就想了,就这,我也能想出来,但是一些最伟大的技术往往就源于最简单的思想,加油,说不定有一天你也可以提出一个震惊世界的理论。
KNN 的核心是“距离”的定义,常见的距离度量方式有:
不同的任务可根据特征类型和分布选择合适的距离度量。
from sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import StandardScalerfrom sklearn.neighbors import KNeighborsClassifierfrom sklearn.metrics import accuracy_score, classification_report# 1. 加载数据集iris = load_iris()X, y = iris.data, iris.target# 2. 划分训练集与测试集X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)# 3. 特征标准化(非常重要,避免不同量纲影响距离计算)scaler = StandardScaler()X_train = scaler.fit_transform(X_train)X_test = scaler.transform(X_test)# 4. 定义并训练KNN模型knn = KNeighborsClassifier(n_neighbors=5, weights='distance') # K=5,距离加权knn.fit(X_train, y_train)# 5. 预测y_pred = knn.predict(X_test)# 6. 评估结果print("Accuracy:", accuracy_score(y_test, y_pred))print("Classification Report:\n", classification_report(y_test, y_pred, target_names=iris.target_names))
import matplotlib.pyplot as pltimport numpy as np# 仅取iris前两个特征用于可视化X_vis = X[:, :2]X_train_vis, X_test_vis, y_train, y_test = train_test_split(X_vis, y, test_size=0.3, random_state=42)scaler = StandardScaler()X_train_vis = scaler.fit_transform(X_train_vis)X_test_vis = scaler.transform(X_test_vis)# 训练KNNknn = KNeighborsClassifier(n_neighbors=5)knn.fit(X_train_vis, y_train)# 网格预测x_min, x_max = X_train_vis[:, 0].min() - 1, X_train_vis[:, 0].max() + 1y_min, y_max = X_train_vis[:, 1].min() - 1, X_train_vis[:, 1].max() + 1xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.02),np.arange(y_min, y_max, 0.02))Z = knn.predict(np.c_[xx.ravel(), yy.ravel()])Z = Z.reshape(xx.shape)# 绘图plt.contourf(xx, yy, Z, alpha=0.4)plt.scatter(X_train_vis[:, 0], X_train_vis[:, 1], c=y_train, marker='o', label='train')plt.scatter(X_test_vis[:, 0], X_test_vis[:, 1], c=y_test, marker='s', label='test', edgecolor='k')plt.xlabel("Feature 1")plt.ylabel("Feature 2")plt.title("KNN Decision Boundary (k=5)")plt.legend()plt.show()
KNN简单直观,容易实现;无需训练过程,适合在线学习;适合处理多分类问题;能自然处理非线性决策边界。
但是KNN计算复杂度高,预测时需要与所有样本计算距离;对高维数据敏感,容易受到“维度灾难”的影响;对噪声和不平衡数据敏感;存储成本大,需要保存全部训练数据。
可以通过以下方法进行改进:
KNN的部分到此结束啦,应该对你小菜一碟,简单总结一下,KNN 是一种典型的基于实例的学习方法,思想简单,效果直观,尤其在小规模数据和低维特征空间下表现良好。尽管其在大规模和高维数据场景下存在计算效率与性能瓶颈,但通过合适的数据预处理与近邻搜索算法,KNN 仍然还是很能打的。
4. 支持向量机
支持向量机(Support Vector Machine, SVM) 是一种常用的 二分类模型,它的目标是找到一个 最优超平面(Optimal Hyperplane),将不同类别的样本尽可能清晰地分开。
在二维空间中,这个“超平面”就是一条直线;在三维空间中,它是一个平面;而在高维空间中,它就是一个超平面。
SVM 的核心思想是:
数学上,如果分类超平面为:
则目标是最小化
1.线性可分情况
如果数据本身可以用一条直线/超平面完美分开,SVM 就能直接找到最大间隔的分割线。
2.线性不可分情况
在实际问题中,数据通常并不是线性可分的。SVM 通过两种方式解决:
软间隔(Soft Margin):允许部分样本被误分类,用松弛变量 $\xi_i $控制。
核函数(Kernel Trick):把数据映射到高维空间,在高维空间中寻找线性可分的超平面。
常见的核函数:
一个 SVM 模型的典型训练流程如下:
下面用 scikit-learn 实现一个 SVM 分类器,以鸢尾花(Iris)数据集为例:
from sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import StandardScalerfrom sklearn.svm import SVCfrom sklearn.metrics import accuracy_score, classification_report# 1. 加载数据iris = load_iris()X, y = iris.data, iris.target# 2. 仅选择两个类别做二分类任务X = X[y != 2]y = y[y != 2]# 3. 划分训练/测试集X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)# 4. 标准化scaler = StandardScaler()X_train = scaler.fit_transform(X_train)X_test = scaler.transform(X_test)# 5. 定义SVM模型(RBF核)svm_clf = SVC(kernel='rbf', C=1.0, gamma='scale')svm_clf.fit(X_train, y_train)# 6. 预测y_pred = svm_clf.predict(X_test)# 7. 评估print("Accuracy:", accuracy_score(y_test, y_pred))print("Classification Report:\n", classification_report(y_test, y_pred))
输出如下:
对于二维数据,同样可以画出SVM 的分类决策边界:
import numpy as npimport matplotlib.pyplot as plt# 可视化 (选择前两个特征绘制决策边界)X_vis = X_train[:, :2] # 取前两个特征X_test_vis = X_test[:, :2]svm_clf_vis = SVC(kernel='rbf', C=1.0, gamma='scale')svm_clf_vis.fit(X_vis, y_train)# 网格坐标x_min, x_max = X_vis[:, 0].min() - 1, X_vis[:, 0].max() + 1y_min, y_max = X_vis[:, 1].min() - 1, X_vis[:, 1].max() + 1xx, yy = np.meshgrid(np.linspace(x_min, x_max, 300),np.linspace(y_min, y_max, 300))# 预测网格点类别Z = svm_clf_vis.predict(np.c_[xx.ravel(), yy.ravel()])Z = Z.reshape(xx.shape)# 绘制plt.figure(figsize=(8, 6))plt.contourf(xx, yy, Z, alpha=0.3, cmap=plt.cm.coolwarm)plt.scatter(X_vis[:, 0], X_vis[:, 1], c=y_train, cmap=plt.cm.coolwarm, edgecolor='k', label="Train")plt.scatter(X_test_vis[:, 0], X_test_vis[:, 1], c=y_test, cmap=plt.cm.coolwarm, marker='s', edgecolor='k', label="Test")plt.xlabel("Feature 1 (Standardized)")plt.ylabel("Feature 2 (Standardized)")plt.title("SVM Decision Boundary on Iris (binary)")plt.legend()plt.show()
输出结果如下:
SVM只依赖支持向量,模型更简洁,同时核方法强大,能处理复杂的非线性问题,对高维数据表现良好,比如文本分类、人脸识别。但是对大规模数据训练较慢(因为要解二次规划),参数选择(如 C、核函数、gamma)对性能影响也比较大。
简单总结一下就是支持向量机适合样本数量不大、维度较高的任务。它通过 最大化间隔 来增强泛化能力,并借助 核函数技巧 处理非线性问题。
在现代深度学习崛起之前,SVM 曾经是图像分类、文本分类等任务的王者。即使在今天,它依然是机器学习学习之路上绕不开的重要算法。
最新的文章都在公众号更新,别忘记关注哦!!!如果想要加入技术群聊,扫描下方二维码回复【加群】即可。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-27
「推荐系统中的特征工程」1. 特征工程基础知识介绍
2025-12-25
我做了个Claude Skill:一键复刻任意公众号的排版
2025-12-24
AI 辅助前端动画开发
2025-12-22
警惕!AI创业的三重“陷阱”你避开了吗?
2025-12-16
YouMind:一款懂输入、思考、输出闭环的 AI 创作工具
2025-12-16
Ant Design X 重磅推出 AI 流式渲染引擎!
2025-12-16
自己都用不好自家的产品就别卖给客户丢人现眼了!
2025-12-15
NotebookLM+Nano Banana Pro:你的下一个PPT,何必是PPT?
2025-11-04
2025-10-10
2025-12-11
2025-10-20
2025-10-13
2025-10-20
2025-10-06
2025-10-27
2025-11-03
2025-11-17
2025-12-22
2025-12-15
2025-12-09
2025-11-17
2025-11-14
2025-11-12
2025-11-05
2025-09-11