楼主: 勿忘初心110
508 0

[其他] 图解大模型_生成式AI原理与实战学习笔记(第四章) [推广有奖]

  • 0关注
  • 0粉丝

等待验证会员

小学生

14%

还不是VIP/贵宾

-

威望
0
论坛币
0 个
通用积分
0.0100
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
40 点
帖子
3
精华
0
在线时间
0 小时
注册时间
2018-11-19
最后登录
2018-11-19

楼主
勿忘初心110 发表于 2025-12-5 14:11:14 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

第四章 核心概念详解(基于原书内容整理)

[此处为图片1]

1. 混淆矩阵(Confusion Matrix)

混淆矩阵用于展示分类模型在预测过程中可能出现的四种结果,是理解后续评估指标的基础。其结构为一个四格表,具体如下:

  • TP(真正例):实际为正类且被正确预测为正类
  • FP(假正例):实际为负类但被错误预测为正类
  • TN(真负例):实际为负类且被正确预测为负类
  • FN(假负例):实际为正类但被错误预测为负类

如书中图4-8所示,该矩阵清晰呈现了分类性能的详细分布情况。

2. 精确率(Precision)

精确率反映的是模型所预测出的正类样本中,真正属于正类的比例。根据书中公式:

Precision = TP / (TP + FP)

通俗理解:当模型判断某样本为“正例”时,它说对的概率有多大?

举例说明:若模型识别出10条正面评论,其中8条确实为正面,则精确率为 8/10 = 0.8。

3. 召回率(Recall)

召回率衡量的是所有真实正类样本中,被模型成功找出的比例。书中给出的计算方式为:

Recall = TP / (TP + FN)

通俗理解:在所有真实的正例中,你找到了多少?

例如:数据集中共有20条正例,模型找出了15条,则召回率为 15/20 = 0.75。

4. 准确率(Accuracy)

准确率表示模型在全部预测任务中,正确预测所占的比例。其公式为:

Accuracy = (TP + TN) / (TP + FP + FN + TN)

通俗理解:总的预测结果里,有多少是正确的?

需要注意的是,在类别严重不平衡的情况下(比如99%都是负例),准确率可能虚高,不具备代表性,容易产生误导。

5. F1 分数(F1 Score)

F1 分数综合考虑了精确率与召回率,是对模型整体分类能力的一种平衡性度量。书中公式如下:

F1 = 2 × (Precision × Recall) / (Precision + Recall)

通俗理解:精确率和召回率往往存在此消彼长的关系,F1 可视为两者的调和平均值,代表一种折中评价。

当你既希望“预测准确”又希望“尽可能不遗漏”,F1 是最合适的单一指标。

书中示例对比:

  • 嵌入模型 + 逻辑回归 → F1 = 0.85
  • 使用零样本分类方法 → F1 = 0.78

6. 逻辑回归(Logistic Regression)

尽管名称中有“回归”,但逻辑回归本质上是一种经典的二分类算法。书中指出,分类器不限于逻辑回归,但因其简洁高效而常被选用。

工作流程如下:

  • 将文本的嵌入向量作为输入特征
  • 通过 sklearn 中的 LogisticRegression 进行训练
  • 输出样本属于正类的概率

设定阈值(通常为0.5)进行最终判定:概率大于0.5则归为正类,否则为负类。

优势特点:

  • 结构简单,易于解释
  • 训练速度快
  • 在固定嵌入的前提下,仅需学习少量参数

因此,本书选择其作为演示分类流程的典型模型。

7. 宏平均(Macro Avg)与加权平均(Weighted Avg)

在多类别场景下,评估指标可采用不同聚合方式:

  • 宏平均(Macro Avg):对每个类别的精确率、召回率或F1分别计算后再取算术平均,不考虑各类样本数量差异
  • 加权平均(Weighted Avg):依据每个类别的样本量进行加权平均,更能反映整体真实表现

本书实验中采用的是 Weighted F1,以更合理地体现整体性能。

8. 零样本分类(Zero-shot Classification)

指在没有使用任何标注训练数据的情况下完成分类任务。书中提出的问题是:是否可以在无监督条件下探索分类可行性?

通俗解释:无需训练过程,直接利用预训练模型的语言理解能力,根据标签语义描述进行推理分类。

适用于以下情形:

  • 缺乏足够标注数据
  • 标注质量差或规则不统一
  • 分类体系频繁变动

此时,依赖模型自身语义知识的零样本方法反而更具稳定性。

第四章 常见问题解析

问题1:为何“嵌入模型 + 逻辑回归”可用于文本分类?

原因在于嵌入模型能将文本映射到连续的语义向量空间:

  • 语义相近的文本 → 向量位置接近
  • 语义不同的文本 → 在空间中分布于不同区域

逻辑回归在此基础上,将这些向量作为输入特征,学习一个线性决策边界,从而将空间划分为不同类别区域。新样本进入后,根据其所处区域决定归属类别。

整个流程的优势在于:

  • 嵌入模型无需额外训练
  • 逻辑回归模型轻量级
  • 训练与推理速度极快,成本低

问题2:已有标注数据时,为何仍可能选择零样本分类?

即使拥有标注数据,但在以下情况下,零样本分类可能是更优选择:

  • 标注风格混乱,缺乏一致性
  • 标注规则本身存在偏差
  • 标签定义随时间变化
  • 可用标注样本极少
  • 分类类别频繁调整

此时,传统监督模型易受噪声影响,而零样本分类依赖的是模型内在的语义理解能力,不受外部标注质量干扰,因而更加稳健。

问题3:表示模型与生成模型在分类任务上的主要区别?

类型 代表模型 输入形式 输出形式 特性与适用场景
表示模型 BERT等 原始文本 固定类别标签 无法生成解释性文本;效率高、稳定性强;适合大规模、有标注数据的分类任务
生成模型 GPT、T5等 文本 + 提示词(prompt) 自然语言输出 可生成分析过程与判断理由;灵活性高;适用于零样本、复杂语义理解及动态规则场景

问题4:“嵌入 + 逻辑回归”为何训练速度极快?

主要原因包括:

  • 嵌入模型已预先提供高质量语义向量,无需微调
  • 逻辑回归仅为线性分类器,参数量少
  • 优化过程简单,收敛迅速

因此,在嵌入固定的前提下,只需对少量参数进行训练,极大提升了整体效率。

核心术语速查表

术语 通俗解释
精确率 预测为正的样本中,有多少是真的正例?
召回率 所有真实正例中,模型找出了多少?
F1 分数 精确率与召回率的折中指标,常用于综合评估分类性能
准确率 所有预测中正确的比例,但在类别不平衡时不可靠
混淆矩阵 分类结果的四象限表格:TP、FP、FN、TN
逻辑回归 经典二分类模型,输入特征向量,输出属于正类的概率
零样本分类 无需训练数据,依靠模型语义理解直接进行分类

嵌入模型在训练过程中完全冻结,不参与参数更新。整个流程仅需训练一个结构简单的逻辑回归模型,其参数量仅有数千级别,可在普通 CPU 上快速完成训练,耗时通常控制在几秒之内,整体训练成本几乎可以忽略不计。

[此处为图片1]

第5题:为何嵌入模型适用于无监督分类?
嵌入模型具备将语义相近的文本映射至向量空间中邻近位置的能力,同时将语义差异较大的文本分隔到不同的区域。这种映射构建出一个具有语义结构的“语义空间”。在此空间内,即便没有标签信息,也能基于向量间的相似度或通过聚类算法实现自动分组,从而完成无监督分类任务。

第6题:T5 如何将分类任务转化为文本生成形式?
T5 模型采用统一的 Text-to-Text(文本到文本)框架处理所有自然语言任务。对于分类任务,输入格式被构造为:“sst2 sentence: 这电影太棒了”,由编码器进行编码处理;解码器则直接生成对应类别标签的文本输出,例如 “positive”。这意味着无论是翻译、摘要还是分类,所有任务都被统一建模为从一段文本生成另一段文本的过程,分类结果也因此是“生成”而来的文本序列。

[此处为图片2]

第7题:使用 ChatGPT 进行分类的优势有哪些?
利用 ChatGPT 执行分类无需任何训练过程,只需设计合适的提示词(prompt)即可启动。它不仅能输出分类结果,还能同步生成判断依据、解释说明和深层分析。用户可通过调整提示内容灵活变更分类规则,支持动态增减类别,对模糊表达的理解能力更强。得益于 RLHF(人类反馈强化学习)机制,其输出更贴近人类认知偏好,在面对复杂或多义任务时展现出远超传统模型的灵活性与适应性。

第8题:“嵌入 + 监督分类”为何优于零样本分类?
监督学习方法能够直接从标注数据中学习任务的真实分布规律,并优化针对该任务的专属决策边界,在特定数据分布上拟合更为精准。相比之下,零样本分类依赖于类别名称本身的语义信息进行推理,无法学习到明确的分类边界,因而准确率相对较低。

第9题:如何选择表示模型与生成模型?

适合使用表示模型的场景包括:
- 拥有充足的标注数据
- 追求最高的 F1 分数表现
- 不需要提供分类理由或解释性输出
- 要求高吞吐量与低延迟响应
- 应用于海量数据且对成本敏感的环境
- 分类规则清晰、长期稳定不变

适合使用生成模型的场景包括:
- 缺乏标注数据资源
- 需要输出解释、分析或自然语言描述
- 处理语义模糊、规则复杂的任务
- 类别体系频繁变动或扩展
- 希望通过修改 prompt 实现规则调整
- 输出需以自然语言形式呈现

第10题:嵌入 + LR 与微调 BERT 的主要区别(四维度对比)

训练成本方面:
嵌入 + 逻辑回归:成本极低,普通 CPU 即可运行;
微调 BERT:成本高昂,必须依赖 GPU 支持。

数据需求方面:
嵌入 + 逻辑回归:仅需几十条标注样本即可取得良好效果;
微调 BERT:通常需要数千甚至上万条标注数据。

性能表现方面:
嵌入 + 逻辑回归:性能良好,F1 可达约 0.85;
微调 BERT:一般情况下达到最优性能水平。

灵活性方面:
嵌入 + 逻辑回归:高度灵活,可快速切换分类类别;
微调 BERT:灵活性较差,更换任务需重新训练整个模型。

[此处为图片3]

第11题:为何大模型不适合处理百万级数据分类?
使用大模型处理大规模分类任务面临多重挑战:首先,按 token 计费导致整体成本极高;其次,自回归式的逐词生成方式使得推理速度缓慢;此外,输出存在随机性和格式不一致的问题,难以保证结构化输出的稳定性;最后,其吞吐能力显著低于专用于表示学习的模型,不适合大批量、高频次的数据处理场景。

第12题:逻辑回归如何确定“决策边界”?
逻辑回归并不依赖余弦相似度计算,也不直接比较标签向量。它的核心机制是在线性空间中寻找一个最优的“超平面”,用以分割不同类别的嵌入向量。当新样本的向量落入某一侧区域时,即判定其属于对应类别,从而实现分类功能。

第13题:为何标签名称会影响零样本分类效果?
零样本分类的效果高度依赖于标签名称所承载的语义信息及其对应的向量表示。系统通过计算输入文本向量与各类别标签向量之间的相似度来进行推断。因此,若标签命名错误、含义模糊、表述颠倒、过于简短或不够清晰,都会直接影响匹配准确性,进而导致分类偏差。本质上,模型并非从数据中学习规律,而是从标签的语言描述中理解类别含义。

第14题:聚类为何能“自动发现类别”?
因为嵌入模型已将语义相似的文本投影至向量空间中的邻近区域,形成了天然的聚集趋势。聚类算法(如 KMeans)的作用正是识别这些自然形成的“向量密集区”,并将距离同一聚类中心较近的样本划分为一组。由于语义结构已在嵌入空间中体现,因此无需人工标注即可实现类别划分。

第15题:为何说文本分类是一个“工具箱”?
文本分类任务的实际需求千差万别,涵盖多个维度的考量因素:是否有标注数据、追求高精度还是快速上线、是否需要解释性输出、类别是否固定、数据规模大小以及成本限制等。不同条件下,最优解决方案也各不相同。可用的方法构成一个完整的工具箱,包括但不限于:BERT 微调、嵌入向量结合逻辑回归、零样本分类、基于生成模型的分类以及无监督聚类等。真正的专业能力不在于掌握单一模型,而在于根据具体任务条件,合理选择并组合最合适的工具方案。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:学习笔记 习笔记 regression PRECISION regressio
相关提问:大模型学习
相关内容:大模型学习笔记

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jltj
拉您入交流群
GMT+8, 2026-1-5 18:28