Update setfit-cn.md
Browse filesUpdate link to the images.
- setfit-cn.md +26 -13
setfit-cn.md
CHANGED
|
@@ -4,6 +4,13 @@
|
|
| 4 |
<p align="center">
|
| 5 |
<img src="assets/103_setfit/setfit_curves.png" width=500>
|
| 6 |
</p>
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 7 |
<p align="center">
|
| 8 |
<em > 与标准微调相比,SetFit 能更高效地利用训练样本,同时对噪声也更鲁棒。</em>
|
| 9 |
</p>
|
|
@@ -26,12 +33,13 @@ HuggingFace 非常高兴向大家介绍 SetFit:一个基于 [Sentence Transfor
|
|
| 26 |
|
| 27 |
在设计 SetFit 时,我们始终牢记高效、简单两个原则。SetFit 主要包含两个阶段:首先在少量标注样例(典型值是每类 8 个或 16 个样例)上微调一个 Sentence Transformer 模型。然后,用微调得到的 Sentence Tranformer 的模型生成文本的嵌入(embedding),并用这些嵌入训练一个分类头(classification head)。
|
| 28 |
|
| 29 |
-
<
|
| 30 |
-
|
| 31 |
-
|
| 32 |
-
|
|
|
|
| 33 |
<em>SetFit 的两阶段训练过程 </em>
|
| 34 |
-
</
|
| 35 |
|
| 36 |
SetFit 利用 Sentence Transformer 的能力去生成基于句对(paired sentences)的稠密嵌入。在第一步微调阶段,它使用对比训练(contrastive training)来最大化利用有限的标注数据。首先,通过选择类内(in-class)和类外(out-class)句子来构造正句对和负句对,然后在这些句对(或三元组(triplets))上训练 Sentence Transformer 模型并生成每个样本的稠密向量。第二步,根据每个样本的嵌入向量和各自的类标签,训练分类头。推理时,未见过的样本通过微调后的 Sentence Transformer 并生成嵌入,生成的嵌入随后被送入分类头并输出类标签的预测。
|
| 37 |
|
|
@@ -55,18 +63,23 @@ SetFit 利用 Sentence Transformer 的能力去生成基于句对(paired sente
|
|
| 55 |
|
| 56 |
在其他的数据集上,SeiFit 在各种各样的任务中也展示出了鲁棒的性能。如下图所示,每类仅需 8 个样本,其典型性能就超越了 PERFECT、ADAPET 以及微调后的原始 transformer 模型。SetFit 还取得了与 T-Few 3B 相当的结果,尽管它无需提示且模型小了 27 倍。
|
| 57 |
|
| 58 |
-
<
|
| 59 |
-
|
| 60 |
-
|
| 61 |
-
|
|
|
|
|
|
|
| 62 |
<em > 在 3 个分类数据集上比较 SetFit 与其他方法的性能 </em>
|
| 63 |
-
</
|
| 64 |
|
| 65 |
## 快速训练与推理
|
| 66 |
|
| 67 |
-
<
|
| 68 |
-
|
| 69 |
-
|
|
|
|
|
|
|
|
|
|
| 70 |
<p align="center">
|
| 71 |
在每类 8 个标注样本的条件下,比较 T-Few 3B 和 SetFit(MPNet)的训练成本和平均性能。
|
| 72 |
</p>
|
|
|
|
| 4 |
<p align="center">
|
| 5 |
<img src="assets/103_setfit/setfit_curves.png" width=500>
|
| 6 |
</p>
|
| 7 |
+
|
| 8 |
+
<div style="width:500px; margin:0 auto;">
|
| 9 |
+
|
| 10 |
+

|
| 11 |
+
|
| 12 |
+
</div>
|
| 13 |
+
|
| 14 |
<p align="center">
|
| 15 |
<em > 与标准微调相比,SetFit 能更高效地利用训练样本,同时对噪声也更鲁棒。</em>
|
| 16 |
</p>
|
|
|
|
| 33 |
|
| 34 |
在设计 SetFit 时,我们始终牢记高效、简单两个原则。SetFit 主要包含两个阶段:首先在少量标注样例(典型值是每类 8 个或 16 个样例)上微调一个 Sentence Transformer 模型。然后,用微调得到的 Sentence Tranformer 的模型生成文本的嵌入(embedding),并用这些嵌入训练一个分类头(classification head)。
|
| 35 |
|
| 36 |
+
<div style="width: 700px; margin:0 auto;">
|
| 37 |
+
|
| 38 |
+

|
| 39 |
+
</div>
|
| 40 |
+
<div style="margin:0 auto;">
|
| 41 |
<em>SetFit 的两阶段训练过程 </em>
|
| 42 |
+
</div>
|
| 43 |
|
| 44 |
SetFit 利用 Sentence Transformer 的能力去生成基于句对(paired sentences)的稠密嵌入。在第一步微调阶段,它使用对比训练(contrastive training)来最大化利用有限的标注数据。首先,通过选择类内(in-class)和类外(out-class)句子来构造正句对和负句对,然后在这些句对(或三元组(triplets))上训练 Sentence Transformer 模型并生成每个样本的稠密向量。第二步,根据每个样本的嵌入向量和各自的类标签,训练分类头。推理时,未见过的样本通过微调后的 Sentence Transformer 并生成嵌入,生成的嵌入随后被送入分类头并输出类标签的预测。
|
| 45 |
|
|
|
|
| 63 |
|
| 64 |
在其他的数据集上,SeiFit 在各种各样的任务中也展示出了鲁棒的性能。如下图所示,每类仅需 8 个样本,其典型性能就超越了 PERFECT、ADAPET 以及微调后的原始 transformer 模型。SetFit 还取得了与 T-Few 3B 相当的结果,尽管它无需提示且模型小了 27 倍。
|
| 65 |
|
| 66 |
+
<div style="margin:0 auto; width:700px">
|
| 67 |
+
|
| 68 |
+

|
| 69 |
+
|
| 70 |
+
</div>
|
| 71 |
+
<div style="margin:0 auto;">
|
| 72 |
<em > 在 3 个分类数据集上比较 SetFit 与其他方法的性能 </em>
|
| 73 |
+
</div>
|
| 74 |
|
| 75 |
## 快速训练与推理
|
| 76 |
|
| 77 |
+
<div style="margin:0 auto; width:400px">
|
| 78 |
+
|
| 79 |
+

|
| 80 |
+
|
| 81 |
+
</div>
|
| 82 |
+
|
| 83 |
<p align="center">
|
| 84 |
在每类 8 个标注样本的条件下,比较 T-Few 3B 和 SetFit(MPNet)的训练成本和平均性能。
|
| 85 |
</p>
|