1
Volekingsg 7 天前
1. 微调的假设是训练和测试数据独立同分布,另外 Bert 等 PLM 不微调也很难在你的数据上进行分类
2. 使用 LLM prompt 在很多分类任务上能达到与 Bert 等 PLM 近似或者更好的性能,而且实验起来更快(可能得试下不同 prompt 方式) 验证准确性需要你有标注的测试数据 |
2
johnnyyeen 7 天前
对一些特定任务,小样本,可以试试 PEFT 之 LoRA 微调。
|
![]() |
3
rogerer 7 天前
如果只是单独做分类的话,用 LLM 不一定比 BERT 更好,都得做了实验才知道。
|
![]() |
4
Zhuzhuchenyan 7 天前
下文专指 LLM 的微调,
1. 增加模型的专用能力会带来模型通用能力的损失。 2. 微调最难的不是微调本身,而是准备高质量的数据集,如果你没有一定数量的符合你研究要求的高质量的数据集,微调与否不会带来什么效果。 3. 建议先小样本用 LLM 试验一下,用不同参数的 LLM 试验之后看看他们分类的结果你是否满意。 |