博客
技术分享
我们什么时候该对 LLM 进行微调和使用 RAG ?
2024.10.18
38分钟阅读

这个决定不仅仅是关于偏好;这是一个影响性能、成本和适用性的战略选择。了解何时选择微调而不是 RAG 需要深入研究模型大小、功能、优缺点的复杂性,以及现实世界的应用程序和硬件,综合各种因素做考虑。
| RAG | 微调 | |
|---|---|---|
| 信息刚性 | 灵活-集成实时、最新的信息,为提示提供上下文。 | 刚性-模型的知识在训练后是固定的,在重新训练之前不会更新。 |
| 培训时间 | 较少训练时长-主要依赖于预先训练的模型。 | 更长时间的训练-尤其是对于较大的模型。更新需要重新培训。 |
| 专业性 | 专业性较低;依赖于外部来源的广泛知识。 | 高专业性;通过微调数据为特定任务量身定制。 |
| 可扩展性 | 高可扩展性-添加、更新或引入新的数据源和主题域很容易。 | 可扩展性较低-需要针对新任务或新数据进行再培训或微调。 |
| 使用案例 | 需要广泛而深入的背景理解。 | 任务定义明确、具体,需要一致性。 |
| 动态性质 | 非常适合信息频繁变化的环境。 | 最适合信息在较长时间内保持一致的稳定环境。 |
-
优势:
-
缺点:
-
优势:
-
缺点:
“重塑高性能计算新标准--联泰集群 GA4228 G3”
如您有任何计算负载方面的问题和疑问,欢迎随时咨询我们 400-100-3811。
相关贴子
-

这台服务器正在悄悄改变中国 AI 产业格局!
2025.07.04 -

Ansys HPC Pack——解读 CPU 和 GPU 的 Ansys 许可
2024.08.02 -

用 AlphaFold 和 RoseTTAFold 进行蛋白质结构预测和药物发现
2023.05.30 -

为何最新的大型语言模型(LLM)倾向于采用 MoE(Mixture of Experts, MoE)架构作为其设计核心?
2024.09.06 -

CryoSparc v5.0.0 重大更新 —— 动态自动遮罩、单 GPU 多任务运行、界面优化及更多新功能
2026.02.12
注册我们的通讯。
注册主题
有什么问题吗?
联系我们相关贴子
-
技术分享使用 cuCIM 和 NVIDIA GPU DIRECT STORAGE加速数字病理学工作流程
2023.01.12 86分钟阅读 -
技术分享SXM 与 PCIe:最适合训练 LLM 的 GPU,如 GPT-4
2023.05.30 32分钟阅读 -
技术分享算力难题迎刃而解!贵州某大学 AI 集群项目启动,资源利用效率倍增
2026.01.16 12分钟阅读


