相关文章:
LLM
-
人工智能与大模型
新兴的 LLM 技术堆栈
2024年03月14日 • 152 分钟阅读 -
技术分享
SXM 与 PCIe:最适合训练 LLM 的 GPU,如 GPT-4
2023年05月30日 • 32 分钟阅读 -
技术分享
我们什么时候该对 LLM 进行微调和使用 RAG ?
2024年10月18日 • 38 分钟阅读 -
技术分享
为何最新的大型语言模型(LLM)倾向于采用 MoE(Mixture of Experts, MoE)架构作为其设计核心?
2024年09月06日 • 41 分钟阅读 -
人工智能与大模型
检索增强生成如何使 LLM 比以前更智能
2024年08月23日 • 32 分钟阅读