掌握Torchtune:高效微调、评估和部署大型语言模型的实用指南


掌握Torchtune:高效微调、评估和部署大型语言模型的实用指南 近日热文:全网最全的神经网络数学原理(代码和公式)直观解释 欢迎关注知乎和公众号的专栏内容 LLM架构专栏 知乎LLM专栏

1W8000字 探秘 RAG 应用搜索:从语义搜索到评估指标的深度解析

本文1W8000字,在这篇文章中,我们探讨了检索增强生成(RAG)应用程序中的搜索过程,重点介绍了使用向量数据库的语义搜索。我们强调了其减少处理时间和支持实时更新等优势,同时也指出了面临的挑战,比如对独特查询可能给出不太理想的回复。预防这些问题的策略包括监控查询密度和收集用户反馈。优化工作应贯穿构建

RAG 

2W6000字 大模型核心技术综述:微调、推理与优化指南

本文2W6000字,10篇参考文献,内容涵盖了语言建模、预训练面临的挑战、量化技术、分布式训练方法,以及大语言模型的微调。此外,还讨论了参数高效微调(PEFT)技术,包括适配器、LoRA和QLoRA;介绍了提示策略、模型压缩方法(如剪枝和量化),以及各种量化技术(GPTQ、NF4、GGML)。最后,

一文读懂大语言模型评估:方法、指标与框架全解析

大模型评估全解析:方法、指标与框架 🕙发布时间:2025-02-24 本文3W4000字,分了8个小节介绍大模型评估方法,后续会把最新的方法更新进来~,有些内容是翻译自HuggingFace和一些论文,更多LLM架构文章:

DeepSeek R1:了解 GRPO 和多阶段训练

DeepSeek R1:了解GRPO和多阶段训练 近日热文:全网最全的神经网络数学原理(代码和公式)直观解释 欢迎关注知乎和公众号的专栏内容 LLM架构专栏

深度探索:DeepSeek-R1 如何从零开始训练,以及这项开源研究将如何以前所未有的速度推动 AI 进步

近日热文:全网最全的神经网络数学原理(代码和公式)直观解释 欢迎关注知乎和公众号的专栏内容 LLM架构专栏

开源 

大模型论文精选|| 多 LLM 文本摘要:创新方法与卓越成果

多LLM文本摘要:创新方法与卓越成果 论文 https://arxiv.org/abs/2412.15487 Multi-LLM Text Summarization 2412.15487 多LLM摘要框架在每一轮对话中有两个至关重要的步骤:生成和评估。根据使用的是多LLM去中心化摘要还是中心化摘要

大规模相似性搜索:原理、技术与 Faiss 实践

相似性搜索为何重要? 人工智能和机器学习的兴起,催生了大量高维数据表示形式,即嵌入(embeddings),它们捕捉数据点之间的复杂关系,助力强大的分析与理解。然而,在大型数据集中查找相似嵌入是一项计算密集型任务。相似性搜索在检索增强生成(Retrieval-Augmented Generation

一文读懂大语言模型评估:困惑度指标全解析

评估语言模型一直是一项具有挑战性的任务。我们如何衡量一个模型是否真正理解语言、生成连贯的文本,或者给出准确的回复呢?在为此目的而开发的各种指标中,困惑度指标作为自然语言处理和语言模型(LM)评估领域中最基础且应用最广泛的评估指标之一,备受关注。 困惑度自统计语言建模的早期就开始被使用,即便在大语言模

特定领域嵌入模型微调指南

特定领域嵌入模型微调:从理论到实践 在这篇文章中,我们将深入探讨针对特定领域(如医学、法律或金融)微调嵌入模型的过程。我们会专门为目标领域生成数据集,并利用它来训练模型,使其更好地理解所选领域内微妙的语言模式和概念。最终,你将拥有一个针对特定领域优化的更强大的嵌入模型,从而在 NLP 任务中实现更准