置顶

全网最全的神经网络数学原理(代码和公式)直观解释 全网最全

2025-04-13

置顶

深度剖析L1与L2正则化:机器学习的关键策略

2025-04-03

置顶

深度解析创新RAG:PIKE-RAG与DeepRAG,RAG技术的创新变革

2025-04-03

置顶

2W8000字读懂GPT全家桶:从GPT-1到O1的技术演进与突破

2025-03-25

掌握Torchtune:高效微调、评估和部署大型语言模型的实用指南


掌握Torchtune:高效微调、评估和部署大型语言模型的实用指南 近日热文:全网最全的神经网络数学原理(代码和公式)直观解释 欢迎关注知乎和公众号的专栏内容 LLM架构专栏 知乎LLM专栏

ScholarCopilot:借助精准引用训练大语言模型助力学术写作

ScholarCopilot:借助精准引用训练大语言模型助力学术写作 在学术写作中,精准引用与优质文本生成至关重要,现有检索 - 增强生成系统却难以满足需求。今天为大家带来一篇研究成果介绍,文中提出的ScholarCopilot框架,能训练大语言模型助力学术写作。它表现如何?又有哪些创新?快来一探究

开源 

万字深度解析 FlashAttention:让 Transformer 效率飙升的神奇算法

本文1W字,FlashAttention 巧妙地重新组织计算方式,通过使注意力计算具备I/O感知能力,最大限度减少慢速内存操作,它能更高效地获得与标准注意力机制相同的结果。我们深入探讨了它如何利用平铺技术将数据保存在片上内存,通过分块进行softmax和矩阵乘法运算,避免将庞大的 $n×n$ 矩阵写

LLM架构系列 ---探索文本嵌入模型:从基础到BERT与SBERT实战

本文1W字,探讨了各种用于生成文本向量表示的嵌入模型,包括词袋模型(BoW)、TF-IDF、Word2Vec、GloVe、FastText、ELMO、BERT等等。深入研究了BERT的架构和预训练,介绍了用于高效生成句子嵌入的句子BERT(SBERT),并提供了一个使用sentence-transf

1W2000字 一文读懂向量数据库:原理、索引技术与选型指南

本文1W2000字,本文简要介绍了向量数据库,重点阐述了其在检索增强生成(RAG)应用中的关键作用。文章突出了ChromaDB、Pinecone和Weaviate等热门数据库,强调了高效存储和检索对优化 RAG 性能的重要性。 文中深入探讨了各种索引技术和算法,对Annoy、倒排文件(IVF)索引、

RAG 

1W8000字 探秘 RAG 应用搜索:从语义搜索到评估指标的深度解析

本文1W8000字,在这篇文章中,我们探讨了检索增强生成(RAG)应用程序中的搜索过程,重点介绍了使用向量数据库的语义搜索。我们强调了其减少处理时间和支持实时更新等优势,同时也指出了面临的挑战,比如对独特查询可能给出不太理想的回复。预防这些问题的策略包括监控查询密度和收集用户反馈。优化工作应贯穿构建

RAG