强化学习详解第五部分:神经网络驱动的深度强化学习基础

在之前的文章中,我们探讨了强化学习如何让智能体通过与环境的交互学习来做出决策。我们介绍了价值函数、策略学习以及函数逼近技术,这些技术有助于将强化学习应用于更复杂的问题。现在,我们准备探讨该领域中可能最为重大的进展:深度强化学习。 深度强化学习将神经网络与强化学习算法相结合,用于解决以往难以攻克的问题

VLLM 与 Ollama:如何选择合适的轻量级 LLM 框架?

VLLM 与 Ollama:如何选择合适的轻量级 LLM 框架? VLLM是一款经过优化的推理引擎,在令牌生成速度和内存管理效率上表现出色,是大规模AI应用的理想之选。Ollama则是一个轻量级、易上手的框架,让在本地电脑上运行开源大语言模型变得更加简单。 那么,这两个框架该选哪一个呢?接下来,我们

缓存增强生成(CAG)对比检索增强生成(RAG):谁才是大语言模型的最优解?

缓存增强生成(CAG)对比检索增强生成(RAG):谁才是大语言模型的最优解? 1. 前期准备:RAG与KV-Cache(CAG) RAG 是什么 RAG是一种检索增强生成方法,它利用检索器查找相关文档,然后将这些文档传递给大语言模型,以生成最终答案。 优势 处理大型或频繁更新的数据集时,无需一次性加

RAG 

重现 OpenAI o1 的技术路线

重现 OpenAI o1 的技术路线 OpenAI o1发布后,其强大的推理能力远超早期的大语言模型(LLM),达到了媲美博士级专业知识的性能水平。 目前,有两种复现o1的范式: 基于知识蒸馏:这是一种捷径方法,可以提取o1的数据并微调LLM(如Llama 3.2、Qwen2等)以模仿o1的推理风格

典型的RAG流程、每个模块的最佳实践和综合评估

典型的RAG流程、每个模块的最佳实践和综合评估 近日热文:全网最全的神经网络数学原理(代码和公式)直观解释 欢迎关注知乎和公众号的专栏内容 LLM架构专栏 知乎LLM专栏

RAG 

加速大模型推理:深入探究MQA、GQA、MLA(DeepSeek)、KV缓存技术

加速大模型推理:深入探究MQA、GQA、MLA(DeepSeek)、KV缓存技术 回顾:多头注意力机制 为什么LLM推理是串行的 KV缓存的挑战 2019年——多查询注意力机制(Multi Query Attention) 2023年5月——分组查询注意力机制(Grouped Query Atten

DeepSeek-R1的顿悟时刻是如何出现的? 背后的数学原理:强化学习如何教大型语言模型进行推理

DeepSeek-R1的顿悟时刻是如何出现的? 背后的数学原理:强化学习如何教大型语言模型进行推理 DeepSeek-R1的卓越表现 DeepSeek-R1的开创性论文《DeepSeek-R1:通过强化学习激励大语言模型(LLMs)的推理能力》,对其性能进行了全面分析,结果令人惊叹。在标准语言模型基

强化学习中的关键模型与算法:从Actor-Critic到GRPO


强化学习中的关键模型与算法:从Actor-Critic到GRPO 强化学习中的Actor-Critic模型是什么? 这与生成对抗网络(GANs)十分相似。在生成对抗网络中,生成器和判别器模型在整个训练过程中相互对抗。在强化学习的Actor-Critic模型中,也存在类似的概念: Actor-Crit

OpenAI o3-mini 与 DeepSeek-R1 在各类基准测试中的大比拼

OpenAI o3-mini与DeepSeek-R1在各类基准测试中的大比拼 OpenAI终于发布了o3-mini,还为ChatGPT的所有用户免费提供了一些使用额度。但大家心里始终有个大大的疑问:OpenAI的o3-mini会比DeepSeek-R1更胜一筹吗? 虽说OpenAI官方团队并没有发布

用DeepSeek R1和Ollama构建本地RAG系统,向PDF提问不再是梦!

用DeepSeek R1和Ollama构建本地RAG系统,向PDF提问不再是梦! 有没有想过能直接向PDF文件或者技术手册提问?如何利用开源推理工具DeepSeek R1和运行本地AI模型的轻量级框架Ollama,搭建一个检索增强生成(RAG)系统。 为什么选DeepSeek R1? DeepSee

RAG