宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
论文速递
机器学习
多模态
基础模型
理论基础
开源
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
知识库
分类
标签
归档
上网导航
1
2W8000字读懂GPT全家桶:从GPT-1到O1的技术演进与突破
2
强化学习详解第三部分:蒙特卡洛与时间差分学习,从经验中学习
3
万字解析非结构化文档中的隐藏价值:多模态检索增强生成(RAG)的前景
4
2W8000字深度剖析25种RAG变体
5
2w字解析量化技术,全网最全的大模型量化技术解析
登录
柏企
吹灭读书灯,一身都是月
累计撰写
63
篇文章
累计创建
16
个分类
累计收获
110
个点赞
导航
宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
论文速递
机器学习
多模态
基础模型
理论基础
开源
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
知识库
分类
标签
归档
上网导航
目录
如何在企业中实现知识图谱和大模型 (LLM)互通
知识图谱(KG)与大型语言模型(LLM):企业数据赋能的强强联合 数据如同企业的生命线,而如何高效地利用数据则成为了企业发展的关键。大型语言模型(LLM)和知识图谱(KG)作为两种强大的数据处理工具,正逐渐改变着企业的运营模式。今天,我们就来深入探讨一下它们在企业中的应用以及如何协同工作,为企业带来
2025-04-09 17:17
5
0
1
26.5℃
LLM架构
使用 Docling、Groq、Ollama 和 GLIDER 评估构建高级 RAG 管道
2025-04-09 17:00
4
0
1
26.4℃
RAG
探秘 GraphRAG:知识图谱赋能的检索增强生成技术新突破
2025-04-09 16:48
12
0
1
27.2℃
RAG
清华 ReST-MCTS*:基于过程奖励引导树搜索的 LLM 自训练深度剖析
2025-04-09 16:45
10
0
1
27.0℃
基础模型
探索 AI 智能体工作流设计模式
《探索 AI 智能体工作流设计模式》 欢迎关注公众号 柏企阅文 由大语言模型(LLM)驱动的智能体是利用 LLM 进行问题推理、制定可行计划并使用一组工具执行这些计划的系统。简单来说,这些智能体融合了高级推理能力、记忆力和任务执行能力。 基于 LLM 的 AI 智能体工作流设计模式自 2022 年末
2025-04-09 13:19
20
0
4
34.0℃
Agent
AI Agent 架构新变革:Plan-and-Execute 引领智能新潮流
AI Agent 架构新变革:Plan-and-Execute 引领智能新潮流 AI Agent 的发展一直备受瞩目。今天,我们就来深入探讨一种全新的架构——Plan-and-Execute,它正悄然改变着 AI Agent 解决复杂任务的方式。 传统 ReAct 架构的困境 曾经,ReAct(推理
2025-04-09 13:09
5
0
0
24.5℃
Agent
RAG完整指南
解锁 RAG 技术:企业数据与大模型的完美融合之道 为什么需要 RAG? 我们可以使用像 ChatGPT 这样的大语言模型(LLM)来创建星座运势等内容,或者应用于工作等更实际的场景。然而,问题在于企业通常拥有大量的文档、规则、条例等信息,而 ChatGPT 对此一无所知。 此时有两种选择:一是用企
2025-04-09 13:03
5
0
0
24.5℃
RAG
探索大型语言模型新架构:从 MoE 到 MoA
探索大型语言模型新架构:从 MoE 到 MoA 当前,商业科技公司纷纷投身于一场激烈的竞赛,不断扩大语言模型的规模,并为其注入海量的高质量数据,试图逐步提升模型的准确性。然而,这种看似顺理成章的发展路径逐渐暴露出诸多内在局限。一方面,高质量数据的获取并非易事;另一方面,计算能力的瓶颈以及在普通用户硬
2025-04-09 12:58
9
0
3
30.9℃
LLM架构
专家混合(MoE)大语言模型:免费的嵌入模型新宠
专家混合(MoE)大语言模型:免费的嵌入模型新宠 今天,我们深入探讨一种备受瞩目的架构——专家混合(Mixture-of-Experts,MoE)大语言模型,它在嵌入模型领域展现出了独特的魅力。 一、MoE 架构揭秘 (一)MoE 是什么? MoE 是一种包含多个被称为“专家”子网的架构,每个子网专
2025-04-09 12:51
7
0
2
28.7℃
LLM架构
运行一个大模型需要多少GPU?
为大型语言模型(LLM)提供服务需要多少GPU内存? 在人工智能领域,大型语言模型(LLM)已经成为推动自然语言处理和理解的关键技术。然而,随着模型规模的不断扩大,为这些模型提供服务所需的GPU内存也成为一个亟待解决的问题。本文将深入探讨如何估算为LLM提供服务的GPU内存需求,并提供实际应用的示例
2025-04-09 12:40
6
0
1
26.6℃
理论基础
上一页
下一页
1
2
3
4
5
6
7
弹