如何在企业中实现知识图谱和大模型 (LLM)互通

知识图谱(KG)与大型语言模型(LLM):企业数据赋能的强强联合 数据如同企业的生命线,而如何高效地利用数据则成为了企业发展的关键。大型语言模型(LLM)和知识图谱(KG)作为两种强大的数据处理工具,正逐渐改变着企业的运营模式。今天,我们就来深入探讨一下它们在企业中的应用以及如何协同工作,为企业带来

探索 AI 智能体工作流设计模式

《探索 AI 智能体工作流设计模式》 欢迎关注公众号 柏企阅文 由大语言模型(LLM)驱动的智能体是利用 LLM 进行问题推理、制定可行计划并使用一组工具执行这些计划的系统。简单来说,这些智能体融合了高级推理能力、记忆力和任务执行能力。 基于 LLM 的 AI 智能体工作流设计模式自 2022 年末

Agent 

AI Agent 架构新变革:Plan-and-Execute 引领智能新潮流

AI Agent 架构新变革:Plan-and-Execute 引领智能新潮流 AI Agent 的发展一直备受瞩目。今天,我们就来深入探讨一种全新的架构——Plan-and-Execute,它正悄然改变着 AI Agent 解决复杂任务的方式。 传统 ReAct 架构的困境 曾经,ReAct(推理

Agent 

RAG完整指南

解锁 RAG 技术:企业数据与大模型的完美融合之道 为什么需要 RAG? 我们可以使用像 ChatGPT 这样的大语言模型(LLM)来创建星座运势等内容,或者应用于工作等更实际的场景。然而,问题在于企业通常拥有大量的文档、规则、条例等信息,而 ChatGPT 对此一无所知。 此时有两种选择:一是用企

RAG 

探索大型语言模型新架构:从 MoE 到 MoA

探索大型语言模型新架构:从 MoE 到 MoA 当前,商业科技公司纷纷投身于一场激烈的竞赛,不断扩大语言模型的规模,并为其注入海量的高质量数据,试图逐步提升模型的准确性。然而,这种看似顺理成章的发展路径逐渐暴露出诸多内在局限。一方面,高质量数据的获取并非易事;另一方面,计算能力的瓶颈以及在普通用户硬

专家混合(MoE)大语言模型:免费的嵌入模型新宠

专家混合(MoE)大语言模型:免费的嵌入模型新宠 今天,我们深入探讨一种备受瞩目的架构——专家混合(Mixture-of-Experts,MoE)大语言模型,它在嵌入模型领域展现出了独特的魅力。 一、MoE 架构揭秘 (一)MoE 是什么? MoE 是一种包含多个被称为“专家”子网的架构,每个子网专

运行一个大模型需要多少GPU?

为大型语言模型(LLM)提供服务需要多少GPU内存? 在人工智能领域,大型语言模型(LLM)已经成为推动自然语言处理和理解的关键技术。然而,随着模型规模的不断扩大,为这些模型提供服务所需的GPU内存也成为一个亟待解决的问题。本文将深入探讨如何估算为LLM提供服务的GPU内存需求,并提供实际应用的示例