宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
论文速递
机器学习
多模态
基础模型
理论基础
开源
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
知识库
分类
标签
归档
上网导航
1
2W8000字读懂GPT全家桶:从GPT-1到O1的技术演进与突破
2
强化学习详解第三部分:蒙特卡洛与时间差分学习,从经验中学习
3
2W8000字深度剖析25种RAG变体
4
万字解析非结构化文档中的隐藏价值:多模态检索增强生成(RAG)的前景
5
2w字解析量化技术,全网最全的大模型量化技术解析
登录
柏企
吹灭读书灯,一身都是月
累计撰写
95
篇文章
累计创建
16
个分类
累计收获
160
个点赞
导航
宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
论文速递
机器学习
多模态
基础模型
理论基础
开源
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
知识库
分类
标签
归档
上网导航
目录
标签
Transformer
万字深度解析 FlashAttention:让 Transformer 效率飙升的神奇算法
本文1W字,FlashAttention 巧妙地重新组织计算方式,通过使注意力计算具备I/O感知能力,最大限度减少慢速内存操作,它能更高效地获得与标准注意力机制相同的结果。我们深入探讨了它如何利用平铺技术将数据保存在片上内存,通过分块进行softmax和矩阵乘法运算,避免将庞大的 $n×n$ 矩阵写
2025-04-13 18:41
2
0
0
24.2℃
理论基础
一文读懂自动编码器:类型、原理与应用
一文读懂自动编码器:类型、原理与应用 近日热文:全网最全的神经网络数学原理(代码和公式)直观解释 欢迎关注知乎和公众号的专栏内容 LLM架构专栏 知乎LLM专栏
2025-04-12 22:13
4
0
0
24.4℃
理论基础
ViT功能可视化:探索视觉Transformer学到了什么?
ViT功能可视化:探索视觉Transformer学到了什么
2025-04-10 20:23
5
0
1
26.5℃
多模态
深入探索LLM架构,使用pytorch实现Transformer
深入探究架构并利用从RNN到Transformer的NLP模型构建实际应用 本系列文章 1. LLM大模型架构专栏|| 从NLP基础谈起 2.LLM大模型架构专栏|| 自然语言处理(NLP)之建模 3. LLM大模型架构之词嵌入(Part1
2025-04-01 16:13
31
0
1
29.1℃
LLM架构
2w8000字深度解析从 RNN 到 Transformer:构建 NLP 应用的架构演进之路
2w8000字深度解析从RNN到Transformer:构建NLP应用的架构演进之路 📖阅读时长:50分钟 🕙发布时间:2025-01-20 本文28000字,阅读时长~~ 看速度 2025年01月22日 晴 零下3度 <
2025-04-01 15:41
31
0
1
29.1℃
LLM架构
LLM架构从基础到精通之注意力机制
LLM架构从基础到精通之注意力机制 本文2w字,阅读时长~~ 看速度 2025年01月14日 晴 零下3度 1. LLM大模型架构专栏|| 从NLP基础谈起 2.LLM大模型架构专栏|| 自然语言处理(NLP)之建模 3. LLM大模型架构之词
2025-03-30 21:27
22
0
3
32.2℃
LLM架构
LLM架构从基础到精 深入探究编码器 - 解码器架构:从 RNN 到 Transformer 的自然语言处理模型及实际应用
2025-03-29 22:37
19
0
2
29.9℃
LLM架构
深入探究编码器 - 解码器架构:从RNN到Transformer的自然语言处理模型 本文1w字,阅读时长~~ 看速度 2025年01月10日 晴 零下3度 1. LLM大模型架构专栏|| 从NLP基础谈起 2.LLM大模型架构专栏|| 自然语言处理(
弹