清华学习
1
ScholarCopilot
1
Attention
1
FlashAttention
1
SBert
1
Ollama
1
ModernBERT
1
Bert
1
Bert
1
CAG
1
HTML
0
HTML
0
HTML
1
HTML
0
Open
0
GQA
0
GQA
1
MQA
1
MQA
1
Qwen2.5
1
Qwen2.5
1
Actor-Critic
1
SFT
1
SFT
0
开源
1
VLM
1
CILP
1
Vit
1
Faiss
1
微调
3
多模态
2
vllm
2
知识图谱
1
GraphRAG
1
ReST-MCTS
1
清华大学
1
MOA
1
MOE
2
GPU
0
GPU
1
知乎
1
理论基础
2
神经网络
2
论文速递
3
Llama4
1
Meta
1
VidTok
1
MCP
1
L2
1
L1
1
DeepRAG
1
PIKE-RAG
1
RAG
14
量化
1
ColFlor
1
ColPali
1
G-Veal
1
注意力机制
3
GRUs
1
LSTM
1
蒙特卡洛
1
Transformer
7
RNN
4
LLM架构
29
词向量
2
论文
13
Research
1
AutoGen
2
CrewAI
1
LangGraph
1
Langchain
1
贝尔曼方法
1
DeepSeek
14
OpenAI
2
微软
1
GRPO
3
PPO
1
NLP
2
强化学习
16
Agent
8
大模型
40
LLM架构
未读
LLM架构系列 ---探索文本嵌入模型:从基础到BERT与SBERT实战
本文1W字,探讨了各种用于生成文本向量表示的嵌入模型,包括词袋模型(BoW)、TF-IDF、Word2Vec、GloVe、FastText、ELMO、BERT等等。深入研究了BERT的架构和预训练,介绍了用于高效生成句子嵌入的句子BERT(SBERT),并提供了一个使用sentence-transf
你好啊!我是

柏企阅文
最近发布