宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
论文速递
机器学习
多模态
基础模型
理论基础
开源
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
知识库
分类
标签
归档
上网导航
1
2W8000字读懂GPT全家桶:从GPT-1到O1的技术演进与突破
2
强化学习详解第三部分:蒙特卡洛与时间差分学习,从经验中学习
3
万字解析非结构化文档中的隐藏价值:多模态检索增强生成(RAG)的前景
4
2W8000字深度剖析25种RAG变体
5
2w字解析量化技术,全网最全的大模型量化技术解析
登录
柏企
吹灭读书灯,一身都是月
累计撰写
95
篇文章
累计创建
16
个分类
累计收获
162
个点赞
导航
宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
论文速递
机器学习
多模态
基础模型
理论基础
开源
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
知识库
分类
标签
归档
上网导航
目录
标签
SBert
LLM架构系列 ---探索文本嵌入模型:从基础到BERT与SBERT实战
本文1W字,探讨了各种用于生成文本向量表示的嵌入模型,包括词袋模型(BoW)、TF-IDF、Word2Vec、GloVe、FastText、ELMO、BERT等等。深入研究了BERT的架构和预训练,介绍了用于高效生成句子嵌入的句子BERT(SBERT),并提供了一个使用sentence-transf
2025-04-13 18:36
1
0
0
24.1℃
LLM架构
弹