宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
论文速递
机器学习
多模态
基础模型
理论基础
欢迎订阅
开源
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
分类
标签
归档
上网导航
1
2W8000字读懂GPT全家桶:从GPT-1到O1的技术演进与突破
2
强化学习详解第三部分:蒙特卡洛与时间差分学习,从经验中学习
3
2W8000字深度剖析25种RAG变体
4
万字解析非结构化文档中的隐藏价值:多模态检索增强生成(RAG)的前景
5
深度解析创新RAG:PIKE-RAG与DeepRAG,RAG技术的创新变革
登录
柏企
吹灭读书灯,一身都是月
累计撰写
105
篇文章
累计创建
16
个分类
累计收获
175
个点赞
导航
宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
论文速递
机器学习
多模态
基础模型
理论基础
欢迎订阅
开源
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
分类
标签
归档
上网导航
目录
分类
大模型
LLM架构系列 ---探索文本嵌入模型:从基础到BERT与SBERT实战
本文1W字,探讨了各种用于生成文本向量表示的嵌入模型,包括词袋模型(BoW)、TF-IDF、Word2Vec、GloVe、FastText、ELMO、BERT等等。深入研究了BERT的架构和预训练,介绍了用于高效生成句子嵌入的句子BERT(SBERT),并提供了一个使用sentence-transf
2025-04-13 18:36
10
0
0
25.0℃
LLM架构
1W2000字 一文读懂向量数据库:原理、索引技术与选型指南
本文1W2000字,本文简要介绍了向量数据库,重点阐述了其在检索增强生成(RAG)应用中的关键作用。文章突出了ChromaDB、Pinecone和Weaviate等热门数据库,强调了高效存储和检索对优化 RAG 性能的重要性。 文中深入探讨了各种索引技术和算法,对Annoy、倒排文件(IVF)索引、
2025-04-13 13:19
10
0
1
27.0℃
RAG
1W8000字 探秘 RAG 应用搜索:从语义搜索到评估指标的深度解析
本文1W8000字,在这篇文章中,我们探讨了检索增强生成(RAG)应用程序中的搜索过程,重点介绍了使用向量数据库的语义搜索。我们强调了其减少处理时间和支持实时更新等优势,同时也指出了面临的挑战,比如对独特查询可能给出不太理想的回复。预防这些问题的策略包括监控查询密度和收集用户反馈。优化工作应贯穿构建
2025-04-13 12:49
14
0
4
33.4℃
RAG
2W6000字 大模型核心技术综述:微调、推理与优化指南
本文2W6000字,10篇参考文献,内容涵盖了语言建模、预训练面临的挑战、量化技术、分布式训练方法,以及大语言模型的微调。此外,还讨论了参数高效微调(PEFT)技术,包括适配器、LoRA和QLoRA;介绍了提示策略、模型压缩方法(如剪枝和量化),以及各种量化技术(GPTQ、NF4、GGML)。最后,
2025-04-13 12:41
5
0
0
24.5℃
LLM架构
一文读懂大语言模型评估:方法、指标与框架全解析
大模型评估全解析:方法、指标与框架 🕙发布时间:2025-02-24 本文3W4000字,分了8个小节介绍大模型评估方法,后续会把最新的方法更新进来~,有些内容是翻译自HuggingFace和一些论文,更多LLM架构文章:
2025-04-13 12:33
9
0
0
24.9℃
LLM架构
2W8000字揭秘RAG:从基础到高级的逆袭,彻底重塑大模型!
2W8000字揭秘RAG:从基础到高级的逆袭,彻底重塑大模型! 🕙发布时间:2025-02-24 本文2W8000字,配图58张,分了11个小节介绍RAG技术,后续会把最新的方法更新进来~,有些内容是翻译自HuggingFace和一些论文,更多LLM架构文章:
2025-04-13 12:27
6
0
1
26.6℃
RAG
3W6000字了解大模型LLM:部署、优化与框架
3W6000字了解大模型LLM:部署、优化与框架 🕙发布时间:2025-02-20 本文3W6000字,分了11个小结介绍各种框架和方法,后续会把最新的方法更新进来~,有些内容是翻译自HuggingFace和一些论文 近日热文: 1. 全网最全的神经网络数学原理(代码和公式)直观解释 2. 大模型
2025-04-13 12:13
19
0
4
33.9℃
LLM架构
强化学习详解第五部分:神经网络驱动的深度强化学习基础
在之前的文章中,我们探讨了强化学习如何让智能体通过与环境的交互学习来做出决策。我们介绍了价值函数、策略学习以及函数逼近技术,这些技术有助于将强化学习应用于更复杂的问题。现在,我们准备探讨该领域中可能最为重大的进展:深度强化学习。 深度强化学习将神经网络与强化学习算法相结合,用于解决以往难以攻克的问题
2025-04-13 10:29
10
0
0
25.0℃
强化学习
VLLM 与 Ollama:如何选择合适的轻量级 LLM 框架?
VLLM 与 Ollama:如何选择合适的轻量级 LLM 框架? VLLM是一款经过优化的推理引擎,在令牌生成速度和内存管理效率上表现出色,是大规模AI应用的理想之选。Ollama则是一个轻量级、易上手的框架,让在本地电脑上运行开源大语言模型变得更加简单。 那么,这两个框架该选哪一个呢?接下来,我们
2025-04-12 22:21
12
0
3
31.2℃
LLM架构
缓存增强生成(CAG)对比检索增强生成(RAG):谁才是大语言模型的最优解?
缓存增强生成(CAG)对比检索增强生成(RAG):谁才是大语言模型的最优解? 1. 前期准备:RAG与KV-Cache(CAG) RAG 是什么 RAG是一种检索增强生成方法,它利用检索器查找相关文档,然后将这些文档传递给大语言模型,以生成最终答案。 优势 处理大型或频繁更新的数据集时,无需一次性加
2025-04-12 22:10
9
0
2
28.9℃
RAG
上一页
下一页
1
2
3
4
5
6
7
8
弹