宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
基础模型
多模态
机器学习
论文速递
理论基础
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
知识库
分类
标签
归档
上网导航
1
2W8000字读懂GPT全家桶:从GPT-1到O1的技术演进与突破
2
强化学习详解第三部分:蒙特卡洛与时间差分学习,从经验中学习
3
万字解析非结构化文档中的隐藏价值:多模态检索增强生成(RAG)的前景
4
2W8000字深度剖析25种RAG变体
5
2w字解析量化技术,全网最全的大模型量化技术解析
登录
柏企
吹灭读书灯,一身都是月
累计撰写
54
篇文章
累计创建
18
个分类
累计收获
98
个点赞
导航
宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
基础模型
多模态
机器学习
论文速递
理论基础
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
知识库
分类
标签
归档
上网导航
目录
标签
LLM架构
大规模相似性搜索:原理、技术与 Faiss 实践
相似性搜索为何重要? 人工智能和机器学习的兴起,催生了大量高维数据表示形式,即嵌入(embeddings),它们捕捉数据点之间的复杂关系,助力强大的分析与理解。然而,在大型数据集中查找相似嵌入是一项计算密集型任务。相似性搜索在检索增强生成(Retrieval-Augmented Generation
2025-04-09 21:48
2
0
1
26.2℃
LLM架构
一文读懂大语言模型评估:困惑度指标全解析
评估语言模型一直是一项具有挑战性的任务。我们如何衡量一个模型是否真正理解语言、生成连贯的文本,或者给出准确的回复呢?在为此目的而开发的各种指标中,困惑度指标作为自然语言处理和语言模型(LM)评估领域中最基础且应用最广泛的评估指标之一,备受关注。 困惑度自统计语言建模的早期就开始被使用,即便在大语言模
2025-04-09 20:47
7
0
0
24.7℃
LLM架构
特定领域嵌入模型微调指南
特定领域嵌入模型微调:从理论到实践 在这篇文章中,我们将深入探讨针对特定领域(如医学、法律或金融)微调嵌入模型的过程。我们会专门为目标领域生成数据集,并利用它来训练模型,使其更好地理解所选领域内微妙的语言模式和概念。最终,你将拥有一个针对特定领域优化的更强大的嵌入模型,从而在 NLP 任务中实现更准
2025-04-09 17:26
12
0
1
27.2℃
LLM架构
利用 vLLM 手撸一个多模态RAG系统
利用 vLLM 实现多模态RAG 系统 本文将深入探讨如何使用 vLLM 构建多模态信息检索与生成(Multimodal RAG)系统,以实现对包含文本、图像和表格的文档的有效处理和智能问答。 如果您想了解更多关于自然语言处理或其他技术领域的信息,请关注我们的公众号 柏企阅文。 一、多模态 RAG
2025-04-09 17:22
8
0
1
26.8℃
LLM架构
如何在企业中实现知识图谱和大模型 (LLM)互通
知识图谱(KG)与大型语言模型(LLM):企业数据赋能的强强联合 数据如同企业的生命线,而如何高效地利用数据则成为了企业发展的关键。大型语言模型(LLM)和知识图谱(KG)作为两种强大的数据处理工具,正逐渐改变着企业的运营模式。今天,我们就来深入探讨一下它们在企业中的应用以及如何协同工作,为企业带来
2025-04-09 17:17
4
0
0
24.4℃
LLM架构
使用 Docling、Groq、Ollama 和 GLIDER 评估构建高级 RAG 管道
2025-04-09 17:00
4
0
1
26.4℃
RAG
探秘 GraphRAG:知识图谱赋能的检索增强生成技术新突破
2025-04-09 16:48
9
0
1
26.9℃
RAG
探索 AI 智能体工作流设计模式
《探索 AI 智能体工作流设计模式》 欢迎关注公众号 柏企阅文 由大语言模型(LLM)驱动的智能体是利用 LLM 进行问题推理、制定可行计划并使用一组工具执行这些计划的系统。简单来说,这些智能体融合了高级推理能力、记忆力和任务执行能力。 基于 LLM 的 AI 智能体工作流设计模式自 2022 年末
2025-04-09 13:19
20
0
4
34.0℃
Agent
探索大型语言模型新架构:从 MoE 到 MoA
探索大型语言模型新架构:从 MoE 到 MoA 当前,商业科技公司纷纷投身于一场激烈的竞赛,不断扩大语言模型的规模,并为其注入海量的高质量数据,试图逐步提升模型的准确性。然而,这种看似顺理成章的发展路径逐渐暴露出诸多内在局限。一方面,高质量数据的获取并非易事;另一方面,计算能力的瓶颈以及在普通用户硬
2025-04-09 12:58
7
0
2
28.7℃
LLM架构
专家混合(MoE)大语言模型:免费的嵌入模型新宠
专家混合(MoE)大语言模型:免费的嵌入模型新宠 今天,我们深入探讨一种备受瞩目的架构——专家混合(Mixture-of-Experts,MoE)大语言模型,它在嵌入模型领域展现出了独特的魅力。 一、MoE 架构揭秘 (一)MoE 是什么? MoE 是一种包含多个被称为“专家”子网的架构,每个子网专
2025-04-09 12:51
7
0
2
28.7℃
LLM架构
上一页
下一页
1
2
3
弹