置顶

2W8000字读懂GPT全家桶:从GPT-1到O1的技术演进与突破

2025-03-25

LangGraph 多智能体群:使用 LangGraph 创建群风格多智能体系统的 Python 库

LangGraph 多智能体群是一个 Python 库,旨在将多个 AI 智能体编排成一个有凝聚力的 “群”。它建立在 LangGraph 之上,LangGraph 是一个用于构建健壮、有状态智能体工作流的框架,以实现一种特殊形式的多智能体架构。在一个群中,具有不同专业的智能体根据任务的需要动态地将

利用Transformer、DPR、FAISS和BART对检索增强生成(RAG)进行深入技术探索

利用Transformer、DPR、FAISS和BART对检索增强生成(RAG)进行深入技术探索 |文末点击阅读原文查看网页版| 更多专栏文章点击查看: LLM 架构专栏

RAG 

强化学习详解第八部分 RLAIF 如何实现人工智能反馈的规模化飞跃

超越人类极限的规模对齐 在我们之前的文章中,我们探讨了人类反馈强化学习(RLHF)是如何通过使用人类评估来教导模型我们的偏好,从而彻底改变了人工智能对齐的方式。 但 RLHF 存在一个令人困扰的局限性,你可能已经猜到了:“人类”。 别误会我的意思 —— 人类反馈是无价的。 但它也很昂贵、缓慢,并且在

1W8000字 探秘 RAG 应用搜索:从语义搜索到评估指标的深度解析

本文1W8000字,在这篇文章中,我们探讨了检索增强生成(RAG)应用程序中的搜索过程,重点介绍了使用向量数据库的语义搜索。我们强调了其减少处理时间和支持实时更新等优势,同时也指出了面临的挑战,比如对独特查询可能给出不太理想的回复。预防这些问题的策略包括监控查询密度和收集用户反馈。优化工作应贯穿构建

RAG 

一文读懂大语言模型评估:方法、指标与框架全解析

大模型评估全解析:方法、指标与框架 🕙发布时间:2025-02-24 本文3W4000字,分了8个小节介绍大模型评估方法,后续会把最新的方法更新进来~,有些内容是翻译自HuggingFace和一些论文,更多LLM架构文章:

2W8000字揭秘RAG:从基础到高级的逆袭,彻底重塑大模型!

2W8000字揭秘RAG:从基础到高级的逆袭,彻底重塑大模型! 🕙发布时间:2025-02-24 本文2W8000字,配图58张,分了11个小节介绍RAG技术,后续会把最新的方法更新进来~,有些内容是翻译自HuggingFace和一些论文,更多LLM架构文章:

RAG 

重现 OpenAI o1 的技术路线

重现 OpenAI o1 的技术路线 OpenAI o1发布后,其强大的推理能力远超早期的大语言模型(LLM),达到了媲美博士级专业知识的性能水平。 目前,有两种复现o1的范式: 基于知识蒸馏:这是一种捷径方法,可以提取o1的数据并微调LLM(如Llama 3.2、Qwen2等)以模仿o1的推理风格

典型的RAG流程、每个模块的最佳实践和综合评估

典型的RAG流程、每个模块的最佳实践和综合评估 近日热文:全网最全的神经网络数学原理(代码和公式)直观解释 欢迎关注知乎和公众号的专栏内容 LLM架构专栏 知乎LLM专栏

RAG 

向量相似性搜索与图数据库:数据处理的创新融合

向量相似性搜索与图数据库:数据处理的创新融合 近日热文:全网最全的神经网络数学原理(代码和公式)直观解释 欢迎关注知乎和公众号的专栏内容 LLM架构专栏 知乎LLM专栏

RAG