牛津大学提出 NoProp : 不再需要反向传播来训练神经网络

深入研究 “NoProp” 算法,无需前向传递和反向传播来训练神经网络,并从头开始学习编码。 论文 NoProp: Training Neural Networks without Back-propagation or Forward-propagation 您不再需要反向传播来训练神经网络 反向

清华大学| 强化学习是否激励LLM中超越基本模型的推理能力?

|文末点击阅读原文查看网页版| 更多专栏文章点击查看: LLM 架构专栏

论文速递 基于聚类的迭代数据混合引导:优化数据混合以预训练大语言模型(LLM)的框架

论文:https://arxiv.org/abs/2504.13161 数据集: https://huggingface.co/datasets/nvidia/ClimbLab https://huggingface.co/datasets/nvidia/ClimbMix 识别最佳预训练数据混合仍然

强化学习详解第六部分 高级策略优化:深度强化学习的演变

高级策略优化:深度强化学习的演变 在我们迄今为止探索强化学习的旅程中,我们见证了深度神经网络如何彻底改变了在复杂环境中可能实现的事情。但就像所有的进化飞跃一样,深度Q网络(DQN)及其直接衍生算法仅仅是更深刻变革的开端。 本文聚焦高级策略优化,深度解析 TRPO、PPO 等经典算法如何解决传统强化学

掌握Torchtune:高效微调、评估和部署大型语言模型的实用指南


掌握Torchtune:高效微调、评估和部署大型语言模型的实用指南 近日热文:全网最全的神经网络数学原理(代码和公式)直观解释 欢迎关注知乎和公众号的专栏内容 LLM架构专栏 知乎LLM专栏

ScholarCopilot:借助精准引用训练大语言模型助力学术写作

ScholarCopilot:借助精准引用训练大语言模型助力学术写作 在学术写作中,精准引用与优质文本生成至关重要,现有检索 - 增强生成系统却难以满足需求。今天为大家带来一篇研究成果介绍,文中提出的ScholarCopilot框架,能训练大语言模型助力学术写作。它表现如何?又有哪些创新?快来一探究

开源 

万字深度解析 FlashAttention:让 Transformer 效率飙升的神奇算法

本文1W字,FlashAttention 巧妙地重新组织计算方式,通过使注意力计算具备I/O感知能力,最大限度减少慢速内存操作,它能更高效地获得与标准注意力机制相同的结果。我们深入探讨了它如何利用平铺技术将数据保存在片上内存,通过分块进行softmax和矩阵乘法运算,避免将庞大的 $n×n$ 矩阵写

LLM架构系列 ---探索文本嵌入模型:从基础到BERT与SBERT实战

本文1W字,探讨了各种用于生成文本向量表示的嵌入模型,包括词袋模型(BoW)、TF-IDF、Word2Vec、GloVe、FastText、ELMO、BERT等等。深入研究了BERT的架构和预训练,介绍了用于高效生成句子嵌入的句子BERT(SBERT),并提供了一个使用sentence-transf

1W2000字 一文读懂向量数据库:原理、索引技术与选型指南

本文1W2000字,本文简要介绍了向量数据库,重点阐述了其在检索增强生成(RAG)应用中的关键作用。文章突出了ChromaDB、Pinecone和Weaviate等热门数据库,强调了高效存储和检索对优化 RAG 性能的重要性。 文中深入探讨了各种索引技术和算法,对Annoy、倒排文件(IVF)索引、

RAG 

1W8000字 探秘 RAG 应用搜索:从语义搜索到评估指标的深度解析

本文1W8000字,在这篇文章中,我们探讨了检索增强生成(RAG)应用程序中的搜索过程,重点介绍了使用向量数据库的语义搜索。我们强调了其减少处理时间和支持实时更新等优势,同时也指出了面临的挑战,比如对独特查询可能给出不太理想的回复。预防这些问题的策略包括监控查询密度和收集用户反馈。优化工作应贯穿构建

RAG