Resources
Resources
这页不按时间倒序。
它只做一件事:把真正值得反复回看的入口资源集中在一起。
Book Series
Principles and Practice of Deep Representation Learning
这是我正在更新的读书笔记系列入口,章节 PDF 已按顶层结构拆分。
- 系列入口页
- 00. Preface
- 01. Preface to Version 2.0
- 02. Declaration of Open Source
- 03. Acknowledgment
- 04. Notation
- 05. An Informal Introduction to Intelligence
- 06. Learning Linear and Independent Structures
- 07. Pursuing Low-Dimensional Distributions via Denoising
- 08. Representation Learning via Lossy Compression
- 09. Deep Representations as Unrolled Optimization
- 10. Consistent and Self-Consistent Representations
- 11. Inference with Low-Dimensional Distributions
- 12. Learning Representations for Real-World Data and Tasks
- 13. Open Problems and Directions about Intelligence
- 14. Appendices
Deep Learning
官方在线版可免费阅读,但官方 FAQ 明确说明不提供 PDF,因此这里采用章节网页链接方案。
- 系列入口页
- Table of Contents
- 1. Introduction
- 2. Linear Algebra
- 3. Probability and Information Theory
- 4. Numerical Computation
- 5. Machine Learning Basics
- 6. Deep Feedforward Networks
- 7. Regularization for Deep Learning
- 8. Optimization for Training Deep Models
- 9. Convolutional Networks
- 10. Sequence Modeling: Recurrent and Recursive Nets
- 11. Practical Methodology
- 12. Applications
- 13. Linear Factor Models
- 14. Autoencoders
- 15. Representation Learning
- 16. Structured Probabilistic Models for Deep Learning
- 17. Monte Carlo Methods
- 18. Confronting the Partition Function
- 19. Approximate Inference
- 20. Deep Generative Models
Surveys and Foundations
Sentence-BERT
FoundationSentence Embedding
句向量真正走向实用的代表性起点,适合建立“单向量表示”直觉。
SimCSE
Contrastive LearningText Embedding
用非常简洁的对比学习方法推动句向量训练,适合看训练目标如何改变表征空间。
DPR
Dense RetrievalOpen-domain QA
双塔检索进入主流的关键工作之一,适合建立 retrieval 视角。
Retrieval and Interaction
ColBERT
Late InteractionRetrieval
如果你想理解为什么单向量之外仍然有持续空间,这篇几乎绕不开。
BEIR
BenchmarkZero-shot IR
帮助区分“模型在单一数据集上更高分”和“模型在异构检索场景里更稳”。
MTEB
BenchmarkEvaluation
把 embedding 评测从少数任务扩到更完整任务集合,是理解“通用 embedding”最好的入口之一。
Recent and Practical Directions
E5
General-purposeRetrieval
很适合观察统一训练数据、任务提示和零样本检索之间的关系。
MAR Reading Note
Internal NoteAsymmetric Retrieval
站内一篇已经成形的非对称检索笔记,适合作为“研究型笔记”的示例页。
Notes Stream
InternalIncremental Updates
如果你想看最近新增的内容,而不是按专题浏览,可以直接进入时间流。
如何使用这页
- 想快速入门:先看 Sentence-BERT、DPR、MTEB。
- 想理解检索系统结构:继续看 ColBERT、BEIR、MAR。
- 想关注更实用的统一 embedding:再看 E5 以及后续效率问题。