# Foundations-of-LLMs **Repository Path**: sunscheung/Foundations-of-LLMs ## Basic Information - **Project Name**: Foundations-of-LLMs - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-06-19 - **Last Updated**: 2025-06-19 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README

大模型基础

本书旨在为对大语言模型感兴趣的读者系统地讲解相关基础知识、介绍前沿技术。作者团队将认真听取开源社区以及广大专家学者的建议,持续进行**月度更新**,致力打造**易读、严谨、有深度**的大模型教材。并且,本书还将针对每章内容配备相关的**Paper List**,以跟踪相关技术的**最新进展**。 本书第一版包括**传统语言模型**、**大语言模型架构演化**、**Prompt工程**、**参数高效微调**、**模型编辑**、**检索增强生成**等六章内容。为增加本书的易读性,每章分别以**一种动物**为背景,对具体技术进行举例说明,故此本书以六种动物作为封面。当前版本所含内容均来源于作者团队对相关方向的探索与理解,如有谬误,恳请大家多提issue,多多赐教。后续,作者团队还将继续探索大模型推理加速、大模型智能体等方向。相关内容也将陆续补充到本书的后续版本中,期待封面上的动物越来越多。 当前完整的本书PDF版本路径为大模型基础.pdf。另外,我们还提供了两个文件夹,大语言模型分章节内容文件夹中包含了各章节的PDF版本。而大语言模型相关论文文件夹中包含了各章节的相关论文,当前正处于不断更新中。 其中每个章节的内容目录如下表所示。 ## 本书目录
章节 所含内容
第 1 章:语言模型基础 1.1 基于统计方法的语言模型 1.2 基于 RNN 的语言模型 1.3 基于 Transformer 的语言模型
1.4 语言模型的采样方法 1.5 语言模型的评测
第 2 章:大语言模型 2.1 大数据 + 大模型 → 新智能 2.2 大语言模型架构概览 2.3 基于 Encoder-only 架构的大语言模型
2.4 基于 Encoder-Decoder 架构的大语言模型 2.5 基于 Decoder-only 架构的大语言模型 2.6 非 Transformer 架构
第 3 章:Prompt 工程 3.1 Prompt 工程简介 3.2 上下文学习 3.3 思维链
3.4 Prompt 技巧 3.5 相关应用
第 4 章:参数高效微调 4.1 参数高效微调简介 4.2 参数附加方法 4.3 参数选择方法
4.4 低秩适配方法 4.5 实践与应用
第 5 章:模型编辑 5.1 模型编辑简介 5.2 模型编辑经典方法 5.3 附加参数法:T-Patcher
5.4 定位编辑法:ROME 5.5 模型编辑应用
第 6 章:检索增强生成 6.1 检索增强生成简介 6.2 检索增强生成架构 6.3 知识检索
6.4 生成增强 6.5 实践与应用
## 致谢 本书的不断优化,将仰仗各位读者的帮助与支持。您的建议将成为我们持续向前的动力! 所有提出issue的人,我们都列举在此,以表达我们深深的谢意。 如果有此书相关的其他问题,请随时联系我们,可发送邮件至:xuwenyi@zju.edu.cn。