8000 GitHub - datawhalechina/llmbook
[go: up one dir, main page]
More Web Proxy on the site http://driver.im/
Skip to content

datawhalechina/llmbook

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

13 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

大语言模型 LLMBook

项目背景

本课程围绕中国人民大学高瓴人工智能学院赵鑫教授团队出品的《大语言模型》书籍展开,覆盖大语言模型训练与使用的全流程,从预训练到微调与对齐,从使用技术到评测应用,帮助学员全面掌握大语言模型的核心技术。并且,课程内容基于大量的代码实战与讲解,通过实际项目与案例,学员能将理论知识应用于真实场景,提升解决实际问题的能力。

作者:赵鑫李军毅周昆唐天一文继荣

项目受众

本课程面向希望深入掌握大模型技术的 AI 从业者,帮助其训练、优化和应用大模型以解决实际问题。同时,课程适合对人工智能前沿技术感兴趣的学生与研究人员,为其学术研究或职业发展奠定基础。此外,产品经理、技术管理者与创业者也可通过本课程了解大模型的潜力与应用,推动产品创新并优化技术战略。
学员需要具备一定的Python编程能力,熟悉PyTorch等经典深度学习框架,并具有一定的深度学习基础。

书籍获取

纸质版书籍:京东
电子版PDF书籍:GithubAIBox官网
备注:由于后续修订和篇幅原因,大模型应用章节未纳入正式出版,一切内容以正式出版物为准。

配套PPT课件资源

为了帮助课程教学及传播大模型知识,《大语言模型》编写团队特别提供了相应的PDF课件:

课程 目录
第一课 初识大模型(对应本书第一、二章) 语言模型发展历程大模型技术基础GPT和DeepSeek模型介绍
第二课 模型架构(对应本书第五章) Transformer模型介绍模型详细配置长上下文模型和新型架构
第三课 预训练(对应本书第四、六章) 预训练之数据工程预训练之具体流程训练优化模型参数量与训练效率估计
第四课 指令微调(对应本书第七章) 指令微调与常见策略轻量化微调
第五课 人类对齐(对应本书第八章) 人类对齐之基础人类对齐之进阶
第六课 解码与部署(对应本书第九章) 大模型解码解码效率分析与加速算法模型压缩
第七课 提示学习(对应本书第十章) 提示设计上下文学习思维链提示检索增强生成
第八课 复杂推理(对应本书第十一章) 规划与智能体复杂推理与慢思考
其他章节 大模型资源大模型评测

内容贡献

本书各章节的主要负责人和参与人名单如下:

  • 第三章的负责人是闵映乾和杨晨,参与人有李军毅、周昆;
  • 第四章的负责人是张君杰、侯宇蓬和周昆;
  • 第五章的负责人是董梓灿,参与人有田震和唐天一;
  • 第六章的负责人是唐天一和陈昱硕;
  • 第七章的负责人是唐天一,参与人有成晓雪;
  • 第八章的负责人是李军毅和陈志朋;
  • 第九章的负责人是陈昱硕、刘沛羽和唐天一,参与人有周昆;
  • 第十章的负责人是李军毅、汤昕宇和都一凡,参与人有王晓磊;
  • 第十一章的负责人是任瑞阳和蒋锦昊,参与人有李军毅;
  • 第十二章的负责人是张北辰和周昆,参与人有张高玮;
  • 第十三章的负责人是周昆,参与人(按拼音字母排序)有蒋锦昊、李依凡、刘子康、孙文奇、王禹淏、徐澜玲、杨锦霞和郑博文。

同时感谢其他参与本书编写、校对的同学,他们(按拼音字母排序)是:曹乾、曹展硕、陈杰、程伽雅琪、戴孙浩、邓欣、丁毅杰、冯雪扬、高泽峰、苟志斌、辜子惠、郭歌扬、何东楠、侯新铭、胡译文、李炳黔、李成远、李欣潼、刘恩泽、刘炯楠、刘子涵、罗文扬、梅朗、欧柯杉、彭涵、阮恺、苏炜航、孙一丁、汤奕如、王家鹏、王磊、王淑婷、姚峰、尹彦彬、詹玉梁、张景森、张良、朱天宇和朱余韬。

本书在编写过程得到了中国人民大学大型科学仪器共享平台的算力资源支持,在此对于陈跃国、鲁蔚征、石源三位老师表示衷心的感谢。

反馈与引用

欢迎反馈

本书的初版仅是一个起点,作者团队计划在网上持续进行内容的更新和完善,并特别欢迎读者提出宝贵的批评与建议,也会同步在网站上对于提出宝贵建议的读者进行致谢。 如果您有任何意见、评论以及建议(先确认最新版本中是否已经修正),请通过GitHub的Issues页面进行反馈,或通过邮件发送至作者邮箱batmanfly at qq.comlijunyi at ruc.edu.cnfrancis_kun_zhou at ruc.edu.cnsteventianyitang at outlook.com

PPT课件获取

若将本纸质书籍列为主要授课书籍的课程,如果需要相应的原始PPT课件进行授课,请使用本机构邮件联系 batmanfly at ruc.edu.cn 进行申请。
邮件标题:《大语言模型》PPT课件-{姓名}-{机构}
邮件内容请说明
“已将本纸质书籍列为主要授课书籍,课程中需要明确的说明(请说明在教学课件中或者教学大纲中说明),PPT课件仅用于课程教学,请列出课程名称。”
未经许可,不得二次传播和上网传播。

引用格式

@book{LLMBook,
  title = {大语言模型},
  publisher = {高等教育出版社},
  year = {2024},
  author = {赵鑫, 李军毅, 周昆, 唐天一, 文继荣},
  address = {北京},
  url = {https://llmbook-zh.github.io/},
}

参与贡献

  • 如果你发现了一些问题,可以提Issue进行反馈,如果提完没有人回复你可以联系保姆团队的同学进行反馈跟进~
  • 如果你想参与贡献本项目,可以提Pull request,如果提完没有人回复你可以联系保姆团队的同学进行反馈跟进~
  • 如果你对 Datawhale 很感兴趣并想要发起一个新的项目,请按照Datawhale开源项目指南进行操作即可~

关注我们

扫描下方二维码关注公众号:Datawhale

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published
0