📃前言

LLM-Everything

从零开始,系统掌握大语言模型的一切。

GitBookarrow-up-right 知乎arrow-up-right


✨ 为什么是这个项目?

市面上不缺 LLM 教程,但缺的是真正讲明白的。

  • 🎯 不复制粘贴 — 每篇文章精心打磨,用生动的方式拆解复杂概念

  • 🔨 从零实现代码 — 不只讲理论,带你亲手写出来,在实战中理解原理

  • 🗺️ 体系化路线 — 从基础到前沿,完整的学习路径,不再迷路


📚 知识地图

🎚️ 基础部分

🪿 深度学习基础

  • 🚧 持续更新中...

🐬 Prompt Engineering

🦖 Transformer 架构

逐模块拆解 Transformer,从输入到输出,一个不落。

模块
链接

Tokenizer

Embeddings

Positional Encoding

Self Attention

Multi-Head Attention

Add & Norm

FeedForward

Linear & Softmax

Decoding Strategy

🎄 LLM 训练

🐒 MoE(混合专家模型)

🪿 LLM 应用

🐢 多模态大模型

🔒 LLM 安全

  • 🚧 持续更新中...


🛣️ 推荐学习路线


🤝 参与贡献

本项目正在快速迭代中,欢迎:

  • 🐛 提 Issue 指出错误或疑问

  • 🔀 提 PR 补充内容

  • ⭐ 觉得有用就给个 Star,这是最大的鼓励


如果这个项目帮到了你,请点个 ⭐ Star 支持一下!

Last updated