本站资源全部免费,回复即可查看下载地址!
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
名称:九天菜菜-【正课】大模型原理与训练实战
描述:该课程讲解大模型原理与训练实战,涵盖神经网络基础(DNN/RNN)、Transformer架构、LLaMA实现等核心内容,并配套Python/PyTorch基础与LlaMA训练实战。课程从理论推导到代码实现,完整覆盖大模型技术栈,包括注意力机制、位置编码、KV缓存等关键技术,同时提供NLP入门和大模型应用开发指导。
链接:
``` └─九天菜菜-【正课】大模型原理与训练实战 ├─【赠送】10小时NLP高效入门 │ 01_【神经网络入门】1 SSE与二分类交叉熵损失.mp4 │ 02_【神经网络入门】2 二分类交叉熵的原理与实现.mp4 │ 03_【神经网络入门】3 多分类交叉熵的原理与实现.mp4 │ 04_【DNN】1 梯度下降中的两个关键问题.mp4 │ 05_【DNN】2.1 反向传播的原理.mp4 │ 06_【DNN】2.2 反向传播的实现.mp4 │ 07_【DNN】3 走出第一步:动量法Momentum.mp4 │ 08_【DNN】4 开始迭代:batch与epochs.mp4 │ 09_【DNN】5.1 在Fashion-MNIST数据集上实现完整的神经网络(上).mp4 │ 10_【DNN】5.2 在Fashion-MNIST数据集上实现完整的神经网络(下).mp4 │ 11_【RNN】1.1 欢迎来到NLP的世界.mp4 │ 12_【RNN】1.2 大模型的行业影响与发展.mp4 │ 13_【RNN】2.1 深度学习中的时间序列数据.mp4 │ 14_【RNN】2.2 文字序列数据 - 结构与分词操作.mp4 │ 15_【RNN】2.3 文字序列数据 - Token与编码.mp4 │ 16_【RNN】3.1~3.2 RNN的架构与数据流.mp4 │ 17_【RNN】3.3 各类NLP任务下循环神经网络的输入与输出.mp4 │ 18_【RNN】3.4.1 认识PyTorch中nn.RNN层.mp4 │ 19_【RNN】3.4.2 在PyTorch中实现RNN.mp4 │ 20_【RNN】3.4.3 深度神经网络的实现.mp4 │ 21_【RNN】3.4.4 自定义循环层中的循环数据流.mp4 │ 22_【RNN】3.4.5 双向循环神经网络.mp4 │ 23_【RNN】3.4.6【加餐】手动实现RNN执行情感分类任务.mp4 │ 24_【RNN】3.4.7【加餐】手动实现RNN执行文本生成任务.mp4 │ 25_【RNN】3.5.1 RNN反向传播的数学流程.mp4 │ 26_【RNN】3.5.2 RNN各类缺陷的数学本质.mp4 │ ├─【赠送】2小时从0到1训练LlaMA模型 │ 01 环境准备与算力准备.mp4 │ 02 预训练微调数据集准备.mp4 │ 03 训练定制化Tokenizer.mp4 │ 04 llama-like模型的预训练(上).mp4 │ 05 llama-like模型的预训练(下).mp4 │ 06 指令微调 + 结果展示.mp4 │ ├─【赠送】python基础 │ Lesson 1.Hello World!.mp4 │ Lesson 10.列表的常用方法(一).mp4 │ Lesson 11.列表常用方法(二).mp4 │ Lesson 12.元组对象的创建与索引.mp4 │ Lesson 13.元组的常用方法.mp4 │ Lesson 14.字典对象的创建与索引.mp4 │ Lesson 15.字典的常用方法.mp4 │ Lesson 16.集合的创建(新).mp4 │ Lesson 17.集合的常用方法(新).mp4 │ Lesson 18.冻集合的创建与使用.mp4 │ Lesson 19.控制语句(一):判别语句.mp4 │ Lesson 2.数值型对象的创建.mp4 │ Lesson 20.控制语句(二):循环语句.mp4 │ Lesson 21.控制语句(三):条件循环.mp4 │ Lesson 22.函数(一):函数的使用.mp4 │ Lesson 23.函数(二):函数的参数.mp4 │ Lesson 24.函数(三):变量作用域与lambda函数.mp4 │ Lesson 25.类的创建.mp4 │ Lesson 26.类的方法和继承.mp4 │ Lesson 27.NumPy基础.mp4 │ Lesson 28.NumPy数组的常用方法.mp4 │ Lesson 29.NumPy的广播与科学计算.mp4 │ Lesson 3.数值型对象的科学运算.mp4 │ Lesson 30.Pandas入门.mp4 │ Lesson 31.DataFrame数据结构基础.mp4 │ Lesson 4.布尔型对象.mp4 │ Lesson 5.字符串型对象的创建.mp4 │ Lesson 6.字符串索引.mp4 │ Lesson 7.字符串的常用方法(一).mp4 │ Lesson 8.字符串常用方法(二).mp4 │ Lesson 9.列表对象的创建与索引.mp4 │ ├─【赠送】大模型入门基础 │ 01_【预习课】Lesson 1 谷歌邮箱Gmail注册.mp4 │ 02_【预习课】Lesson 2 OpenAI账号注册.mp4 │ 03_【预习课】Lesson 3 ChatGPT Plus升级流程.mp4 │ 04_【预习课】Lesson 4 ChatGPT防封指南.mp4 │ 05_Ch 1.1 OpenAI官网使用说明.mp4 │ 06_Ch 1.2 本地调用OpenAI API方法.mp4 │ 07_Ch 2.1 Completion模型与Chat模型介绍.mp4 │ 08_Ch 2.2 Completion.create函数参数详解.mp4 │ 09_Ch 2.3 Completion.create函数调参数实践.mp4 │ 10_Ch 2.4手动创建可调节对话风格的对话机器人创建.mp4 │ 11_Ch 3.1 大语言模型原生能力与涌现能力介绍.mp4 │ 12_Ch 3.2 提示工程技术入门.mp4 │ 13_Ch 4.1 One-shot&Few-shot提示方法.mp4 │ 14_Ch 4.2 Zero-shot-CoT提示法(新).mp4 │ 15_Ch 4.3Few-shot-CoT提示法.mp4 │ 16_Ch 4.4 LtM提示方法.mp4 │ 17_Ch 5.1 SCAN指令翻译项目介绍与数据集准备.mp4 │ 18_Ch 5.2 针对SCAN数据集的Few-shot-LtM提示工程流程.mp4 │ 19_Ch 5.3 SCAN指令翻译项目完整建模流程.mp4 │ 20_Ch 6.1 Chat Completion模型背景介绍.mp4 │ 21_Ch 6.2 Chat Completion模型发展现状.mp4 │ 22_Ch 7.1 Chat Completion模型API详解.mp4 │ 23_Ch 7.2 Messages参数设置技巧.mp4 │ 24_Ch 7.3 基于特定知识的简易问答机器人创建方法.mp4 │ ├─【赠送】大模型必备PyTorch基础 │ Lesson 1 张量的创建与常用方法.mp4 │ Lesson 2 张量的索引、分片、合并及维度调整.mp4 │ Lesson 3 张量的广播和科学运算.mp4 │ Lesson 4 张量的线性代数运算.mp4 │ Lesson 5 基本优化方法与最小二乘法.mp4 │ Lesson 6 动态计算图与梯度下降入门.mp4 │ Lesson 7.1 神经网络的诞生与发展.mp4 │ Lesson 7.2 机器学习中的基本概念.mp4 │ Lesson 7.3 深入理解PyTorch框架.mp4 │ Lesson 8.1单层回归神经网络 & Tensor新手避坑指南.mp4 │ Lesson 8.2 torch.nn.Linear实现单层回归网络的正向传播.mp4 │ Lesson 8.3 二分类神经网络的原理与实现.mp4 │ Lesson 8.4 torch.nn.functional实现单层二分类网络的正向传播.mp4 │ Lesson 8.5 多分类神经网络.mp4 │ Lesson 9.1 从异或门问题认识多层神经网络.mp4 │ Lesson 9.2 黑箱:深度神经网络的不可解释性.mp4 │ Lesson 9.3 & 9.4 层与激活函数.mp4 │ Lesson 9.5 从0实现深度神经网络的正向传播.mp4 │ └─第一阶段 大模型顶尖架构原理精讲 00 不同基础不同目标的学习路径规划.mp4 【LLaMA】1 LLaMA中的Decoder架构详解.mp4 【LLaMA】2 LLaMA中的Embedding层.mp4 【LLaMA】3 RMSNorm均方根层归一化.mp4 【LLaMA】4 旋转位置编码ROPE.mp4 【LLaMA】4.5 旋转位置编码的Q&A.mp4 【LLaMA】5 KV缓存的原理与初步实现.mp4 【LLaMA】5.5 时间复杂度、机器翻译等Q&A.mp4 【LLaMA】原理与架构复现 Part 2.mp4 【LLaMA】原理与架构复现 Part 3.mp4 【LLaMA】原理与架构复现 Part 4.mp4 【Transformer】1 Transformer与注意力机制入门.mp4 【Transformer】10 编码器结构详解之前馈神经网络FFN.mp4 【Transformer】11 完整Transformer结构下的解码器Decoder.mp4 【Transformer】12 Decoder的输入与teacher forcing.mp4 【Transformer】13 掩码与掩码注意力机制.mp4 【Transformer】14 填充掩码与前瞻掩码的实现.mp4 【Transformer】15 编码-解码注意力层.mp4 【Transformer】16 Decoder-Only结构下的Decoder.mp4 【Transformer】2 Attention注意力机制的本质.mp4 【Transformer】3 Transformer中的注意力计算流程 & 多头注意力机制.mp4 【Transformer】4 Transformer的基本架构.mp4 【Transformer】5 Embedding与位置编码.mp4 【Transformer】6 正余弦编码的数学与实用意义.mp4 【Transformer】7 正余弦编码的实际计算与高维空间可视化.mp4 【Transformer】8 编码器结构详解之残差链接.mp4 【Transformer】9 编码器结构详解之Layer Normalization.mp4 ``` |