本站资源全部免费,回复即可查看下载地址!
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
✓ 从0到1训练私有大模型 ,企业急迫需求,抢占市场先机
├─{1}--第1章 课程介绍
│ ├─[1.1]--1-1 【导航】课程导学&让你快速了解课程_ev.mp4
│ ├─[1.2]--1-2 【内容安排】课程安排和学习建议_ev.mp4
│ ├─[1.3]--1-3 【行业发展】ChatGPT对行业、社会有什么影响,我们要_ev.mp4
│ ├─[1.4]--1-4 【发展史】ChatGPT的简要历史_ev.mp4
│ └─[1.5]--1-5 【学习须知】本课程为什么使用gpt2而不是gpt3_ev.mp4
├─{2}--第2章 训练模型与开发平台环境
│ ├─[2.1]--2-1 【认知】为什么要引入paddle?平时使用torch,学_ev.mp4
│ ├─[2.2]--2-2 【框架】paddle和torch与tensorflow对_ev.mp4
│ ├─[2.3]--2-3 【NLP工具和预训练模型】paddleNLP和huggi_ev.mp4
│ ├─[2.4]--2-4 【平台】介绍aistudio_ev.mp4
│ └─[2.5]--2-5 【工具】介绍基于gpt4的IDE cursor_ev.mp4
├─{3}--第3章 chatGPT初始技术词向量原理剖析与实战
│ ├─[3.1]--3-1 【认知】词向量,词向量与gpt的关系_ev.mp4
│ ├─[3.2]--3-2 【语言模型】语言模型和评估指标PPL_ev.mp4
│ ├─[3.3]--3-3 【词向量模型】word2vec-cbow和skipgra_ev.mp4
│ ├─[3.4]--3-4 【softmax加速】是softmax 树型优化_ev.mp4
│ ├─[3.5]--3-5 【softmax加速】softmax负采样优化_ev.mp4
│ ├─[3.6]--3-6 【数据准备与预处理】word2vec实战(1)_ev【耗时整理‖免费分享 cunlove.cn】.mp4
│ ├─[3.7]--3-7 【数据准备与预处理】word2vec实战(2)_ev.mp4
│ ├─[3.8]--3-8 【模型训练】word2vec实战-模型开发和训练(1)_ev.mp4
│ ├─[3.9]--3-9 【模型训练】word2vec实战-模型开发和训练(2)_ev.mp4
│ ├─[3.10]--3-10 【激活函数】常见七种激活函数对比_ev.mp4
│ ├─[3.11]--3-11 【预训练语言模型】RNN-LSTM-ELMO_ev.mp4
│ └─[3.12]--3-12 本章梳理小结_ev.mp4
├─{4}--第4章 chatGPT基石模型——基于Transformer架构的语言模型
│ ├─[4.1]--4-1 本章介绍_ev.mp4
│ ├─[4.2]--4-2 seq2seq结构和注意力_ev.mp4
│ ├─[4.3]--4-3 seq2seq-attention的一个案例_ev.mp4
│ ├─[4.4]--4-4 transformer的multi-head atten_ev.mp4
│ ├─[4.5]--4-5 transformer的残差链接-解决梯度消失问题_ev.mp4
│ ├─[4.6]--4-6 transformer的layernorm-归一化提升训_ev.mp4
│ ├─[4.7]--4-7 transformer的decoder 解码器_ev.mp4
│ ├─[4.8]--4-8 sparse-transformer 稀疏模型_ev.mp4
│ ├─[4.9]--4-9 transformer-xl 解决长序列的问题(1)_ev.mp4
│ ├─[4.10]--4-10 transformer-xl解决长序列的问题(2)_ev.mp4
│ └─[4.11]--4-11 本章梳理总结_ev.mp4
├─{5}--第5章 基于Transformer另一分支Bert系列分析与实战
│ ├─[5.1]--5-1 本章介绍_ev.mp4
│ ├─[5.2]--5-2 metric-评估指标(BLUE-rouge-L-MET_ev.mp4
│ ├─[5.3]--5-3 常见 subword 算法(BPE-wordpiece)_ev.mp4
│ ├─[5.4]--5-4 常见的NLP任务_ev.mp4
│ ├─[5.5]--5-5 bert 预训练模型_ev.mp4
│ ├─[5.6]--5-6 bert情感分析实战----paddle(1)_ev.mp4
│ ├─[5.7]--5-7 bert情感分析实战----paddle(2)_ev.mp4
│ ├─[5.8]--5-8 evaluate和predict方法----paddle_ev.mp4
│ ├─[5.9]--5-9 bert(transformer encoder)主要源_ev.mp4
│ ├─[5.10]--5-10 bert(transformer encoder)主要_ev.mp4
│ ├─[5.11]--5-11 bert(transformer encoder)的完_ev.mp4
│ ├─[5.12]--5-12 Ernie文心一言基础模型(1)_ev.mp4
│ ├─[5.13]--5-13 Ernie文心一言基础模型(2)_ev.mp4
│ ├─[5.14]--5-14 plato百度对话模型(1)_ev.mp4
│ ├─[5.15]--5-15 plato 百度对话模型(2)_ev.mp4
│ └─[5.16]--5-16 本章总结_ev.mp4
├─{6}--第6章 chatGPT的核心技术——强化学习
│ ├─[6.1]--6-1 RL是什么&为什么要学习RL_ev.mp4
│ ├─[6.2]--6-2 强化学习章介绍_ev.mp4
│ ├─[6.3]--6-3 RL基础概念_ev.mp4
│ ├─[6.4]--6-4 RL马尔可夫过程_ev.mp4
│ ├─[6.5]--6-5 RL三种方法(1)_ev.mp4
│ ├─[6.6]--6-6 RL三种方法(2)_ev.mp4
│ ├─[6.7]--6-7 DQN和DQN的2种改进算法(1)_ev.mp4
│ ├─[6.8]--6-8 DQN和DQN的2种改进算法(2)_ev.mp4
│ ├─[6.9]--6-9 actor-critic(1)_ev.mp4
│ ├─[6.10]--6-10 actor-critic(2)_ev.mp4
│ ├─[6.11]--6-11 TRPO+PPO(1)_ev.mp4
│ ├─[6.12]--6-12 TRPO+PPO(2)_ev.mp4
│ ├─[6.13]--6-13 DQN代码实践--torch-1_ev.mp4
│ ├─[6.14]--6-14 DQN代码实践--torch-2_ev.mp4
│ ├─[6.15]--6-15 DoubleDQN+DuelingDQ代码--torc_ev.mp4
│ ├─[6.16]--6-16 REINFORCE代码--torch_ev.mp4
│ ├─[6.17]--6-17 PPO代码实践--torch_ev.mp4
│ └─[6.18]--6-18 强化学习-本章总结_ev.mp4
├─{7}--第7章 chatGPT技术演变——从GPT 1 开始的大模型发展与演化
│ ├─[7.1]--7-1 GPT1 模型_ev.mp4
│ ├─[7.2]--7-2 GPT2 模型_ev.mp4
│ ├─[7.3]--7-3 GPT3 模型-1_ev.mp4
│ ├─[7.4]--7-4 GPT3 模型-2_ev.mp4
│ ├─[7.5]--7-5 gpt-codex 基于GPT技术开发的模型_ev.mp4
│ ├─[7.6]--7-6 alphaCode基于GPT技术开发的模型-1_ev.mp4
│ ├─[7.7]--7-7 alphaCode基于GPT技术开发的模型-2_ev.mp4
│ ├─[7.8]--7-8 instruct-gpt 基于GPT技术开发的模型-1_ev.mp4
│ ├─[7.9]--7-9 instruct-gpt 基于GPT技术开发的模型-2_ev.mp4
│ ├─[7.10]--7-10 Antropic LLM大型语言模型_ev.mp4
│ └─[7.11]--7-11 GPT-本章总结_ev.mp4
└─{8}--第8章 RLHF训练类ChatGPT模型代码实战
├─[8.1]--8-1 chatGPT训练实战_ev.mp4
├─[8.2]--8-2 SFT有监督的训练-数据处理_ev.mp4
├─[8.3]--8-3 SFT有监督训练-trainer_ev.mp4
├─[8.4]--8-4 SFT有监督训练-train_ev.mp4
├─[8.5]--8-5 RM训练-model+dataset(1)_ev.mp4
├─[8.6]--8-6 RM训练-model+dataset(2)_ev.mp4
├─[8.7]--8-7 RM训练-trainer_ev.mp4
├─[8.8]--8-8 RM训练-train-rm_ev.mp4
├─[8.9]--8-9 RLHF强化学习人类反馈的训练-dataset_ev.mp4
├─[8.10]--8-10 RLHF强化学习人类反馈的训练-model-base_ev.mp4
├─[8.11]--8-11 RLHF强化学习人类反馈的训练-model-opt_ev.mp4
├─[8.13]--8-13 RLHF强化学习人类反馈的训练-generation(_ev.mp4
├─[8.14]--8-14 RLHF强化学习人类反馈的训练-exp_maker(1_ev.mp4
├─[8.15]--8-15 RLHF强化学习人类反馈的训练-exp_maker(2_ev.mp4
├─[8.16]--8-16 RLHF强化学习人类反馈的训练-buffer-util_ev.mp4
├─[8.17]--8-17 RLHF强化学习人类反馈的训练-buffer-loss_ev.mp4
└─[8.19]--8-19 RLHF强化学习人类反馈的训练-main_ev.mp4
获取方式:
|
温馨提示:
1、本站所有内容均为互联网收集或网友分享或网络购买,本站不破解、不翻录任何视频!
2、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意!
3、本站资源仅供本站会员学习参考,不得传播及用于其他用途,学习完后请在24小时内自行删除.
4、本站资源质量虽均经精心审查,但也难保万无一失,若发现资源有问题影响学习请一定及时点此进行问题反馈,我们会第一时间改正!
5、若发现链接失效了请联系管理员,管理员会在2小时内修复
6、如果有任何疑问,请加客服QQ:1300822626 2小时内回复你!