本课程旨在帮助企业从零开始训练私有化大模型,满足定制化AI助手需求。课程从ChatGPT背后的技术原理入手,深入讲解词向量、Transformer架构、Bert系列模型及强化学习等核心技术,逐步剖析GPT系列模型的演变过程。通过RLHF训练和PEFT微调技术(如LoRA),学员将掌握低成本微调大模型的实战方法。课程涵盖大模型训练的核心流程与实战技巧,助力企业快速构建符合业务需求的AI解决方案,抢占市场先机。
从0到1训练私有大模型 ,企业急迫需求,抢占市场先机2.62GB
{1}--第1章 课程介绍114.99MB
[1.1]--1-1 【导航】课程导学&让你快速了解课程_ev.mp439.64MB
[1.2]--1-2 【内容安排】课程安排和学习建议_ev.mp413.59MB
[1.3]--1-3 【行业发展】ChatGPT对行业、社会有什么影响,我们要_ev.mp439.54MB
[1.4]--1-4 【发展史】ChatGPT的简要历史_ev.mp416.34MB
[1.5]--1-5 【学习须知】本课程为什么使用gpt2而不是gpt3_ev.mp45.87MB
{2}--第2章 训练模型与开发平台环境69.11MB
[2.1]--2-1 【认知】为什么要引入paddle?平时使用torch,学_ev.mp49.13MB
[2.2]--2-2 【框架】paddle和torch与tensorflow对_ev.mp411.15MB
[2.3]--2-3 【NLP工具和预训练模型】paddleNLP和huggi_ev.mp45.62MB
[2.4]--2-4 【平台】介绍aistudio_ev.mp423.93MB
[2.5]--2-5 【工具】介绍基于gpt4的IDE cursor_ev.mp419.28MB
{3}--第3章 chatGPT初始技术词向量原理剖析与实战307.25MB
[3.1]--3-1 【认知】词向量,词向量与gpt的关系_ev.mp48.72MB
[3.2]--3-2 【语言模型】语言模型和评估指标PPL_ev.mp423.18MB
[3.3]--3-3 【词向量模型】word2vec-cbow和skipgra_ev.mp414.53MB
[3.4]--3-4 【softmax加速】是softmax 树型优化_ev.mp425.76MB
[3.5]--3-5 【softmax加速】softmax负采样优化_ev.mp420.85MB
[3.6]--3-6 【数据准备与预处理】word2vec实战(1)_ev.mp457.2MB
[3.7]--3-7 【数据准备与预处理】word2vec实战(2)_ev.mp431.5MB
[3.8]--3-8 【模型训练】word2vec实战-模型开发和训练(1)_ev.mp425.01MB
[3.9]--3-9 【模型训练】word2vec实战-模型开发和训练(2)_ev.mp435.64MB
[3.10]--3-10 【激活函数】常见七种激活函数对比_ev.mp421.61MB
[3.11]--3-11 【预训练语言模型】RNN-LSTM-ELMO_ev.mp437.75MB
[3.12]--3-12 本章梳理小结_ev.mp45.5MB
{4}--第4章 chatGPT基石模型——基于Transformer架构的语言模型187.35MB
[4.1]--4-1 本章介绍_ev.mp42.18MB
[4.2]--4-2 seq2seq结构和注意力_ev.mp423.75MB
[4.3]--4-3 seq2seq-attention的一个案例_ev.mp411.11MB
[4.4]--4-4 transformer的multi-head atten_ev.mp439.6MB
[4.5]--4-5 transformer的残差链接-解决梯度消失问题_ev.mp412.56MB
[4.6]--4-6 transformer的layernorm-归一化提升训_ev.mp410.75MB
[4.7]--4-7 transformer的decoder 解码器_ev.mp414.68MB
[4.8]--4-8 sparse-transformer 稀疏模型_ev.mp411.23MB
[4.9]--4-9 transformer-xl 解决长序列的问题(1)_ev.mp426.78MB
[4.10]--4-10 transformer-xl解决长序列的问题(2)_ev.mp427.97MB
[4.11]--4-11 本章梳理总结_ev.mp46.76MB
{5}--第5章 基于Transformer另一分支Bert系列分析与实战530.84MB
[5.1]--5-1 本章介绍_ev.mp41.87MB
[5.2]--5-2 metric-评估指标(BLUE-rouge-L-MET_ev.mp434.23MB
[5.3]--5-3 常见 subword 算法(BPE-wordpiece)_ev.mp410.25MB
[5.4]--5-4 常见的NLP任务_ev.mp410.5MB
[5.5]--5-5 bert 预训练模型_ev.mp441.76MB
[5.6]--5-6 bert情感分析实战----paddle(1)_ev.mp453.22MB
[5.7]--5-7 bert情感分析实战----paddle(2)_ev.mp457.61MB
[5.8]--5-8 evaluate和predict方法----paddle_ev.mp430.47MB
[5.9]--5-9 bert(transformer encoder)主要源_ev.mp445.19MB
[5.10]--5-10 bert(transformer encoder)主要_ev.mp444.74MB
[5.11]--5-11 bert(transformer encoder)的完_ev.mp491.56MB
[5.12]--5-12 Ernie文心一言基础模型(1)_ev.mp426.2MB
[5.13]--5-13 Ernie文心一言基础模型(2)_ev.mp413.12MB
[5.14]--5-14 plato百度对话模型(1)_ev.mp428.03MB
[5.15]--5-15 plato 百度对话模型(2)_ev.mp429.35MB
[5.16]--5-16 本章总结_ev.mp412.74MB
{6}--第6章 chatGPT的核心技术——强化学习549.62MB
[6.1]--6-1 RL是什么&为什么要学习RL_ev.mp421.46MB
[6.2]--6-2 强化学习章介绍_ev.mp44.41MB
[6.3]--6-3 RL基础概念_ev.mp412.17MB
[6.4]--6-4 RL马尔可夫过程_ev.mp428.77MB
[6.5]--6-5 RL三种方法(1)_ev.mp430.12MB
[6.6]--6-6 RL三种方法(2)_ev.mp410.65MB
[6.7]--6-7 DQN和DQN的2种改进算法(1)_ev.mp420.26MB
[6.8]--6-8 DQN和DQN的2种改进算法(2)_ev.mp424.63MB
[6.9]--6-9 actor-critic(1)_ev.mp438.68MB
[6.10]--6-10 actor-critic(2)_ev.mp412.06MB
[6.11]--6-11 TRPO+PPO(1)_ev.mp440.93MB
[6.12]--6-12 TRPO+PPO(2)_ev.mp428.62MB
[6.13]--6-13 DQN代码实践--torch-1_ev.mp444.11MB
[6.14]--6-14 DQN代码实践--torch-2_ev.mp449.49MB
[6.15]--6-15 DoubleDQN+DuelingDQ代码--torc_ev.mp452.98MB
[6.16]--6-16 REINFORCE代码--torch_ev.mp447.87MB
[6.17]--6-17 PPO代码实践--torch_ev.mp465.55MB
[6.18]--6-18 强化学习-本章总结_ev.mp416.85MB
{7}--第7章 chatGPT技术演变——从GPT 1 开始的大模型发展与演化283MB
[7.1]--7-1 GPT1 模型_ev.mp425.22MB
[7.2]--7-2 GPT2 模型_ev.mp425.93MB
[7.3]--7-3 GPT3 模型-1_ev.mp431.94MB
[7.4]--7-4 GPT3 模型-2_ev.mp428.06MB
[7.5]--7-5 gpt-codex 基于GPT技术开发的模型_ev.mp423.54MB
[7.6]--7-6 alphaCode基于GPT技术开发的模型-1_ev.mp428.9MB
[7.7]--7-7 alphaCode基于GPT技术开发的模型-2_ev.mp416.84MB
[7.8]--7-8 instruct-gpt 基于GPT技术开发的模型-1_ev.mp421.78MB
[7.9]--7-9 instruct-gpt 基于GPT技术开发的模型-2_ev.mp427.07MB
[7.10]--7-10 Antropic LLM大型语言模型_ev.mp440.83MB
[7.11]--7-11 GPT-本章总结_ev.mp412.89MB
{8}--第8章 RLHF训练类ChatGPT模型代码实战643.69MB
[8.1]--8-1 chatGPT训练实战_ev.mp413.24MB
[8.2]--8-2 SFT有监督的训练-数据处理_ev.mp463.07MB
[8.3]--8-3 SFT有监督训练-trainer_ev.mp437.66MB
[8.4]--8-4 SFT有监督训练-train_ev.mp463.73MB
[8.5]--8-5 RM训练-model+dataset(1)_ev.mp427MB
[8.6]--8-6 RM训练-model+dataset(2)_ev.mp425.81MB
[8.7]--8-7 RM训练-trainer_ev.mp431.29MB
[8.8]--8-8 RM训练-train-rm_ev.mp435.55MB
[8.9]--8-9 RLHF强化学习人类反馈的训练-dataset_ev.mp414.38MB
[8.10]--8-10 RLHF强化学习人类反馈的训练-model-base_ev.mp424.08MB
[8.11]--8-11 RLHF强化学习人类反馈的训练-model-opt_ev.mp413.28MB
[8.13]--8-13 RLHF强化学习人类反馈的训练-generation(_ev.mp448.79MB
[8.14]--8-14 RLHF强化学习人类反馈的训练-exp_maker(1_ev.mp432.05MB
[8.15]--8-15 RLHF强化学习人类反馈的训练-exp_maker(2_ev.mp443.19MB
[8.16]--8-16 RLHF强化学习人类反馈的训练-buffer-util_ev.mp456.03MB
[8.17]--8-17 RLHF强化学习人类反馈的训练-buffer-loss_ev.mp445.66MB
[8.19]--8-19 RLHF强化学习人类反馈的训练-main_ev.mp468.91MB
网站声明:
1. 该网盘资源的安全性和完整性需要您自行判断,点击下载地址直接跳转到网盘官方页面。本站链接通过程序自动收集互联网公开分享链接,本站不储存、复制、传播任何网盘文件,也不提供下载服务。
2. 本站遵守相关法律法规,坚决杜绝一切违规不良信息,如您发现任何涉嫌违规的网盘信息,请立即向网盘官方网站举报,并及时反馈给我们进行屏蔽删除。
3. 本站高度重视知识产权保护和个人隐私保护,如有网盘链接侵犯您的合法权益,请立即向网盘官方网站举报,并参见本站《版权说明》提供书面材料联系我们屏蔽删改。
1. 该网盘资源的安全性和完整性需要您自行判断,点击下载地址直接跳转到网盘官方页面。本站链接通过程序自动收集互联网公开分享链接,本站不储存、复制、传播任何网盘文件,也不提供下载服务。
2. 本站遵守相关法律法规,坚决杜绝一切违规不良信息,如您发现任何涉嫌违规的网盘信息,请立即向网盘官方网站举报,并及时反馈给我们进行屏蔽删除。
3. 本站高度重视知识产权保护和个人隐私保护,如有网盘链接侵犯您的合法权益,请立即向网盘官方网站举报,并参见本站《版权说明》提供书面材料联系我们屏蔽删改。