JK-AI大模型微调训练营第5期(极客)

  • 发布时间:
    2025-07-26 10:34:41
  • 文件大小:
    共计 140 个文件,合计:5.51GB
  • 资源来源:
    百度网盘百度网盘
  • 资源售价:
    积分5积分
・本站会员获取资源无需消耗积分。
・获取资源后可以在「个人中心」24 小时内无理由退积分。
为防止资源链接失效,请及时转存文件。
资源详情
AI大模型微调训练营第5期课程全面覆盖AI大模型的核心技术与实战应用,内容分为四阶技术:提示工程、AI智能体、大模型微调和预训练技术。课程从大模型技术发展史、Transformer架构、GPT系列模型等基础知识入手,逐步深入讲解高效微调技术(如LoRA、QLoRA)、量化技术(如GPTQ、AWQ)、分布式训练框架(如DeepSpeed)以及国产化实战(如华为Ascend 910微调ChatGLM-6B)。通过实战案例(如Whisper语音识别、ChatGLM3微调)和工具库(如Hugging Face Transformers、PEFT),学员将掌握大模型开发、微调、部署的全流程技能。
📢 以下文件由百度网盘用户[us****伍贰柒]于2025-03-06分享(只展示部分的文件和文件夹)
JK-AI大模型微调训练营第5期(极客)5.51GB
直播回放214.52MB
9.26 第三次直播答疑_ev.mp440.03MB
8.29 第一次直播答疑_ev.mp4109.23MB
10.17 第四次直播答疑_ev.mp465.26MB
第9章322.45MB
课件59.19MB
GLM论文.zip43.84MB
9-GLM 大模型家族与ChatGLM3-6B微调入门.pdf15.35MB
7.作业.txt179B
6. 实战 QLoRA 微调 ChatGLM3-6B_ev.mp489MB
5. ChatGLM3-6B 微调入门_ev.mp420.55MB
4. 对话模型 ChatGLM 系列_ev.mp411.17MB
3. 扩展模型:联网检索、多模态、代码生成_ev.mp444.82MB
2. 基座模型 GLM-130B_ev.mp493.1MB
1. 章节介绍_ev.mp44.62MB
第8章273.75MB
课件11.7MB
Quantization论文.zip5.56MB
8-大模型量化技术入门与实战.pdf6.14MB
7.作业.txt474B
6. 实战 Facebook OPT 模型量化_ev.mp480.76MB
5. BitsAndBytes(BnB) :模型量化软件包_ev.mp415.89MB
4. AWQ:激活感知权重量化算法_ev.mp452.91MB
3. GPTQ:专为 GPT 设计的模型量化算法_ev.mp474.97MB
2. 模型显存占用与量化技术简介_ev.mp434.87MB
1. 章节介绍_ev.mp42.65MB
第7章331.2MB
课件4.91MB
7-大模型高效微调工具HF PEFT 入门与实战.pdf4.91MB
5.作业.txt556B
4. 实战 LoRA 微调 Whisper-Large-v2 中文语音识别_ev.mp4233.79MB
3. OpenAI Whisper 模型介绍.mp431.24MB
2. Hugging Face PEFT 快速入门.mp457.99MB
1. 章节介绍.mp43.28MB
第6章224.41MB
课件7.56MB
6-大模型高效微调技术揭秘(下).pdf7.56MB
6. (IA)3:极简主义增量训练方法_ev.mp430.41MB
5. UniPELT:大模型PEFT统一框架_ev.mp420.07MB
4. QLoRA量化低秩适配微调技术_ev.mp446.46MB
3. AdaLoRA自适应权重矩阵微调技术_ev.mp458.02MB
2. LoRA低秩适配微调技术_ev.mp458.18MB
1. 章节介绍_ev.mp43.7MB
第5章340.01MB
课件27.55MB
Instruction-Tuning论文.zip1.24MB
Fine-tuning论文.zip16.51MB
5-大模型高效微调技术揭秘(上).pdf9.8MB
6. PEFT - Soft Prompt 技术(Prompt Encoder).mp476.37MB
5. PEFT - Soft Prompt 技术(Task-specific Tuning).mp495.85MB
4. PEFT - Adapter技术.mp458.03MB
3. PEFT主流技术分类介绍.mp423.01MB
2. Before PEFT:Hard Prompt Full Fine-tune_ev.mp452.24MB
1. 章节介绍_ev.mp46.96MB
第4章527.57MB
课件5.15MB
4-实战Transformers模型训练.pdf5.15MB
6.作业.txt385B
5. 实战训练BERT模型:QA任务_ev.mp4305.46MB
4. 实战训练BERT模型:文本分类任务_ev.mp4141.3MB
3. Transformers模型训练入门_ev.mp421.39MB
2. 数据集处理库Hugging Face Datasets.mp448.95MB
1. 章节介绍.mp45.33MB
第3章330.91MB
课件4.44MB
5-大模型开发工具库 HF Transformers.pdf4.44MB
6.作业.txt281B
5. 实战Hugging Face Transformers工具库_ev.mp4212.2MB
4. 大模型开发环境搭建_ev.mp435.1MB
3. Transformers核心功能模块_ev.mp446.69MB
2. Hugging Face Transformers快速入门_ev.mp429.88MB
1. 章节介绍_ev.mp42.6MB
第2章406.82MB
课件27.76MB
论文.zip9.97MB
代码链接地址.txt66B
2-大语言模型技术发展与演进.pdf17.79MB
7. 大语言模型:暴力美学GPT系列模型_ev.mp444.63MB
6. 大语言模型:GPT-1与BERT_ev.mp453.04MB
5. 大语言模型:Transformer网络架构_ev.mp462.3MB
4. 大语言模型:注意力机制_ev.mp448.94MB
3. 神经网络语言模型_ev.mp476.36MB
2. 统计语言模型_ev.mp451.22MB
1. 章节介绍.mp442.57MB
第1章386.02MB
课件20.74MB
1-AI大模型四阶技术总览.pdf20.74MB
8. AI大模型四阶技术总览:预训练技术(Pre-training).mp420.99MB
7. AI大模型四阶技术总览:大模型微调(Fine-tuning).mp442.7MB
6. AI大模型四阶技术总览:AI智能体(Agents).mp451.25MB
5. AI大模型四阶技术总览:提示工程(Prompt Engineering).mp462MB
4. 把握浪潮:AI 大模型助力超级个体和小团队.mp418.61MB
3. AI应用浪潮:高校共识、硅谷创新、中美博弈.mp497.22MB
2. AI技术浪潮:弱人工智能、机器学习、深度学习、大语言模型.mp464.39MB
1. 章节介绍.mp48.12MB
第17章355.3MB
6. 使用 GLM-4 API 构建模型和应用_ev.mp466.99MB
5. 选学 API 基础教学和实战_ev.mp442.6MB
5. 选学 API 基础教学和实战-问题解决方案.txt436B
4.选学 GLM4 GLM4V API 调用实践.pdf1.77MB
4. 选学 智谱第四代 API 介绍.mp47.89MB
3.CogVLM模型部署实践.pdf2.87MB
3. CogVLM模型部署实践.mp463.41MB
2.GLM模型部署实践.pdf2.73MB
2. GLM 模型部署微调实践.mp498.95MB
1.GLM大模型家族介绍.pdf7.37MB
1. GLM 大模型家族介绍_ev.mp460.72MB
第16章269.05MB
课件8.74MB
16-国产化实战:基于华为 Ascend 910 微调 ChatGLM-6B.pdf8.74MB
6. 实战:华为 Ascend 910B 微调 ChatGLM 6B 模型_ev.mp457.3MB
5. 华为昇腾全栈 AI 软硬件平台介绍_ev.mp421.77MB
4. 努力追赶的国产新秀:华为_ev.mp417.55MB
3. 厚积薄发的江湖大佬:Google_ev.mp419.65MB
2. 蓝色星球的算力霸主:NVIDIA_ev.mp4138.08MB
1. 章节介绍_ev.mp45.94MB
第15章394.98MB
课件8.05MB
15-大模型分布式训练框架Microsoft DeepSpeed.pdf8.05MB
9. 使用 DeepSpeed 单机多卡、分布式训练_ev.mp48.9MB
8. DeepSpeed ZeRO 配置详解_ev.mp452.7MB
7. DeepSpeed 框架编译与安装_ev.mp456.6MB
6. DeepSpeed 与 Transformers 集成训练大模型_ev.mp49.65MB
5. 分布式模型训练并行化技术对比_ev.mp417.33MB
4. Microsoft DeepSpeed 框架和核心技术_ev.mp464.34MB
3. Zero Redundancy Optimizer ZeRO技术详解_ev.mp468.2MB
2. 预训练模型显存计算方法_ev.mp450.41MB
11. DeepSpeed 创新模块 Inference Compression Science_ev.mp48.39MB
10. 实战 DeepSpeed ZeRO-2 和 ZeRO-3 单机单卡训练_ev.mp445.27MB
1. 章节介绍_ev.mp45.16MB
第14章248.39MB
课件3.6MB
14-实战LLaMA2-7B指令微调.pdf3.6MB
4. 再谈中文指令微调方法_ev.mp419.51MB
3. LLaMA2-7B 指令微调上手实战_ev.mp485.79MB
2. 大模型训练技术总结_ev.mp4128.12MB
1. 章节介绍_ev.mp411.37MB
第13章274.96MB
课件24.11MB
LLaMA论文.zip15.27MB
13-Meta AI 大模型 LLaMA.pdf8.83MB
5. 申请和获取 LLaMA 2 模型预训练权重_ev.mp412.85MB
4. LLaMA 2 大模型技术解读.mp428.9MB
3. LLaMA 1 衍生模型大家族.mp490.62MB
2. LLaMA 1 大模型技术解读.mp4112.52MB
1. 章节介绍.mp45.96MB
第12章251.28MB
课件12.79MB
MoEs论文.zip7.67MB
12-混合专家模型(MoEs)技术揭秘.pdf5.12MB
4. MoEs 实例研究:Mixtral-8x7B_ev.mp425.83MB
3. MoEs 与大模型结合后的技术发展_ev.mp498.33MB
2. MoEs 技术发展简史.mp4107.47MB
1. 章节介绍.mp46.87MB
第11章229.91MB
课件12.93MB
RLHF论文.zip6.05MB
11-ChatGPT大模型训练技术RLHF.pdf6.88MB
4. 基于 AI 反馈的强化学习(RLAIF)技术_ev.mp418.94MB
3. 基于人类反馈的强化学习(RLHF)技术详解_ev.mp491.42MB
2. ChatGPT 大模型训练核心技术_ev.mp493.58MB
1. 章节介绍_ev.mp413.04MB
第10章255.47MB
课件10.19MB
10-实战私有数据微调ChatGLM3.pdf10.19MB
7.作业.txt182B
6. 实战私有数据微调 ChatGLM3_ev.mp4103.76MB
5. 提示工程:保持批量生成数据稳定性_ev.mp444.16MB
4. 数据增强:提升训练数据多样性_ev.mp415.12MB
3. 合成数据: LangChain + GPT-3.5 Turbo_ev.mp412.55MB
2. 使用 ChatGPT 自动设计生成训练数据的 Prompt_ev.mp460.56MB
1. 章节介绍.mp49.12MB
02-课程表.webp570.21KB
01-课前准备.docx740.23KB
网站声明:
1. 该网盘资源的安全性和完整性需要您自行判断,点击下载地址直接跳转到网盘官方页面。本站链接通过程序自动收集互联网公开分享链接,本站不储存、复制、传播任何网盘文件,也不提供下载服务。
2. 本站遵守相关法律法规,坚决杜绝一切违规不良信息,如您发现任何涉嫌违规的网盘信息,请立即向网盘官方网站举报,并及时反馈给我们进行屏蔽删除。
3. 本站高度重视知识产权保护和个人隐私保护,如有网盘链接侵犯您的合法权益,请立即向网盘官方网站举报,并参见本站《版权说明》提供书面材料联系我们屏蔽删改。
资源评论 AUP主 M管理员