- 直播计划
- 视频列表
- 评论
- 课程介绍
- 资料列表
- 教师笔记
大模型-20241112-01-回顾与Transformer结构
28分钟
·
73次播放
大模型-20241112-02-位置编码原理与实现
47分钟
·
12次播放
大模型-20241112-03-多头自注意力原理
42分钟
·
9次播放
大模型-20241112-04-掩码残差正则及模型训练
41分钟
·
6次播放
大模型-20241114-01-GPT模型结构与数据集构建
33分钟
·
8次播放
大模型-20241114-02-GPT代码与模型训练和推理
34分钟
·
2次播放
大模型-20241114-03-torch.nn.Transformer分类
43分钟
·
8次播放
大模型-20241114-04-torch.nn.Transformer翻译
15分钟
·
1次播放
大模型-20241116-01-transformers框架概述
31分钟
·
15次播放
大模型-20241116-02-transfromers模型运行
24分钟
·
9次播放
大模型-20241116-03-bert预训练模型分类任务
45分钟
·
6次播放
大模型-20241116-04-文本分类生成翻译操作
27分钟
·
7次播放
大模型-20241116-05-bert模型分类的预处理
33分钟
·
9次播放
大模型-20241116-06-基于bert头条分类再训练
39分钟
·
15次播放
大模型-20241119-01-transformers的pipline
31分钟
·
3次播放
大模型-20241119-02-模型微调技术原理
44分钟
·
13次播放
大模型-20241119-03-peft与LoRA微调实战
44分钟
·
8次播放
大模型-20241121-01-微调Qwen2
38分钟
·
7次播放
大模型-20241121-02-微调Qwen2
27分钟
·
9次播放
大模型-20241121-03-LlamaFactory与量化基础
54分钟
·
10次播放
大模型-20241123-01-模型量化原理与公式
45分钟
·
6次播放
大模型-20241123-02-模型量化实战操作
37分钟
·
1次播放
大模型-20241123-03-各类环境配置注意事项
34分钟
·
4次播放
大模型-20241123-04-Ollama部署与调用
29分钟
·
2次播放
大模型-20241123-05-Ollama的API调用
48分钟
·
5次播放
课程目标
能理解并自主Transformer和GPT架构模型,能熟练运用transformers和modelscope模型进行模型应用、模型微调、模型量化等、能够熟练部署私有化大模型并进行开发调用。
知识要点
Transformer架构、编码器-解码器结构、GPT模型框架、自主开发和训练Transformer与GPT模型、HuggingFace的tansfomers框架的应用、模型微调技术、模型量化技术(peft与LLaMAFactory)、大模型实验环境构建、Ollama与OpenWebUI模型部署、大语言模型的两大托管平台:HuggingFace、ModelScope的使用、模型的下载与运行、提示词工程等。
授课讲师
蜗牛学苑资深讲师,教学总监,四川大学硕士,系统架构师。20年软件研发、测试、管理及授课经验,精通各种开发和测试技术,如Java开发、PHP开发、Python开发、性能测试、渗透测试、安全攻防等,精通AI人工智能技术体系及底层原理,具备丰富的项目研发和实施经验,正式出版多本个人专著。从事培训事业以来学生过万,遍布国内外各大IT公司。教学严谨细致、原理讲解透彻、注重底层原理,全面培养学生各项素质。
看看TA的主页