课程费用

5800.00 /人

课程时长

5

成为教练

课程简介

大模型技术发展迅速,很多人一知半解,不知如何下手,除了打基础的底层深度学习及相关技术,大模型技术可以分为四个部分,GPT预训练模型、微调与prompt、lanchain套件、多模态。

目标收益

1. 理解强化学习的基本原理和应用场景。
2. 掌握NLP的基本概念和常用技术。
3. 理解Attention机制的原理和应用。
4. 了解GPT模型的无监督训练和Fine-tune过程。
5. 掌握zero-shot学习、Prompt engineering、CoT和LangChain等技术。
6. 实践微调开源大语言模型,提升模型性能。

培训对象

课程大纲

深入深度学习和强化学习 1.深度学习基本概念和常见应用(互动,收集学员的水平,适度调节后边难度)
1.1.神经网络的基本结构和工作原理
1.2.深度学习的常见应用场景
2.CNN、RNN和LSTM
2.1.卷积神经网络(CNN)的原理,卷积层、池化层和全连接层
2.2.循环神经网络(RNN)
2.3.LSTM单元的结构和功能
3.强化学习介绍(互动:奖励机制)
3.1.强化学习基本概念和原理
3.2.Agent、环境和奖励信号的概念
3.3.Markov决策过程和值函数
3.4.强化学习算法的分类和应用
4.强化学习在游戏等领域的应用
4.1.Q-learning经典算法的介绍
4.1.1.强化学习在游戏智能和机器人控制中的应用案例
5.课上实战:Jupyter环境学习,使用CNN开发一个手写识别程序
5.1.Jupyter Notebook的基本操作和环境设置
5.2.MNIST手写数字数据集的介绍和加载
5.3.使用CNN模型对手写数字进行分类任务的实现
5.4.模型训练、评估和预测结果的展示
6.总结
从 NLP 到 GPT 1. 自然语言处理(NLP)介绍:(互动,收集NLP水平,调节难度)
1.1. NLP的基本概念和技术
1.2. 文本预处理、词嵌入和文本表示的方法
1.3. 常见NLP任务:文本分类、命名实体识别、情感分析等
2. Attention机制介绍:(互动:谁用过)
2.1. 注意力机制的原理和作用
2.2. 在NLP中的应用:机器翻译、文本摘要、问答系统等
2.3. Transformer模型中的自注意力机制
3. GPT介绍:
3.1. GPT技术概述:GPT1、GPT2和GPT3
3.2. GPT模型架构和训练方法
3.3. GPT在自然语言生成和文本补全任务中的应用
4.Zero-shot、few-shot技术:
4.1.零样本学习
4.2.少样本学习
5.Prompt技巧:
5.1.在GPT中使用Prompt技巧的原理和效果
5.2.如何设计和优化Prompt来引导GPT生成特定类型的文本
6.CoT (Chain of Thought)方法:
6.1.Chain of Thought方法的原理和应用
7.提供一个环境,上手尝试Prompt。
8.总结
解读和复现微型 GPT 项目 1.目标和复现步骤的介绍
2.第一阶段 - 数据准备:
2.1.数据收集和清洗
2.1.1.数据收集的方法和来源。
2.1.2.数据清洗的重要性,包括去除噪声、处理异常值和数据预处理等
2.2.数据预处理
2.2.1.介绍数据预处理的目的和常见方法
2.3.构建训练集和验证集
2.3.1.如何划分数据集为训练集和验证集
2.3.2.交叉验证和数据集平衡
3.第二阶段 - 环境准备:
3.1.硬件和软件环境要求
3.1.1.进行深度学习任务所需的硬件要求,例如GPU和内存等
3.2.所需的深度学习框架和库
3.2.1.PyTorch
3.2.2.环境创建4.第三阶段 - 关键算法和实战:
4.1.GPT模型的架构和训练方法回顾
4.2.解读微型GPT项目的关键算法和技术细节
4.3.实战演练:使用提供的代码和数据进行微型GPT的复现
4.4.调试和优化模型性能
4.5.获取结果并进行评估
5.上手实践。
总结
模型微调与 API 搭建
1.模型微调的方法和实践:
1.1.介绍模型微调的概念和原理
1.2.常用的微调策略和技巧
1.3.数据集选择和准备
1.4.微调过程中的超参数调整
1.5.模型微调的评估和验证方法
2.开源大模型LLama微调实践:
2.1.常见的LLama模型微调方法介绍
2.2.数据准备、环境搭建
2.3.代码编写、运行代码、获取结果
3.API服务部署:
3.1.介绍将微调后的模型部署为API服务的方法和代码
3.2.使用FastAPI框架搭建API服务
3.3.将微调后的LLama模型加载到API服务中
4.前端调用:
4.1.介绍前端调用API服务的方法
4.2.前端调用的常见场景
4.3.实现与用户的交互和展示生成的文本结果
5.流式读取:
5.1.介绍流式读取数据的概念和优势
5.2.如何实现流式读取数据的方法(后端)
5.3.如何实现流式读取数据的方法(前端)
6.统一API接口,简化开发流程,缩短开发时间
7.总结
langchain技术介绍和多模态技术 1.Langchain技术介绍
1.1.Langchain要解决的问题
1.2.Lanchain的优势和劣势
1.3.Langchain有哪些关键组件
2.使用Langchain搭建一个chatPDF系统
2.1.整体流程
2.2.PDF读取
2.3.文件分割
2.4.向量化(Emmbeddings)
2.5.向量数据库
2.5.1.向量计算的方法
2.5.2.向量计算的难点
2.5.3.向量数据库如何加速
2.6.LLM融合结果
3.多模态技术
3.1.介绍多模态学习的概念和方法
3.2.Stable Diffusion技术的概念和应用
3.2.1.扩散过程(diffusion process)、迭代步骤和噪声
3.2.2.高质量样本生成
3.2.3.图像修复和增强、风格转换
3.3.Segment Anything Model的概念和应用
4.总结
4.1.回顾课程内容和学员的收获
总结与鼓励
深入深度学习和强化学习
1.深度学习基本概念和常见应用(互动,收集学员的水平,适度调节后边难度)
1.1.神经网络的基本结构和工作原理
1.2.深度学习的常见应用场景
2.CNN、RNN和LSTM
2.1.卷积神经网络(CNN)的原理,卷积层、池化层和全连接层
2.2.循环神经网络(RNN)
2.3.LSTM单元的结构和功能
3.强化学习介绍(互动:奖励机制)
3.1.强化学习基本概念和原理
3.2.Agent、环境和奖励信号的概念
3.3.Markov决策过程和值函数
3.4.强化学习算法的分类和应用
4.强化学习在游戏等领域的应用
4.1.Q-learning经典算法的介绍
4.1.1.强化学习在游戏智能和机器人控制中的应用案例
5.课上实战:Jupyter环境学习,使用CNN开发一个手写识别程序
5.1.Jupyter Notebook的基本操作和环境设置
5.2.MNIST手写数字数据集的介绍和加载
5.3.使用CNN模型对手写数字进行分类任务的实现
5.4.模型训练、评估和预测结果的展示
6.总结
从 NLP 到 GPT
1. 自然语言处理(NLP)介绍:(互动,收集NLP水平,调节难度)
1.1. NLP的基本概念和技术
1.2. 文本预处理、词嵌入和文本表示的方法
1.3. 常见NLP任务:文本分类、命名实体识别、情感分析等
2. Attention机制介绍:(互动:谁用过)
2.1. 注意力机制的原理和作用
2.2. 在NLP中的应用:机器翻译、文本摘要、问答系统等
2.3. Transformer模型中的自注意力机制
3. GPT介绍:
3.1. GPT技术概述:GPT1、GPT2和GPT3
3.2. GPT模型架构和训练方法
3.3. GPT在自然语言生成和文本补全任务中的应用
4.Zero-shot、few-shot技术:
4.1.零样本学习
4.2.少样本学习
5.Prompt技巧:
5.1.在GPT中使用Prompt技巧的原理和效果
5.2.如何设计和优化Prompt来引导GPT生成特定类型的文本
6.CoT (Chain of Thought)方法:
6.1.Chain of Thought方法的原理和应用
7.提供一个环境,上手尝试Prompt。
8.总结
解读和复现微型 GPT 项目
1.目标和复现步骤的介绍
2.第一阶段 - 数据准备:
2.1.数据收集和清洗
2.1.1.数据收集的方法和来源。
2.1.2.数据清洗的重要性,包括去除噪声、处理异常值和数据预处理等
2.2.数据预处理
2.2.1.介绍数据预处理的目的和常见方法
2.3.构建训练集和验证集
2.3.1.如何划分数据集为训练集和验证集
2.3.2.交叉验证和数据集平衡
3.第二阶段 - 环境准备:
3.1.硬件和软件环境要求
3.1.1.进行深度学习任务所需的硬件要求,例如GPU和内存等
3.2.所需的深度学习框架和库
3.2.1.PyTorch
3.2.2.环境创建4.第三阶段 - 关键算法和实战:
4.1.GPT模型的架构和训练方法回顾
4.2.解读微型GPT项目的关键算法和技术细节
4.3.实战演练:使用提供的代码和数据进行微型GPT的复现
4.4.调试和优化模型性能
4.5.获取结果并进行评估
5.上手实践。
总结
模型微调与 API 搭建

1.模型微调的方法和实践:
1.1.介绍模型微调的概念和原理
1.2.常用的微调策略和技巧
1.3.数据集选择和准备
1.4.微调过程中的超参数调整
1.5.模型微调的评估和验证方法
2.开源大模型LLama微调实践:
2.1.常见的LLama模型微调方法介绍
2.2.数据准备、环境搭建
2.3.代码编写、运行代码、获取结果
3.API服务部署:
3.1.介绍将微调后的模型部署为API服务的方法和代码
3.2.使用FastAPI框架搭建API服务
3.3.将微调后的LLama模型加载到API服务中
4.前端调用:
4.1.介绍前端调用API服务的方法
4.2.前端调用的常见场景
4.3.实现与用户的交互和展示生成的文本结果
5.流式读取:
5.1.介绍流式读取数据的概念和优势
5.2.如何实现流式读取数据的方法(后端)
5.3.如何实现流式读取数据的方法(前端)
6.统一API接口,简化开发流程,缩短开发时间
7.总结
langchain技术介绍和多模态技术
1.Langchain技术介绍
1.1.Langchain要解决的问题
1.2.Lanchain的优势和劣势
1.3.Langchain有哪些关键组件
2.使用Langchain搭建一个chatPDF系统
2.1.整体流程
2.2.PDF读取
2.3.文件分割
2.4.向量化(Emmbeddings)
2.5.向量数据库
2.5.1.向量计算的方法
2.5.2.向量计算的难点
2.5.3.向量数据库如何加速
2.6.LLM融合结果
3.多模态技术
3.1.介绍多模态学习的概念和方法
3.2.Stable Diffusion技术的概念和应用
3.2.1.扩散过程(diffusion process)、迭代步骤和噪声
3.2.2.高质量样本生成
3.2.3.图像修复和增强、风格转换
3.3.Segment Anything Model的概念和应用
4.总结
4.1.回顾课程内容和学员的收获
总结与鼓励

课程费用

5800.00 /人

课程时长

5

预约体验票 我要分享

近期公开课推荐

近期公开课推荐

提交需求