课程简介
大模型技术发展迅速,很多人一知半解,不知如何下手,除了打基础的底层深度学习及相关技术,大模型技术可以分为四个部分,GPT预训练模型、微调与prompt、lanchain套件、多模态。
目标收益
1. 理解强化学习的基本原理和应用场景。
2. 掌握NLP的基本概念和常用技术。
3. 理解Attention机制的原理和应用。
4. 了解GPT模型的无监督训练和Fine-tune过程。
5. 掌握zero-shot学习、Prompt engineering、CoT和LangChain等技术。
6. 实践微调开源大语言模型,提升模型性能。
培训对象
课程大纲
深入深度学习和强化学习 |
1.深度学习基本概念和常见应用(互动,收集学员的水平,适度调节后边难度) 1.1.神经网络的基本结构和工作原理 1.2.深度学习的常见应用场景 2.CNN、RNN和LSTM 2.1.卷积神经网络(CNN)的原理,卷积层、池化层和全连接层 2.2.循环神经网络(RNN) 2.3.LSTM单元的结构和功能 3.强化学习介绍(互动:奖励机制) 3.1.强化学习基本概念和原理 3.2.Agent、环境和奖励信号的概念 3.3.Markov决策过程和值函数 3.4.强化学习算法的分类和应用 4.强化学习在游戏等领域的应用 4.1.Q-learning经典算法的介绍 4.1.1.强化学习在游戏智能和机器人控制中的应用案例 5.课上实战:Jupyter环境学习,使用CNN开发一个手写识别程序 5.1.Jupyter Notebook的基本操作和环境设置 5.2.MNIST手写数字数据集的介绍和加载 5.3.使用CNN模型对手写数字进行分类任务的实现 5.4.模型训练、评估和预测结果的展示 6.总结 |
从 NLP 到 GPT |
1. 自然语言处理(NLP)介绍:(互动,收集NLP水平,调节难度) 1.1. NLP的基本概念和技术 1.2. 文本预处理、词嵌入和文本表示的方法 1.3. 常见NLP任务:文本分类、命名实体识别、情感分析等 2. Attention机制介绍:(互动:谁用过) 2.1. 注意力机制的原理和作用 2.2. 在NLP中的应用:机器翻译、文本摘要、问答系统等 2.3. Transformer模型中的自注意力机制 3. GPT介绍: 3.1. GPT技术概述:GPT1、GPT2和GPT3 3.2. GPT模型架构和训练方法 3.3. GPT在自然语言生成和文本补全任务中的应用 4.Zero-shot、few-shot技术: 4.1.零样本学习 4.2.少样本学习 5.Prompt技巧: 5.1.在GPT中使用Prompt技巧的原理和效果 5.2.如何设计和优化Prompt来引导GPT生成特定类型的文本 6.CoT (Chain of Thought)方法: 6.1.Chain of Thought方法的原理和应用 7.提供一个环境,上手尝试Prompt。 8.总结 |
解读和复现微型 GPT 项目 |
1.目标和复现步骤的介绍 2.第一阶段 - 数据准备: 2.1.数据收集和清洗 2.1.1.数据收集的方法和来源。 2.1.2.数据清洗的重要性,包括去除噪声、处理异常值和数据预处理等 2.2.数据预处理 2.2.1.介绍数据预处理的目的和常见方法 2.3.构建训练集和验证集 2.3.1.如何划分数据集为训练集和验证集 2.3.2.交叉验证和数据集平衡 3.第二阶段 - 环境准备: 3.1.硬件和软件环境要求 3.1.1.进行深度学习任务所需的硬件要求,例如GPU和内存等 3.2.所需的深度学习框架和库 3.2.1.PyTorch 3.2.2.环境创建4.第三阶段 - 关键算法和实战: 4.1.GPT模型的架构和训练方法回顾 4.2.解读微型GPT项目的关键算法和技术细节 4.3.实战演练:使用提供的代码和数据进行微型GPT的复现 4.4.调试和优化模型性能 4.5.获取结果并进行评估 5.上手实践。 总结 |
模型微调与 API 搭建 |
1.模型微调的方法和实践: 1.1.介绍模型微调的概念和原理 1.2.常用的微调策略和技巧 1.3.数据集选择和准备 1.4.微调过程中的超参数调整 1.5.模型微调的评估和验证方法 2.开源大模型LLama微调实践: 2.1.常见的LLama模型微调方法介绍 2.2.数据准备、环境搭建 2.3.代码编写、运行代码、获取结果 3.API服务部署: 3.1.介绍将微调后的模型部署为API服务的方法和代码 3.2.使用FastAPI框架搭建API服务 3.3.将微调后的LLama模型加载到API服务中 4.前端调用: 4.1.介绍前端调用API服务的方法 4.2.前端调用的常见场景 4.3.实现与用户的交互和展示生成的文本结果 5.流式读取: 5.1.介绍流式读取数据的概念和优势 5.2.如何实现流式读取数据的方法(后端) 5.3.如何实现流式读取数据的方法(前端) 6.统一API接口,简化开发流程,缩短开发时间 7.总结 |
langchain技术介绍和多模态技术 |
1.Langchain技术介绍 1.1.Langchain要解决的问题 1.2.Lanchain的优势和劣势 1.3.Langchain有哪些关键组件 2.使用Langchain搭建一个chatPDF系统 2.1.整体流程 2.2.PDF读取 2.3.文件分割 2.4.向量化(Emmbeddings) 2.5.向量数据库 2.5.1.向量计算的方法 2.5.2.向量计算的难点 2.5.3.向量数据库如何加速 2.6.LLM融合结果 3.多模态技术 3.1.介绍多模态学习的概念和方法 3.2.Stable Diffusion技术的概念和应用 3.2.1.扩散过程(diffusion process)、迭代步骤和噪声 3.2.2.高质量样本生成 3.2.3.图像修复和增强、风格转换 3.3.Segment Anything Model的概念和应用 4.总结 4.1.回顾课程内容和学员的收获 总结与鼓励 |
深入深度学习和强化学习 1.深度学习基本概念和常见应用(互动,收集学员的水平,适度调节后边难度) 1.1.神经网络的基本结构和工作原理 1.2.深度学习的常见应用场景 2.CNN、RNN和LSTM 2.1.卷积神经网络(CNN)的原理,卷积层、池化层和全连接层 2.2.循环神经网络(RNN) 2.3.LSTM单元的结构和功能 3.强化学习介绍(互动:奖励机制) 3.1.强化学习基本概念和原理 3.2.Agent、环境和奖励信号的概念 3.3.Markov决策过程和值函数 3.4.强化学习算法的分类和应用 4.强化学习在游戏等领域的应用 4.1.Q-learning经典算法的介绍 4.1.1.强化学习在游戏智能和机器人控制中的应用案例 5.课上实战:Jupyter环境学习,使用CNN开发一个手写识别程序 5.1.Jupyter Notebook的基本操作和环境设置 5.2.MNIST手写数字数据集的介绍和加载 5.3.使用CNN模型对手写数字进行分类任务的实现 5.4.模型训练、评估和预测结果的展示 6.总结 |
从 NLP 到 GPT 1. 自然语言处理(NLP)介绍:(互动,收集NLP水平,调节难度) 1.1. NLP的基本概念和技术 1.2. 文本预处理、词嵌入和文本表示的方法 1.3. 常见NLP任务:文本分类、命名实体识别、情感分析等 2. Attention机制介绍:(互动:谁用过) 2.1. 注意力机制的原理和作用 2.2. 在NLP中的应用:机器翻译、文本摘要、问答系统等 2.3. Transformer模型中的自注意力机制 3. GPT介绍: 3.1. GPT技术概述:GPT1、GPT2和GPT3 3.2. GPT模型架构和训练方法 3.3. GPT在自然语言生成和文本补全任务中的应用 4.Zero-shot、few-shot技术: 4.1.零样本学习 4.2.少样本学习 5.Prompt技巧: 5.1.在GPT中使用Prompt技巧的原理和效果 5.2.如何设计和优化Prompt来引导GPT生成特定类型的文本 6.CoT (Chain of Thought)方法: 6.1.Chain of Thought方法的原理和应用 7.提供一个环境,上手尝试Prompt。 8.总结 |
解读和复现微型 GPT 项目 1.目标和复现步骤的介绍 2.第一阶段 - 数据准备: 2.1.数据收集和清洗 2.1.1.数据收集的方法和来源。 2.1.2.数据清洗的重要性,包括去除噪声、处理异常值和数据预处理等 2.2.数据预处理 2.2.1.介绍数据预处理的目的和常见方法 2.3.构建训练集和验证集 2.3.1.如何划分数据集为训练集和验证集 2.3.2.交叉验证和数据集平衡 3.第二阶段 - 环境准备: 3.1.硬件和软件环境要求 3.1.1.进行深度学习任务所需的硬件要求,例如GPU和内存等 3.2.所需的深度学习框架和库 3.2.1.PyTorch 3.2.2.环境创建4.第三阶段 - 关键算法和实战: 4.1.GPT模型的架构和训练方法回顾 4.2.解读微型GPT项目的关键算法和技术细节 4.3.实战演练:使用提供的代码和数据进行微型GPT的复现 4.4.调试和优化模型性能 4.5.获取结果并进行评估 5.上手实践。 总结 |
模型微调与 API 搭建 1.模型微调的方法和实践: 1.1.介绍模型微调的概念和原理 1.2.常用的微调策略和技巧 1.3.数据集选择和准备 1.4.微调过程中的超参数调整 1.5.模型微调的评估和验证方法 2.开源大模型LLama微调实践: 2.1.常见的LLama模型微调方法介绍 2.2.数据准备、环境搭建 2.3.代码编写、运行代码、获取结果 3.API服务部署: 3.1.介绍将微调后的模型部署为API服务的方法和代码 3.2.使用FastAPI框架搭建API服务 3.3.将微调后的LLama模型加载到API服务中 4.前端调用: 4.1.介绍前端调用API服务的方法 4.2.前端调用的常见场景 4.3.实现与用户的交互和展示生成的文本结果 5.流式读取: 5.1.介绍流式读取数据的概念和优势 5.2.如何实现流式读取数据的方法(后端) 5.3.如何实现流式读取数据的方法(前端) 6.统一API接口,简化开发流程,缩短开发时间 7.总结 |
langchain技术介绍和多模态技术 1.Langchain技术介绍 1.1.Langchain要解决的问题 1.2.Lanchain的优势和劣势 1.3.Langchain有哪些关键组件 2.使用Langchain搭建一个chatPDF系统 2.1.整体流程 2.2.PDF读取 2.3.文件分割 2.4.向量化(Emmbeddings) 2.5.向量数据库 2.5.1.向量计算的方法 2.5.2.向量计算的难点 2.5.3.向量数据库如何加速 2.6.LLM融合结果 3.多模态技术 3.1.介绍多模态学习的概念和方法 3.2.Stable Diffusion技术的概念和应用 3.2.1.扩散过程(diffusion process)、迭代步骤和噪声 3.2.2.高质量样本生成 3.2.3.图像修复和增强、风格转换 3.3.Segment Anything Model的概念和应用 4.总结 4.1.回顾课程内容和学员的收获 总结与鼓励 |