课程简介
在人工智能技术高速发展的今天,大模型已成为推动产业变革的核心引擎,但其安全风险也日益凸显。本课程聚焦大模型全生命周期的安全威胁与防御体系,结合前沿技术动态、真实案例与全球治理政策,为学员提供系统性攻防知识框架,助力掌握AI安全领域的核心竞争力。
目标收益
1.从技术到合规,系统性守护大模型全流程安全;
2.用真实案例经验,快速定位并解决高危漏洞;
3.以权威评估方法,验证模型安全性与可靠性;
4.站在行业前沿,应对AI安全领域快速迭代的挑战
培训对象
AI研发工程师、安全运维人员、企业技术决策者、政策研究人员,以及希望深入理解大模型安全风险与防御策略的专业人士。
课程大纲
大模型安全演进与技术革新 |
1.大模型起源与未来分析 2.deep seek的工程创新点 |
大模型安全威胁概况 |
大模型全生命周期安全威胁 1)数据层风险 2)训练层风险 3)推理部署层风险 4)迭代优化风险 |
大模型全球治理和法律法规 |
1.各国人工智能政策法规 2.中国人工智能安全政策与标准解读 3.大模型备案和违规案例 4.典型司法案例 |
数据投毒攻击 |
1.数据污染与篡改 1)伪造训练样本 2)隐蔽性投毒 2.恶意代码注入 1)数据集脚本攻击 2)利用库漏洞 3.训练过程干扰 4.供应链攻击 |
提示词注入攻击 |
1.直接和间接提示词注入攻击 2.多模态提示词注入攻击 3.代码提示词注入攻击 4.越狱攻击 5.提示词注入实战 |
大模型生成内容安全 |
1.虚假与误导信息风险 2.歧视与偏见风险 3.违法与有害内容风险 4.隐私与数据泄露风险 5.意识形态与国家安全风险 6.技术依赖与失控风险 |
系统与基础设施漏洞 |
1.DDoS攻击 2.供应链漏洞 3.API劫持 4.第三方组件漏洞 3)Ollama 远程代码执行漏洞 CVE-2024-37032 4)深度学习框架PyTorch远程代码执行漏洞(CVE-2025-32434) 5)Meta的Llama框架远程代码执行漏洞 |
其他安全威胁 |
1.模型窃取 2.模型嫁接 3.大模型深度伪造 |
大模型安全防御研究 |
1.大模型安全防御技术 2.可靠性技术研究 3.可控性技术研究 4.多模态数据中的偏见缓解 |
大模型安全防御实践 |
1.国内大模型安全防御实践 2.Chat-gpt各版本安全防御的改进分析 |
大模型安全评估 |
大模型安全评估实验案例 1)语言模型整体评估 2)SuperCLUE-Safety:中文大模型多轮对抗安全基准 3)多模态大模型安全性评估 |
大模型安全演进与技术革新 1.大模型起源与未来分析 2.deep seek的工程创新点 |
大模型安全威胁概况 大模型全生命周期安全威胁 1)数据层风险 2)训练层风险 3)推理部署层风险 4)迭代优化风险 |
大模型全球治理和法律法规 1.各国人工智能政策法规 2.中国人工智能安全政策与标准解读 3.大模型备案和违规案例 4.典型司法案例 |
数据投毒攻击 1.数据污染与篡改 1)伪造训练样本 2)隐蔽性投毒 2.恶意代码注入 1)数据集脚本攻击 2)利用库漏洞 3.训练过程干扰 4.供应链攻击 |
提示词注入攻击 1.直接和间接提示词注入攻击 2.多模态提示词注入攻击 3.代码提示词注入攻击 4.越狱攻击 5.提示词注入实战 |
大模型生成内容安全 1.虚假与误导信息风险 2.歧视与偏见风险 3.违法与有害内容风险 4.隐私与数据泄露风险 5.意识形态与国家安全风险 6.技术依赖与失控风险 |
系统与基础设施漏洞 1.DDoS攻击 2.供应链漏洞 3.API劫持 4.第三方组件漏洞 3)Ollama 远程代码执行漏洞 CVE-2024-37032 4)深度学习框架PyTorch远程代码执行漏洞(CVE-2025-32434) 5)Meta的Llama框架远程代码执行漏洞 |
其他安全威胁 1.模型窃取 2.模型嫁接 3.大模型深度伪造 |
大模型安全防御研究 1.大模型安全防御技术 2.可靠性技术研究 3.可控性技术研究 4.多模态数据中的偏见缓解 |
大模型安全防御实践 1.国内大模型安全防御实践 2.Chat-gpt各版本安全防御的改进分析 |
大模型安全评估 大模型安全评估实验案例 1)语言模型整体评估 2)SuperCLUE-Safety:中文大模型多轮对抗安全基准 3)多模态大模型安全性评估 |