课程简介
本课程全面覆盖机器智能的哲学基础、历史发展、编程算法、数学原理及经典机器学习模型。从自然语言的数学解读到现代人工智能的应用,再到Python编程与算法实现,逐步深入。课程深入探讨线性代数、概率统计等数学工具在机器智能中的应用,并详细介绍监督学习、决策树、朴素贝叶斯、支撑向量机等经典机器学习模型,旨在培养学生的算法思维与机器智能应用能力。
目标收益
培训对象
课程内容
1. 机器智能 的哲学与历史
History and Philosophy of Machine Intelligence
1.1 自然的语言
Mathematical Interpretation of the Nature
1.2 可计算的机器
Computing Machines
1.3 思想的机械性推理
Mechanical Reasoning of Minds
1.4 人工智能的历史
History of AI
1.5 现代人工智能
Modern AI
1.6 诺贝尔奖与人工智能
Nobel Prize and AI
2. 编程与算法
Coding and Algorithms
2.1 Python 编程
Python Coding
2.2 算法实现
Algorithm Implementation
2.3 算法效率
Efficiency of Algorithms
2.4 算法思维
Algorithmic Thinking
3 .机器智能的数学
Mathematics for Machine Intelligence
3.1 数与函数
Numbers and Functions
3.1.1 数与群
Number and Group
3.1.2 微分与积分
Derivative and Integral
3.1.3 动态系统与混沌
Dynamic System and Chaos
3.2 线性代数
Linear Algebra
3.2.1 矩阵与线性变换
Matrix and Linear Transformation
3.2.3 特征向量与特征值
Eigenvectors and Eigenvalues
3.2.4 奇异值分解
SVD Decomposition
3.3 概率与统计
Probability and Statistics
3.3.1 随机变量
Random Variable
3.3.2 条件概率与贝叶斯
Conditional Probability and Bayes
3.3.3 概率分布
Probability Distribution
3.3.4 极大似然估计
Maximum Likelihood Estimation
3.3.5 采样
Sampling
4. 经典机器学习模型
Classical Machine Learning Models
4.1 监督与非监督学习
Supervised and Unsupervised Learning
4.1.1 最近邻预测
K-Nearest Neighbors
4.1.2 K-均值算法
K-Means
4.1.3 核密度估计
Kernel Density Estimation
4.2 决策树
Decision Trees
4.2.1 信息熵
Information Entropy
4.2.2 集成学习
Ensemble Learning
4.2.3 XGBoost
XGBoost
4.3 朴素贝叶斯
Naive Bayes
4.4 线性回归
Linear Regression
4.4.1 最小二乘法
LMS
4.4.2 梯度下降
Gradient Descent
4.4.3 感知器算法
Perceptron
4.5 支撑向量机
Support Vector Machines
4.5.1 最大间隙
Maximum Margin
4.5.2 拉格朗日乘子与 KKT 条件
Lagrange Multiplier and KKT Condition
4.5.3 对偶表达
Dual Form
4.5.4 核方法
Kernel Methods