教练:
扎Srinivasa Garani,
(周二、周四上午11:30,下午一点、在线)
Pre-requisities:
熟悉数字信号处理和工程数学在大学层次。
课程大纲:
介绍,一个神经元模型,神经网络直接图形、网络架构(前馈、反馈等)、学习过程、学习任务、感知器,感知器收敛定理,感知器和贝叶斯分类器之间的关系,批感知器算法,通过回归模型:线性、逻辑为多个类,多层感知器(MLP)、批处理和在线学习,反向传播算法的推导,XOR问题,黑森在线学习的作用,退火和最优控制的学习速率的近似函数,通用逼近定理,交叉验证,网络修剪和复杂性的正规化,卷积网络非线性滤波,覆盖定理和模式可分性,插值问题,RBF网络,混合学习过程RBF网络,内核与RBF回归和关系。、支持向量机最优超平面线性可分性,最优超平面的不可分离的模式,支持向量机作为一个内核的机器,支持向量机的设计,XOR问题重新审视,鲁棒性考虑回归,用定理,介绍了正则化理论,阿达玛的条件,适定性问题Tikhonov正则化、正规化网络,广义RBF网络,正则化参数的估计等,L1正规化基础,算法和扩展,主成分分析:Hebbian主成分分析的基础上,基于内核的PCA,内核Hebbian算法,深mlp、auto-encoders深处,去噪auto-encoders不利。
参考书籍:
- 微积分,神经网络和学习机器,皮尔森出版社。
- k·墨菲,机器学习:概率的角度来看,麻省理工学院出版社。
分级策略:
作业:30%
中期:20%
项目:25%
期末考试:25%
作业:
考试:
公告:
- 项目:
- 演示在2021年1月16日和17日。
- 报告将于2021年1月28日。
主题 | 课堂讲稿 | |
星期1 | 人类的大脑;介绍神经网络;一个神经元的模型;反馈和网络架构;知识表示;之前的信息和不变性 | NNLS_Week_01 |
星期2 | 学习过程;感知器;批感知器算法;感知器和贝叶斯分类器 | NNLS_Week_02 |
星期3 | 线性回归;逻辑回归;多层感知器 | NNLS_Week_03 |
星期4 | 多层感知器;反向传播;XOR问题 | NNLS_Week_04 |
星期5 | 普遍的近似函数;复杂性正规化和交叉验证;卷积神经网络(CNN);覆盖定理 | NNLS_Week_05 |
第6周 | 多元插值问题;径向基函数(RBF);递归最小二乘算法;中长期规划对比RBF的;内核使用rbf回归;内核函数;约束优化的基本知识 | NNLS_Week_06 |
星期7 | 用等式约束优化;与不等式约束优化;支持向量机(SVM);最优超平面线性可分模式;寻找最优超平面的二次优化 | NNLS_Week_07 |
第八周 | 最优超平面非线性可分的模式;美世内积内核和定理;支持向量机的优化设计;ε-insensitive损失函数;使用支持向量机XOR问题重新审视;希尔伯特空间 | NNLS_Week_08 |
9周 | 再生核希尔伯特空间;用定理;广义用定理的适用性;正则化理论;欧拉方程;正则化网络 | NNLS_Week_09 |
第十个星期 | 广义RBF网络;使用RBF XOR问题重新审视;结构风险最小化;偏见方差困境;正则化参数的估计 | NNLS_Week_10 |
11周 | L1正规化的基础知识;接枝;VC维;Autoencoders;去噪Autoencoders |
NNLS_Week_11 |
第12周 | 核主成分分析;Hebbian基于最大特征滤波器 | NNLS_Week_12 |
介绍有线电视新闻网 | Supplementary_1 | |
反向传播在美国有线电视新闻网 | Supplementary_2 |