1月2日,人工智能系列读书班活动继续开展,张晓亮博士主持了“降维与度量学习”内容,先介绍了K近邻学习、低维嵌入中的多维缩放MDS算法;然后着重介绍了常用的降维算法中的主成分分析PCA、核化线性降维中的核主成分分析KPCA,流形学习的等度量映射Isomap、局部线性嵌入LLE以及度量学习中的近邻成分分析NCA等:
图1 张晓亮博士主持“降维与度量学习”讨论会
自由讨论环节,大家集中讨论了同胚(拓扑空间之间的连续性与开闭集的保持;是研究流形性质的重要工具)与同构(结构之间的代数性质的完全一致性)的区别;大家又分析了常用的几种核函数(线性核、多项式核、高斯核、径向基核、Sigmoid核、复合核等),指出预先定义核函数的局限性,着重讨论了从数据中学习到核函数的可能性。
(会议总结:沈来信)