再生核希尔伯特空间(RKHS)漫谈(二):Mecer's Theorem Posted on 2021-03-28 Edited on 2021-03-30 In RKHS Views: Valine: 讨论Mercer理论及其相关证明,通过Mercer理论更加深入了解RKHS和SVM Read more »
图卷积神经网络(GCN)深入理解(3) 图拉普拉斯算子的由来 Posted on 2021-03-25 Edited on 2021-04-06 In GCN Views: Valine: 简单介绍几篇论文,关于图拉普拉斯算子谱的收敛性,揭示连续Laplacian和Graph Laplacian间的关系 Read more »
再生核希尔伯特空间(RKHS)漫谈(一):定义 Posted on 2021-02-25 Edited on 2021-03-10 In RKHS Views: Valine: 关于RKHS的一些理论和推导,以便对SVM中的kernel trick有更深的理解。 Read more »
图卷积神经网络(GCN)深入理解(2) 拉普拉斯算子(Laplacian) Posted on 2020-09-11 Edited on 2021-03-25 In GCN Views: Valine: 主要讨论拉连续普拉斯算子(Laplacian)的谱分解、特征函数和特征值与傅里叶变换之间的关系。 Read more »
图卷积神经网络(GCN)深入理解(1) 矩阵的谱分解 Posted on 2020-09-04 Edited on 2020-09-15 In GCN Views: Valine: 主要讨论图谱方法的前置知识,矩阵的特征向量和特征分解 Read more »
xgboost理解(3) xgboost分裂点选取、缺失值处理和并行化 Posted on 2020-06-16 Edited on 2020-09-04 In xgboost Views: Valine: xgboost中两个亮点:分裂点的选取和整个XGB算法的并行化。另外还有缺失值的处理 Read more »
xgboost理解(2) xgboost思想剖析 Posted on 2020-06-10 Edited on 2020-06-23 In xgboost Views: Valine: xgboost的核心思想是什么?它每轮迭代拟合的是什么?它为什么要做这些改进? Read more »
xgboost理解(1) 从AdaBoost到GBDT的变迁 Posted on 2020-06-08 Edited on 2020-06-23 In xgboost Views: Valine: AdaBoost、提升树和GBDT的联系和区别有哪些?特别是提升树和梯度提升树的核心区别在什么地方? Read more »
Deep Q-Learning 系列论文漫谈(四) 错综复杂的误差(下)-误差汇总 Posted on 2020-02-07 Edited on 2020-06-08 In Deep Q-Learning Views: Valine: 把DQN的误差和减少误差的措施放在一起看,主要分享论文 Diagnosing Bottlenecks in Deep Q-learning Algorithms Read more »
Deep Q-Learning 系列论文漫谈(三) 错综复杂的误差(上)-投影误差 Posted on 2020-02-03 Edited on 2020-06-08 In Deep Q-Learning Views: Valine: DQN中涉及到哪些误差?什么是投影误差?在这篇文章里一起聊聊Linear Value-Function Geometry吧 Read more »