1. 监督学习# 1.1. 线性模型 1.1.1. 普通最小二乘法 1.1.2. 岭回归和分类 1.1.3. Lasso 1.1.4. 多任务 Lasso 1.1.5. 弹性网络 1.1.6. 多任务弹性网络 1.1.7. 最小角回归 1.1.8. LARS Lasso 1.1.9. 正交匹配追踪 (OMP) 1.1.10. 贝叶斯回归 1.1.11. 逻辑回归 1.1.12. 广义线性模型 1.1.13. 随机梯度下降 - SGD 1.1.14. 感知器 1.1.15. 被动攻击算法 1.1.16. 稳健性回归:异常值和建模误差 1.1.17. 分位数回归 1.1.18. 多项式回归:使用基函数扩展线性模型 1.2. 线性和二次判别分析 1.2.1. 使用线性判别分析进行降维 1.2.2. LDA 和 QDA 分类器的数学公式 1.2.3. LDA 降维的数学公式 1.2.4. 收缩和协方差估计器 1.2.5. 估计算法 1.3. 核岭回归 1.4. 支持向量机 1.4.1. 分类 1.4.2. 回归 1.4.3. 密度估计、新颖性检测 1.4.4. 复杂度 1.4.5. 实践使用技巧 1.4.6. 核函数 1.4.7. 数学公式 1.4.8. 实现细节 1.5. 随机梯度下降 1.5.1. 分类 1.5.2. 回归 1.5.3. 在线单类 SVM 1.5.4. 用于稀疏数据的随机梯度下降 1.5.5. 复杂度 1.5.6. 停止准则 1.5.7. 实践使用技巧 1.5.8. 数学公式 1.5.9. 实现细节 1.6. 最近邻 1.6.1. 无监督最近邻 1.6.2. 最近邻分类 1.6.3. 最近邻回归 1.6.4. 最近邻算法 1.6.5. 最近质心分类器 1.6.6. 最近邻转换器 1.6.7. 邻域成分分析 1.7. 高斯过程 1.7.1. 高斯过程回归 (GPR) 1.7.2. 高斯过程分类 (GPC) 1.7.3. GPC 示例 1.7.4. 高斯过程的核 1.8. 交叉分解 1.8.1. PLSCanonical 1.8.2. PLSSVD 1.8.3. PLSRegression 1.8.4. 典型相关分析 1.9. 朴素贝叶斯 1.9.1. 高斯朴素贝叶斯 1.9.2. 多项式朴素贝叶斯 1.9.3. 补集朴素贝叶斯 1.9.4. 伯努利朴素贝叶斯 1.9.5. 类别朴素贝叶斯 1.9.6. 离线朴素贝叶斯模型拟合 1.10. 决策树 1.10.1. 分类 1.10.2. 回归 1.10.3. 多输出问题 1.10.4. 复杂度 1.10.5. 实践使用技巧 1.10.6. 树算法:ID3、C4.5、C5.0 和 CART 1.10.7. 数学公式 1.10.8. 缺失值支持 1.10.9. 最小成本复杂度剪枝 1.11. 集成:梯度提升、随机森林、装袋、投票、堆叠 1.11.1. 梯度提升树 1.11.2. 随机森林和其他随机树集成 1.11.3. 装袋元估计器 1.11.4. 投票分类器 1.11.5. 投票回归器 1.11.6. 堆叠泛化 1.11.7. AdaBoost 1.12. 多类和多输出算法 1.12.1. 多类分类 1.12.2. 多标签分类 1.12.3. 多类-多输出分类 1.12.4. 多输出回归 1.13. 特征选择 1.13.1. 删除方差低的特征 1.13.2. 单变量特征选择 1.13.3. 递归特征消除 1.13.4. 使用 SelectFromModel 进行特征选择 1.13.5. 顺序特征选择 1.13.6. 将特征选择作为管道的一部分 1.14. 半监督学习 1.14.1. 自训练 1.14.2. 标签传播 1.15. 等距回归 1.16. 概率校准 1.16.1. 校准曲线 1.16.2. 校准分类器 1.16.3. 用法 1.17. 神经网络模型(监督) 1.17.1. 多层感知器 1.17.2. 分类 1.17.3. 回归 1.17.4. 正则化 1.17.5. 算法 1.17.6. 复杂度 1.17.7. 实践使用技巧 1.17.8. 使用 warm_start 进行更多控制