Skip to main content
Ctrl+K
scikit-learn homepage
  • Install
  • 用户指南
  • API
  • Examples
  • Community
    • 入门指南
    • 发布历史
    • Glossary
    • Development
    • FAQ
    • 支持
    • 相关项目
    • 路线图
    • Governance
    • 关于我们
  • GitHub
  • Install
  • 用户指南
  • API
  • Examples
  • Community
  • 入门指南
  • 发布历史
  • Glossary
  • Development
  • FAQ
  • 支持
  • 相关项目
  • 路线图
  • Governance
  • 关于我们
  • GitHub

Section Navigation

  • 1. 监督学习
    • 1.1. 线性模型
    • 1.2. 线性判别分析和二次判别分析
    • 1.3. 核岭回归
    • 1.4. 支持向量机
    • 1.5. 随机梯度下降
    • 1.6. 最近邻算法
    • 1.7. 高斯过程
    • 1.8. 交叉分解
    • 1.9. 朴素贝叶斯
    • 1.10. 决策树
    • 1.11. 集成方法:梯度提升、随机森林、装袋、投票、堆叠
    • 1.12. 多类和多输出算法
    • 1.13. 特征选择
    • 1.14. 半监督学习
    • 1.15. 等渗回归
    • 1.16. 概率校准
    • 1.17. 神经网络模型(监督学习)
  • 2. 无监督学习
    • 2.1. 高斯混合模型
    • 2.2. 流形学习
    • 2.3. 聚类
    • 2.4. 双向聚类
    • 2.5. 信号分解为成分(矩阵分解问题)
    • 2.6. 协方差估计
    • 2.7. 新奇和异常检测
    • 2.8. 密度估计
    • 2.9. 神经网络模型(无监督)
  • 3. 模型选择与评估
    • 3.1. 交叉验证:评估估计器性能
    • 3.2. 调整估计器的超参数
    • 3.3. 调整分类预测的决策阈值
    • 3.4. 度量和评分:量化预测质量
    • 3.5. 验证曲线:绘制分数以评估模型
  • 4. 检查
    • 4.1. 部分依赖图与个体条件期望图
    • 4.2. 排列特征重要性
  • 5. 可视化
  • 6. 数据集转换
    • 6.1. 流水线和复合估计器
    • 6.2. 特征提取
    • 6.3. 数据预处理
    • 6.4. 缺失值的插补
    • 6.5. 无监督维度缩减
    • 6.6. 随机投影
    • 6.7. 核近似
    • 6.8. 成对度量、亲和力和核函数
    • 6.9. 转换预测目标( y )
  • 7. 数据集加载工具
    • 7.1. 玩具数据集
    • 7.2. 真实世界数据集
    • 7.3. 生成的数据集
    • 7.4. 加载其他数据集
  • 8. 使用 scikit-learn 进行计算
    • 8.1. 计算扩展策略:更大的数据
    • 8.2. 计算性能
    • 8.3. 并行性、资源管理和配置
  • 9. 模型持久化
  • 10. 常见陷阱与推荐实践
  • 11. 调度
    • 11.1. 数组 API 支持(实验性)
  • 12. 选择合适的估计器
  • 13. 外部资源、视频和演讲
  • 用户指南

2. 无监督学习#

  • 2.1. 高斯混合模型
    • 2.1.1. 高斯混合
    • 2.1.2. 变分贝叶斯高斯混合
  • 2.2. 流形学习
    • 2.2.1. Isomap
    • 2.2.2. 局部线性嵌入
    • 2.2.3. 改进的局部线性嵌入
    • 2.2.4. Hessian Eigenmapping
    • 2.2.5. 谱嵌入
    • 2.2.6. 局部切空间对齐
    • 2.2.7. 多维尺度分析 (MDS)
    • 2.2.8. t-分布随机邻域嵌入 (t-SNE)
    • 2.2.9. 实用使用技巧
  • 2.3. 聚类
    • 2.3.1. 聚类方法概览
    • 2.3.2. K均值
    • 2.3.3. 亲和传播
    • 2.3.4. Mean Shift
    • 2.3.5. 谱聚类
    • 2.3.6. 层次聚类
    • 2.3.7. DBSCAN
    • 2.3.8. HDBSCAN
    • 2.3.9. OPTICS
    • 2.3.10. BIRCH
  • 2.4. 双向聚类
    • 2.4.1. 谱协同聚类
    • 2.4.2. 谱双聚类
    • 2.4.3. 双聚类评估
  • 2.5. 信号分解为成分(矩阵分解问题)
    • 2.5.1. 主成分分析(PCA)
    • 2.5.2. 核主成分分析 (kPCA)
    • 2.5.3. 截断奇异值分解与潜在语义分析
    • 2.5.4. 因子分析
    • 2.5.5. 独立成分分析(ICA)
    • 2.5.6. 非负矩阵分解(NMF 或 NNMF)
    • 2.5.7. 潜在狄利克雷分配(LDA)
  • 2.6. 协方差估计
    • 2.6.1. 经验协方差
    • 2.6.2. 收缩协方差
    • 2.6.3. 稀疏逆协方差
    • 2.6.4. 鲁棒协方差估计
  • 2.7. 新奇和异常检测
    • 2.7.1. 新颖性检测
    • 2.7.2. 异常检测
    • 2.7.3. 使用 Local Outlier Factor 进行新奇检测
  • 2.8. 密度估计
    • 2.8.1. 密度估计:直方图
    • 2.8.2. 核密度估计
  • 2.9. 神经网络模型(无监督)
    • 2.9.1. 受限玻尔兹曼机

previous

1.17. 神经网络模型(监督学习)

next

2.1. 高斯混合模型

Show Source

© Copyright 2007 - 2024, scikit-learn developers (BSD License).