CodingDict
首页
(current)
实战课程
免费教程
中文文档
博客资讯
在线工具
sklearn中文文档
目录
安装 scikit-learn
用户指南
1 监督学习
1.1 广义线性模型
1.2 线性和二次判别分析
1.3 内核岭回归
1.4 支持向量机
1.5 随机梯度下降
1.6 最近邻
1.7 高斯过程
1.8 交叉分解
1.9 朴素贝叶斯
1.10 决策树
1.11 集成方法
1.12 多类和多标签算法
1.13 特征选择
1.14 半监督学习
1.15 等式回归
1.16 概率校准
1.17 神经网络模型(有监督)
2 无监督学习
2.1 高斯混合模型
2.2 流形学习
2.3 聚类
2.4 双聚类
2.5 分解成分中的信号(矩阵分解问题)
2.6 协方差估计
2.7 经验协方差
2.8 收敛协方差
2.9 稀疏逆协方差
2.10 Robust 协方差估计
2.11 新奇和异常值检测
2.12 密度估计
2.13 神经网络模型(无监督)
3 模型选择和评估
3.1 交叉验证:评估估算器的表现
3.2 调整估计器的超参数
3.3 模型评估-量化预测的质量
3.4 模型持久化
3.5 验证曲线-绘制分数以评估模型
4 数据集转换
4.1 Pipeline(管道)和 FeatureUnion(特征联合)-合并的评估器
4.2 特征提取
4.3 预处理数据
4.4 无监督降维
4.5 随机投影
4.6 内核近似
4.7 成对的矩阵, 类别和核函数
4.8 预测目标y的转换
5 数据集加载工具
6 大规模计算的策略-更大量的数据
7 计算性能
教程
使用 scikit-learn 介绍机器学习
关于科学数据处理的统计学习教程
机器学习-scikit-learn 中的设置以及预估对象
监督学习:从高维观察预测输出变量
模型选择:选择估计量及其参数
无监督学习-寻求数据表示
把它们放在一起
寻求帮助
处理文本数据
选择正确的评估器-estimator
外部资源,视频和谈话
常见问题
sklearn中文文档
Docs
»
2\. 无监督学习
2. 无监督学习
2.1. 高斯混合模型
2.1.1. 高斯混合
2.1.1.1. 优缺点
GaussianMixture
2.1.1.1.1. 优点
2.1.1.1.2. 缺点
2.1.1.2. 选择经典高斯混合模型中分量的个数
2.1.1.3. 估计算法期望最大化(EM)
2.1.2. 变分贝叶斯高斯混合
2.1.2.1. 估计算法: 变分推断(variational inference)
2.1.2.1.1. 优点
2.1.2.1.2. 缺点
2.1.2.2. The Dirichlet Process(狄利克雷过程)
2.2. 流形学习
2.2.1. 介绍
2.2.2. Isomap
2.2.2.1. 复杂度
2.2.3. 局部线性嵌入
2.2.3.1. 复杂度
2.2.4. 改进型局部线性嵌入(MLLE)
2.2.4.1. 复杂度
2.2.5. 黑塞特征映射(HE)
2.2.5.1. 复杂度
2.2.6. 谱嵌入
2.2.6.1. 复杂度
2.2.7. 局部切空间对齐(LTSA)
2.2.7.1. 复杂度
2.2.8. 多维尺度分析(MDS)
2.2.8.1. 度量 MDS
2.2.8.2. 非度量 MDS
2.2.9. t 分布随机邻域嵌入(t-SNE)
2.2.9.1. 优化 t-SNE
2.2.9.2. Barnes-Hut t-SNE
2.2.10. 实用技巧
2.3. 聚类
2.3.1. 聚类方法概述
2.3.2. K-means
2.3.2.1. 小批量 K-Means
2.3.3. Affinity Propagation
2.3.4. Mean Shift
2.3.5. Spectral clustering
2.3.5.1. 不同的标记分配策略
2.3.6. 层次聚类
2.3.6.1. Different linkage type: Ward, complete and average linkage
2.3.6.2. 添加连接约束
2.3.6.3. Varying the metric
2.3.7. DBSCAN
2.3.8. Birch
2.3.9. 聚类性能度量
2.3.9.1. 调整后的 Rand 指数
2.3.9.1.1. 优点
2.3.9.1.2. 缺点
2.3.9.1.3. 数学表达
2.3.9.2. 基于 Mutual Information (互信息)的分数
2.3.9.2.1. 优点
2.3.9.2.2. 缺点
2.3.9.2.3. 数学公式
2.3.9.3. 同质性,完整性和 V-measure
2.3.9.3.1. 优点
2.3.9.3.2. 缺点
2.3.9.3.3. 数学表达
2.3.9.4. Fowlkes-Mallows 分数
2.3.9.4.1. 优点
2.3.9.4.2. 缺点
2.3.9.5. Silhouette 系数
2.3.9.5.1. 优点
2.3.9.5.2. 缺点
2.3.9.6. Calinski-Harabaz 指数
2.3.9.6.1. 优点
2.3.9.6.2. 缺点
2.4. 双聚类
2.4.1. Spectral Co-Clustering
2.4.1.1. 数学公式
2.4.2. Spectral Biclustering
2.4.2.1. 数学表示
2.4.3. Biclustering 评测
2.5. 分解成分中的信号(矩阵分解问题)
2.5.1. 主成分分析(PCA)
2.5.1.1. 准确的PCA和概率解释(Exact PCA and probabilistic interpretation)
2.5.1.2. 增量PCA (Incremental PCA)
2.5.1.3. PCA 使用随机SVD
2.5.1.4. 核 PCA
2.5.1.5. 稀疏主成分分析 ( SparsePCA 和 MiniBatchSparsePCA )
2.5.2. 截断奇异值分解和隐语义分析
2.5.3. 词典学习
2.5.3.1. 带有预计算词典的稀疏编码
2.5.3.2. 通用词典学习
2.5.3.3. 小批量字典学习
2.5.4. 因子分析
2.5.5. 独立成分分析(ICA)
2.5.6. 非负矩阵分解(NMF 或 NNMF)
2.5.6.1. NMF 与 Frobenius 范数
2.5.6.2. 具有 beta-divergence 的 NMF
2.5.7. 隐 Dirichlet 分配(LDA)
2.6. 协方差估计
2.7. 经验协方差
2.8. 收敛协方差
2.8.1. 基本收敛
2.8.2. Ledoit-Wolf 收敛
2.8.3. Oracle 近似收缩
2.9. 稀疏逆协方差
2.10. Robust 协方差估计
2.10.1. 最小协方差决定
2.11. 新奇和异常值检测
2.11.1. Novelty Detection(新奇检测)
2.11.2. Outlier Detection(异常值检测)
2.11.2.1. Fitting an elliptic envelope(椭圆模型拟合)
2.11.2.2. Isolation Forest(隔离森林)
2.11.2.3. Local Outlier Factor(局部异常系数)
2.11.2.4. 一类支持向量机与椭圆模型与隔离森林与局部异常系数
2.12. 密度估计
2.12.1. 密度估计: 直方图
2.12.2. 核密度估计
2.13. 神经网络模型(无监督)
2.13.1. 限制波尔兹曼机
2.13.1.1. 图形模型和参数化
2.13.1.2. 伯努利限制玻尔兹曼机
2.13.1.3. 随机最大似然学习