开发者工具#
Scikit-learn 包含许多有助于开发的工具。这些工具位于 sklearn.utils 中,并包含多个类别的工具。以下所有函数和类都位于模块 sklearn.utils 中。
警告
这些工具旨在 scikit-learn 包内部使用。不能保证它们在 scikit-learn 的不同版本之间保持稳定。特别是,随着 scikit-learn 依赖项的演变,反向移植将被移除。
验证工具#
这些工具用于检查和验证输入。当您编写接受数组、矩阵或稀疏矩阵作为参数的函数时,应在适用时使用以下工具。
assert_all_finite:如果数组包含 NaN 或 Inf,则抛出错误。as_float_array:将输入转换为浮点数数组。如果传递稀疏矩阵,则将返回稀疏矩阵。check_array:检查输入是否为二维数组,对稀疏矩阵引发错误。可以选择提供允许的稀疏矩阵格式,也可以允许一维或 N 维数组。默认情况下调用assert_all_finite。check_X_y:检查 X 和 y 是否具有相同的长度,对 X 调用 check_array,对 y 调用 column_or_1d。对于多标签分类或多目标回归,指定 multi_output=True,在这种情况下,将对 y 调用 check_array。indexable:检查所有输入数组是否具有相同的长度,并且可以使用 safe_index 进行切片或索引。这用于验证交叉验证的输入。validation.check_memory检查输入是否类似于joblib.Memory,这意味着它可以转换为sklearn.utils.Memory实例(通常是表示cachedir的字符串)或具有相同的接口。
如果您的代码依赖于随机数生成器,则不应使用 numpy.random.random 或 numpy.random.normal 等函数。这种方法会导致单元测试中的可重复性问题。相反,应该使用 numpy.random.RandomState 对象,该对象由传递给类或函数的 random_state 参数构建。然后可以使用下面的 check_random_state 函数来创建随机数生成器对象。
check_random_state:从参数random_state创建np.random.RandomState对象。如果
random_state为None或np.random,则返回一个随机初始化的RandomState对象。如果
random_state是一个整数,则将其用于播种新的RandomState对象。如果
random_state是一个RandomState对象,则将其直接传递。
例如
>>> from sklearn.utils import check_random_state
>>> random_state = 0
>>> random_state = check_random_state(random_state)
>>> random_state.rand(4)
array([0.5488135 , 0.71518937, 0.60276338, 0.54488318])
在开发您自己的与 scikit-learn 兼容的估计器时,可以使用以下辅助函数。
validation.check_is_fitted:在调用transform、predict或类似方法之前,检查估计器是否已拟合。此辅助函数允许在估计器之间引发标准化的错误消息。validation.has_fit_parameter:检查给定参数是否在给定估计器的fit方法中受支持。
高效的线性代数和数组运算#
extmath.randomized_range_finder:构造一个正交矩阵,其范围近似于输入的范围。这在下面的extmath.randomized_svd中使用。extmath.randomized_svd:计算 k 截断随机 SVD。此算法使用随机化来加速计算,从而找到精确的截断奇异值分解。在需要提取少量成分的大型矩阵上,它尤其快速。arrayfuncs.cholesky_delete:(用于lars_path)从 Cholesky 分解中删除一个项。arrayfuncs.min_pos:(用于sklearn.linear_model.least_angle)查找数组中正值的最小值。extmath.fast_logdet:高效计算矩阵行列式的对数。extmath.density:高效计算稀疏向量的密度。extmath.safe_sparse_dot:点积,可以正确处理scipy.sparse输入。如果输入是密集的,它等同于numpy.dot。extmath.weighted_mode:scipy.stats.mode的扩展,允许每个项目具有实值权重。
高效随机采样#
random.sample_without_replacement:实现高效算法,用于从大小为n_population的总体中无放回地采样n_samples个整数。
稀疏矩阵的高效例程#
sklearn.utils.sparsefuncs Cython 模块包含编译后的扩展,可以高效地处理 scipy.sparse 数据。
sparsefuncs.mean_variance_axis:计算 CSR 矩阵指定轴上的均值和方差。用于在KMeans中规范化容差停止准则。sparsefuncs_fast.inplace_csr_row_normalize_l1和sparsefuncs_fast.inplace_csr_row_normalize_l2:可用于将单个稀疏样本规范化为单位 L1 或 L2 范数,如Normalizer中所做的那样。sparsefuncs.inplace_csr_column_scale:可用于将 CSR 矩阵的列乘以常数比例(每列一个比例)。用于在StandardScaler中将特征缩放为单位标准差。sort_graph_by_row_values:可用于对 CSR 稀疏矩阵进行排序,使得每一行都以递增的值存储。这在使用预计算的稀疏距离矩阵的依赖于最近邻图的估计器时,有助于提高效率。
图例程#
graph.single_source_shortest_path_length:(目前未在 scikit-learn 中使用)返回从单个源到图上所有连接节点的最短路径。代码改编自 networkx。如果将来需要此功能,使用graph_shortest_path中 Dijkstra 算法的单次迭代会快得多。
测试函数#
discovery.all_estimators:返回 scikit-learn 中所有估计器的列表,用于测试一致的行为和接口。discovery.all_displays:返回 scikit-learn 中所有显示(与绘图 API 相关)的列表,用于测试一致的行为和接口。discovery.all_functions:返回 scikit-learn 中所有函数的列表,用于测试一致的行为和接口。
多类和多标签实用函数#
multiclass.is_multilabel:用于检查任务是否为多标签分类任务的辅助函数。multiclass.unique_labels:用于从不同格式的目标中提取有序的唯一标签数组的辅助函数。
辅助函数#
gen_even_slices:生成器,用于创建最多n个大小相等的切片。用于dict_learning和k_means。gen_batches:生成器,用于创建包含从 0 到n的批量大小元素的切片。safe_mask:辅助函数,用于将掩码转换为 NumPy 数组或 SciPy 稀疏矩阵所期望的格式(稀疏矩阵仅支持整数索引,而 NumPy 数组既支持布尔掩码也支持整数索引)。safe_sqr:用于统一对数组、矩阵和稀疏矩阵进行平方 (**2) 计算的辅助函数。
哈希函数#
murmurhash3_32提供了MurmurHash3_x86_32C++ 非加密哈希函数的 Python 包装器。此哈希函数适用于实现查找表、布隆过滤器、计数最小草图、特征哈希和隐式定义的稀疏随机投影。>>> from sklearn.utils import murmurhash3_32 >>> murmurhash3_32("some feature", seed=0) == -384616559 True >>> murmurhash3_32("some feature", seed=0, positive=True) == 3910350737 True
sklearn.utils.murmurhash模块也可以从其他 Cython 模块“cimported”,以便利用 MurmurHash 的高性能,同时跳过 Python 解释器的开销。
警告和异常#
deprecated:用于标记函数或类已弃用的装饰器。ConvergenceWarning:自定义警告,用于捕获收敛问题。用于sklearn.covariance.graphical_lasso。