LocalOutlierFactor#

class sklearn.neighbors.LocalOutlierFactor(n_neighbors=20, *, algorithm='auto', leaf_size=30, metric='minkowski', p=2, metric_params=None, contamination='auto', novelty=False, n_jobs=None)[源代码]#

使用局部异常因子 (LOF) 进行无监督异常值检测。

每个样本的异常分数被称为局部异常因子。它衡量了一个给定样本的密度与其邻居相比的局部偏差。它之所以是局部的,是因为异常分数取决于该对象在其周围邻域中的孤立程度。更准确地说,局部性由 k-最近邻给出,k-最近邻的距离用于估计局部密度。通过比较样本的局部密度与其邻居的局部密度,可以识别出密度远低于其邻居的样本。这些被认为是异常值。

Added in version 0.19.

参数:
n_neighborsint, default=20

用于 kneighbors 查询的默认邻居数量。如果 n_neighbors 大于提供的样本数量,将使用所有样本。

algorithm{‘auto’, ‘ball_tree’, ‘kd_tree’, ‘brute’}, default=’auto’

用于计算最近邻居的算法

  • ‘ball_tree’ 将使用 BallTree

  • ‘kd_tree’ 将使用 KDTree

  • 'brute' 将使用暴力搜索。

  • ‘auto’ 将尝试根据传递给 fit 方法的值来决定最合适的算法。

注意:对稀疏输入进行拟合将覆盖此参数的设置,使用暴力方法。

leaf_sizeint, default=30

Leaf 是传递给 BallTreeKDTree 的大小。这会影响树的构建和查询速度,以及存储树所需的内存。最佳值取决于问题的性质。

metricstr or callable, default=’minkowski’

用于距离计算的度量。默认为“minkowski”,当 p = 2 时,它会产生标准的欧几里得距离。有关有效的度量值,请参阅scipy.spatial.distance的文档以及distance_metrics中列出的度量。

如果 metric 为 “precomputed”,则 X 被假定为一个距离矩阵,并且在 fit 时必须是方形的。X 可以是 稀疏图,在这种情况下,只有“非零”元素可能被视为邻居。

如果 metric 是可调用函数,它接受表示 1D 向量的两个数组作为输入,并且必须返回一个值来指示这些向量之间的距离。这适用于 Scipy 的度量,但效率低于将度量名称作为字符串传递。

pfloat, default=2

来自 sklearn.metrics.pairwise_distances 的 Minkowski 度量的参数。当 p = 1 时,这等同于使用曼哈顿距离 (l1),当 p = 2 时,等同于使用欧几里得距离 (l2)。对于任意 p,使用 minkowski_distance (l_p)。

metric_paramsdict, default=None

度量函数的附加关键字参数。

contamination‘auto’ or float, default=’auto’

数据集的污染量,即数据集中异常值的比例。在拟合时,这用于定义样本分数的阈值。

  • 如果为 ‘auto’,则阈值按照原始论文中的方法确定,

  • 如果为浮点数,则 contamination 应在 (0, 0.5] 范围内。

版本 0.22 中更改: contamination 的默认值从 0.1 更改为 'auto'

noveltybool, default=False

默认情况下,LocalOutlierFactor 仅用于异常值检测 (novelty=False)。如果您想使用 LocalOutlierFactor 进行新颖性检测,请将 novelty 设置为 True。在这种情况下,请注意,您应该只在新的未见过的数据上使用 predict、decision_function 和 score_samples,而不是在训练集上;并且请注意,通过这种方式获得的结果可能与标准的 LOF 结果不同。

0.20 版本新增。

n_jobsint, default=None

用于邻居搜索的并行作业数。None 表示 1,除非在 joblib.parallel_backend 上下文中。-1 表示使用所有处理器。有关详细信息,请参阅 词汇表

属性:
negative_outlier_factor_ndarray of shape (n_samples,)

训练样本的负 LOF 分数。分数越高,越正常。内点倾向于具有接近 1 的 LOF 分数(negative_outlier_factor_ 接近 -1),而异常值倾向于具有更大的 LOF 分数。

样本的局部异常因子 (LOF) 捕捉了其所谓的“异常程度”。它是样本的局部可达密度与其 k-最近邻的局部可达密度之比的平均值。

n_neighbors_int

用于 kneighbors 查询的实际邻居数量。

offset_float

用于从原始分数中获得二元标签的偏移量。与 offset_ 相比,负异常因子分数小于 offset_ 的观测值被检测为异常。偏移量设置为 -1.5(内点分数约为 -1),除非提供了不同于“auto”的 contamination 参数。在这种情况下,偏移量被定义为使得我们在训练中获得预期的异常值数量。

0.20 版本新增。

effective_metric_str

用于距离计算的有效度量。

effective_metric_params_dict

度量函数的有效附加关键字参数。

n_features_in_int

拟合 期间看到的特征数。

0.24 版本新增。

feature_names_in_shape 为 (n_features_in_,) 的 ndarray

fit 期间看到的特征名称。仅当 X 具有全部为字符串的特征名称时才定义。

1.0 版本新增。

n_samples_fit_int

这是拟合数据中的样本数量。

另请参阅

sklearn.svm.OneClassSVM

使用支持向量机进行无监督异常检测。

References

[1]

Breunig, M. M., Kriegel, H. P., Ng, R. T., & Sander, J. (2000, May). LOF: identifying density-based local outliers. In Proceedings of the 2000 ACM SIGMOD International Conference on Management of Data, pp. 93-104.

示例

>>> import numpy as np
>>> from sklearn.neighbors import LocalOutlierFactor
>>> X = [[-1.1], [0.2], [101.1], [0.3]]
>>> clf = LocalOutlierFactor(n_neighbors=2)
>>> clf.fit_predict(X)
array([ 1,  1, -1,  1])
>>> clf.negative_outlier_factor_
array([ -0.9821,  -1.0370, -73.3697,  -0.9821])
decision_function(X)[源代码]#

X 的局部异常因子的偏移相反值。

值越大越好,即大值对应内点。

仅在新颖性检测时可用(当 novelty 设置为 True 时)。 偏移量允许将异常值设为零阈值。参数 X 被假定为包含新数据:如果 X 包含训练中的一个点,它会在其自身的邻域中考虑该点。此外,X 中的样本不被考虑在任何点的邻域中。

参数:
Xshape 为 (n_samples, n_features) 的 {array-like, sparse matrix}

用于计算相对于训练样本的局部异常因子的查询样本或样本。

返回:
shifted_opposite_lof_scoresndarray of shape (n_samples,)

每个输入样本的局部异常因子的偏移相反值。值越低,越异常。负分数代表异常值,正分数代表内点。

fit(X, y=None)[源代码]#

从训练数据集中拟合局部异常因子检测器。

参数:
X{类数组, 稀疏矩阵},形状为 (n_samples, n_features) 或 (n_samples, n_samples) 如果 metric='precomputed'

训练数据。

y被忽略

未使用,按照惯例为保持 API 一致性而存在。

返回:
selfLocalOutlierFactor

拟合好的局部异常因子检测器。

fit_predict(X, y=None)[源代码]#

用训练集 X 拟合模型并返回标签。

在新颖性检测时不可用(当 novelty 设置为 True 时)。 根据 LOF 分数和 contamination 参数,标签为 1 表示内点,-1 表示异常值。

参数:
X{array-like, sparse matrix} of shape (n_samples, n_features), default=None

用于计算相对于训练样本的局部异常因子的查询样本或样本。

y被忽略

未使用,按照惯例为保持 API 一致性而存在。

返回:
is_inlierndarray of shape (n_samples,)

返回 -1 表示异常值/外点,+1 表示内点。

get_metadata_routing()[源代码]#

获取此对象的元数据路由。

请查阅 用户指南,了解路由机制如何工作。

返回:
routingMetadataRequest

封装路由信息的 MetadataRequest

get_params(deep=True)[源代码]#

获取此估计器的参数。

参数:
deepbool, default=True

如果为 True,将返回此估计器以及包含的子对象(如果它们是估计器)的参数。

返回:
paramsdict

参数名称映射到其值。

kneighbors(X=None, n_neighbors=None, return_distance=True)[源代码]#

找到一个点的 K-邻居。

返回每个点的邻居的索引和距离。

参数:
X{类数组, 稀疏矩阵},形状为 (n_queries, n_features),如果 metric == ‘precomputed’ 则为 (n_queries, n_indexed),默认=None

查询点或点集。如果未提供,则返回每个索引点的邻居。在这种情况下,查询点不被视为其自身的邻居。

n_neighborsint, default=None

每个样本所需的邻居数量。默认值为构造函数中传递的值。

return_distance布尔值,默认=True

是否返回距离。

返回:
neigh_distndarray,形状为 (n_queries, n_neighbors)

表示到点的长度的数组,仅当 return_distance=True 时存在。

neigh_indndarray,形状为 (n_queries, n_neighbors)

总体矩阵中最近点的索引。

示例

在以下示例中,我们从表示我们数据集的数组构建了一个 NearestNeighbors 类,并询问哪个点离 [1,1,1] 最近。

>>> samples = [[0., 0., 0.], [0., .5, 0.], [1., 1., .5]]
>>> from sklearn.neighbors import NearestNeighbors
>>> neigh = NearestNeighbors(n_neighbors=1)
>>> neigh.fit(samples)
NearestNeighbors(n_neighbors=1)
>>> print(neigh.kneighbors([[1., 1., 1.]]))
(array([[0.5]]), array([[2]]))

正如您所看到的,它返回 [[0.5]] 和 [[2]],这意味着该元素距离为 0.5,并且是样本中的第三个元素(索引从 0 开始)。您还可以查询多个点。

>>> X = [[0., 1., 0.], [1., 0., 1.]]
>>> neigh.kneighbors(X, return_distance=False)
array([[1],
       [2]]...)
kneighbors_graph(X=None, n_neighbors=None, mode='connectivity')[源代码]#

计算 X 中点的 k-Neighbors(加权)图。

参数:
X{类数组, 稀疏矩阵},形状为 (n_queries, n_features),如果 metric == ‘precomputed’ 则为 (n_queries, n_indexed),默认=None

查询点或点集。如果未提供,则返回每个索引点的邻居。在这种情况下,查询点不被视为其自身的邻居。对于 metric='precomputed',形状应为 (n_queries, n_indexed)。否则,形状应为 (n_queries, n_features)。

n_neighborsint, default=None

每个样本的邻居数量。默认值为构造函数中传递的值。

mode{‘connectivity’, ‘distance’}, default=’connectivity’

返回矩阵的类型:‘connectivity’ 将返回包含 1 和 0 的连通性矩阵,‘distance’ 中边是点之间的距离,距离类型取决于 NearestNeighbors 类中选择的度量参数。

返回:
A稀疏矩阵,形状为 (n_queries, n_samples_fit)

n_samples_fit 是拟合数据中的样本数量。A[i, j] 给出连接 ij 的边的权重。矩阵为 CSR 格式。

另请参阅

NearestNeighbors.radius_neighbors_graph

计算 X 中点的 Neighbors(加权)图。

示例

>>> X = [[0], [3], [1]]
>>> from sklearn.neighbors import NearestNeighbors
>>> neigh = NearestNeighbors(n_neighbors=2)
>>> neigh.fit(X)
NearestNeighbors(n_neighbors=2)
>>> A = neigh.kneighbors_graph(X)
>>> A.toarray()
array([[1., 0., 1.],
       [0., 1., 1.],
       [1., 0., 1.]])
predict(X=None)[源代码]#

根据 LOF 预测 X 的标签(1 表示内点,-1 表示异常值)。

仅在新颖性检测时可用(当 novelty 设置为 True 时)。 此方法允许将预测推广到新观察(不在训练集中的)。请注意,使用 novelty=True 调用 clf.fit(X) 然后 clf.predict(X) 的结果可能与使用 novelty=False 调用 clf.fit_predict(X) 的结果不同。

参数:
Xshape 为 (n_samples, n_features) 的 {array-like, sparse matrix}

用于计算相对于训练样本的局部异常因子的查询样本或样本。

返回:
is_inlierndarray of shape (n_samples,)

返回 -1 表示异常值/外点,+1 表示内点。

score_samples(X)[源代码]#

X 的局部异常因子的相反值。

它是相反的,因为值越大越好,即大值对应内点。

仅在新颖性检测时可用(当 novelty 设置为 True 时)。 参数 X 被假定为包含新数据:如果 X 包含训练中的一个点,它会在其自身的邻域中考虑该点。此外,X 中的样本不被考虑在任何点的邻域中。因此,通过 score_samples 获得的分数可能与标准的 LOF 分数不同。训练数据的标准 LOF 分数可以通过 negative_outlier_factor_ 属性获得。

参数:
Xshape 为 (n_samples, n_features) 的 {array-like, sparse matrix}

用于计算相对于训练样本的局部异常因子的查询样本或样本。

返回:
opposite_lof_scoresndarray of shape (n_samples,)

每个输入样本的局部异常因子的相反值。值越低,越异常。

set_params(**params)[源代码]#

设置此估计器的参数。

此方法适用于简单的估计器以及嵌套对象(如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,以便可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计器参数。

返回:
selfestimator instance

估计器实例。