IsolationForest#

class sklearn.ensemble.IsolationForest(*, n_estimators=100, max_samples='auto', contamination='auto', max_features=1.0, bootstrap=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)[source]#

孤立森林算法。

使用孤立森林算法返回每个样本的异常分数

孤立森林通过随机选择一个特征,然后随机选择该特征的最大值和最小值之间的分割值来“隔离”观测值。

由于递归分区可以表示为树结构,因此隔离一个样本所需的分割次数等同于从根节点到终止节点的路径长度。

这种路径长度,在这样的随机树森林上取平均值,是衡量正常性的标准,也是我们的决策函数。

随机分区会为异常点产生明显更短的路径。因此,当一个随机树森林集体为特定样本产生更短的路径长度时,它们极有可能是异常点。

更多信息请阅读用户指南

版本 0.18 新增。

参数:
n_estimatorsint, default=100

集成中基础估计器的数量。

max_samples“auto”, int 或 float, default=”auto”

从 X 中抽取用于训练每个基础估计器的样本数量。

  • 如果为 int,则抽取 max_samples 个样本。

  • 如果为 float,则抽取 max_samples * X.shape[0] 个样本。

  • 如果为 “auto”,则 max_samples=min(256, n_samples)

如果 max_samples 大于提供的样本数量,则所有样本将用于所有树(不进行抽样)。

contamination‘auto’ 或 float, default=’auto’

数据集的污染程度,即数据集中异常值的比例。在拟合时用于定义样本分数的阈值。

  • 如果为 'auto',则阈值按原始论文中的方式确定。

  • 如果为 float,则 contamination 应在 (0, 0.5] 范围内。

版本 0.22 更改: contamination 的默认值从 0.1 更改为 'auto'

max_featuresint 或 float, default=1.0

从 X 中抽取用于训练每个基础估计器的特征数量。

  • 如果为 int,则抽取 max_features 个特征。

  • 如果为 float,则抽取 max(1, int(max_features * n_features_in_)) 个特征。

注意: 使用小于 1.0 的浮点数或小于特征数量的整数将启用特征子采样,并导致更长的运行时。

bootstrapbool, default=False

如果为 True,则单独的树在训练数据的随机子集上拟合,并进行有放回抽样。如果为 False,则进行无放回抽样。

n_jobsint, default=None

fit 期间并行运行的作业数。 None 表示 1,除非在 joblib.parallel_backend 上下文中。 -1 表示使用所有处理器。有关更多详细信息,请参见词汇表

random_stateint, RandomState 实例或 None, default=None

控制森林中每个分支步骤和每棵树的特征和分割值选择的伪随机性。

传入 int 可在多次函数调用中获得可重现的结果。请参见词汇表

verboseint, default=0

控制树构建过程的详细程度。

warm_startbool, default=False

当设置为 True 时,重用上一次 fit 调用的解决方案,并向集成添加更多估计器;否则,拟合一个全新的森林。请参见词汇表

版本 0.21 新增。

属性:
estimator_ExtraTreeRegressor 实例

用于创建已拟合的子估计器集合的子估计器模板。

版本 1.2 新增: base_estimator_ 已更名为 estimator_

estimators_ExtraTreeRegressor 实例列表

已拟合的子估计器集合。

estimators_features_ndarray 列表

每个基础估计器抽取的特征子集。

estimators_samples_ndarray 列表

每个基础估计器抽取的样本子集。

max_samples_int

实际样本数量。

offset_float

用于根据原始分数定义决策函数的偏移量。我们有以下关系:decision_function = score_samples - offset_offset_ 定义如下。当污染参数设置为“auto”时,偏移量等于-0.5,因为内部点的分数接近0,异常点的分数接近-1。当提供一个非“auto”的污染参数时,偏移量的定义方式使得在训练中获得预期数量的异常点(决策函数 < 0 的样本)。

版本 0.20 新增。

n_features_in_int

fit 期间看到的特征数量。

版本 0.24 新增。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

fit 期间看到的特征名称。仅当 X 的所有特征名称均为字符串时才定义。

版本 1.0 新增。

另请参见

sklearn.covariance.EllipticEnvelope

用于检测高斯分布数据集中异常值的对象。

sklearn.svm.OneClassSVM

无监督异常值检测。估计高维分布的支持度。此实现基于 libsvm。

sklearn.neighbors.LocalOutlierFactor

使用局部异常因子 (LOF) 进行无监督异常值检测。

备注

此实现基于 ExtraTreeRegressor 的集成。每棵树的最大深度设置为 ceil(log_2(n)),其中 \(n\) 是用于构建树的样本数量(更多详细信息请参见 (Liu et al., 2008))。

参考文献

[1]

Liu, Fei Tony, Ting, Kai Ming and Zhou, Zhi-Hua. “Isolation forest.” Data Mining, 2008. ICDM’08. Eighth IEEE International Conference on.

[2]

Liu, Fei Tony, Ting, Kai Ming and Zhou, Zhi-Hua. “Isolation-based anomaly detection.” ACM Transactions on Knowledge Discovery from Data (TKDD) 6.1 (2012): 3.

示例

>>> from sklearn.ensemble import IsolationForest
>>> X = [[-1.1], [0.3], [0.5], [100]]
>>> clf = IsolationForest(random_state=0).fit(X)
>>> clf.predict([[0.1], [0], [90]])
array([ 1,  1, -1])

有关使用孤立森林进行异常值检测的示例,请参见IsolationForest 示例

decision_function(X)[source]#

基础分类器对 X 的平均异常分数。

输入样本的异常分数计算为森林中树的平均异常分数。

给定一棵树的观测值正常性度量是包含该观测值的叶节点的深度,这等同于隔离此点所需的分割次数。如果叶节点中有多个观测值 n_left,则加上 n_left 样本孤立树的平均路径长度。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

输入样本。在内部,它将被转换为 dtype=np.float32,如果提供稀疏矩阵,则转换为稀疏的 csr_matrix

返回:
scores形状为 (n_samples,) 的 ndarray

输入样本的异常分数。分数越低,越异常。负分数表示异常值,正分数表示内部点。

备注

通过设置 joblib 上下文,可以并行化 decision_function 方法。这本身不使用类中初始化的 n_jobs 参数,该参数在 fit 期间使用。这是因为,对于少量样本(例如 1000 个或更少),不进行并行化计算分数实际上可能更快。用户可以在 joblib 上下文中设置作业数量来控制并行作业数量。

from joblib import parallel_backend

# Note, we use threading here as the decision_function method is
# not CPU bound.
with parallel_backend("threading", n_jobs=4):
    model.decision_function(X)
fit(X, y=None, sample_weight=None)[source]#

拟合估计器。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

输入样本。使用 dtype=np.float32 可获得最大效率。稀疏矩阵也受支持,使用稀疏的 csc_matrix 可获得最大效率。

y忽略

未使用,为保持 API 一致性而存在。

sample_weight形状为 (n_samples,) 的 array-like, default=None

样本权重。如果为 None,则样本权重相等。

返回:
selfobject

已拟合的估计器。

fit_predict(X, y=None, **kwargs)[source]#

在 X 上执行拟合并返回 X 的标签。

异常值为 -1,内部点为 1。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

输入样本。

y忽略

未使用,为保持 API 一致性而存在。

**kwargsdict

要传递给 fit 的参数。

版本 1.4 新增。

返回:
y形状为 (n_samples,) 的 ndarray

内部点为 1,异常值为 -1。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查看 用户指南,了解路由机制的工作原理。

版本 1.5 新增。

返回:
routingMetadataRouter

封装路由信息的 MetadataRouter

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deepbool, default=True

如果为 True,将返回此估计器及其包含的子对象(如果它们是估计器)的参数。

返回:
paramsdict

参数名称映射到其值。

predict(X)[source]#

预测特定样本是否为异常值。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

输入样本。在内部,它将被转换为 dtype=np.float32,如果提供稀疏矩阵,则转换为稀疏的 csr_matrix

返回:
is_inlier形状为 (n_samples,) 的 ndarray

对于每个观测值,指示根据拟合模型它是否应被视为内部点(+1 或 -1)。

备注

通过设置 joblib 上下文,可以并行化 predict 方法。这本身不使用类中初始化的 n_jobs 参数,该参数在 fit 期间使用。这是因为,对于少量样本(例如 1000 个或更少),不进行并行化预测实际上可能更快。用户可以在 joblib 上下文中设置作业数量来控制并行作业数量。

from joblib import parallel_backend

# Note, we use threading here as the predict method is not CPU bound.
with parallel_backend("threading", n_jobs=4):
    model.predict(X)
score_samples(X)[source]#

与原始论文中定义的异常分数相反。

输入样本的异常分数计算为森林中树的平均异常分数。

给定一棵树的观测值正常性度量是包含该观测值的叶节点的深度,这等同于隔离此点所需的分割次数。如果叶节点中有多个观测值 n_left,则加上 n_left 样本孤立树的平均路径长度。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

输入样本。

返回:
scores形状为 (n_samples,) 的 ndarray

输入样本的异常分数。分数越低,越异常。

备注

通过设置 joblib 上下文,可以并行化分数函数方法。这本身不使用类中初始化的 n_jobs 参数,该参数在 fit 期间使用。这是因为,对于少量样本(例如 1000 个或更少),不进行并行化计算分数实际上可能更快。用户可以在 joblib 上下文中设置作业数量来控制并行作业数量。

from joblib import parallel_backend

# Note, we use threading here as the score_samples method is not CPU bound.
with parallel_backend("threading", n_jobs=4):
    model.score(X)
set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') IsolationForest[source]#

请求传递给 fit 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时才相关(参见 sklearn.set_config)。请参见用户指南,了解路由机制的工作原理。

每个参数的选项为

  • True: 请求元数据,如果提供则传递给 fit。如果未提供元数据,则忽略请求。

  • False: 不请求元数据,元估计器不会将其传递给 fit

  • None: 不请求元数据,如果用户提供,元估计器将引发错误。

  • str: 元数据应以给定的别名而不是原始名称传递给元估计器。

默认值 (sklearn.utils.metadata_routing.UNCHANGED) 保留现有请求。这允许您更改某些参数的请求而不改变其他参数。

版本 1.3 新增。

注意

此方法仅当此估计器用作元估计器的子估计器时才相关,例如在 Pipeline 内部使用。否则它没有效果。

参数:
sample_weightstr, True, False, 或 None, default=sklearn.utils.metadata_routing.UNCHANGED

fitsample_weight 参数的元数据路由。

返回:
selfobject

更新后的对象。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单的估计器以及嵌套对象(如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,以便可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计器参数。

返回:
self估计器实例

估计器实例。