7.2. 特征提取#

sklearn.feature_extraction 模块可用于从文本和图像等格式的数据集中提取适用于机器学习算法的特征。

注意

特征提取与特征选择非常不同:前者包括将任意数据(如文本或图像)转换为可用于机器学习的数值特征。后者是一种应用于这些特征的机器学习技术。

7.2.1. 从字典加载特征#

DictVectorizer可用于将表示为标准 Python dict 对象列表的特征数组转换为scikit-learn估计器使用的 NumPy/SciPy 表示。

虽然处理速度不是特别快,但 Python 的 dict 具有使用方便、稀疏(无需存储缺失的特征)以及存储特征名称和值的优点。

DictVectorizer 为分类(又称标称、离散)特征实现了所谓的 one-of-K 或“one-hot”编码。分类特征是“属性-值”对,其中值受限于离散可能性的列表且无序(例如,主题标识符、对象类型、标签、名称等)。

在下面,"city" 是一个分类属性,而 "temperature" 是一个传统的数值特征

>>> measurements = [
...     {'city': 'Dubai', 'temperature': 33.},
...     {'city': 'London', 'temperature': 12.},
...     {'city': 'San Francisco', 'temperature': 18.},
... ]

>>> from sklearn.feature_extraction import DictVectorizer
>>> vec = DictVectorizer()

>>> vec.fit_transform(measurements).toarray()
array([[ 1.,  0.,  0., 33.],
       [ 0.,  1.,  0., 12.],
       [ 0.,  0.,  1., 18.]])

>>> vec.get_feature_names_out()
array(['city=Dubai', 'city=London', 'city=San Francisco', 'temperature'], ...)

DictVectorizer 接受一个特征的多个字符串值,例如,一部电影的多个类别。

假设一个数据库使用一些类别(非强制)和发行年份来对每部电影进行分类。

>>> movie_entry = [{'category': ['thriller', 'drama'], 'year': 2003},
...                {'category': ['animation', 'family'], 'year': 2011},
...                {'year': 1974}]
>>> vec.fit_transform(movie_entry).toarray()
array([[0.000e+00, 1.000e+00, 0.000e+00, 1.000e+00, 2.003e+03],
       [1.000e+00, 0.000e+00, 1.000e+00, 0.000e+00, 2.011e+03],
       [0.000e+00, 0.000e+00, 0.000e+00, 0.000e+00, 1.974e+03]])
>>> vec.get_feature_names_out()
array(['category=animation', 'category=drama', 'category=family',
       'category=thriller', 'year'], ...)
>>> vec.transform({'category': ['thriller'],
...                'unseen_feature': '3'}).toarray()
array([[0., 0., 0., 1., 0.]])

DictVectorizer 也是一种有用的表示转换,用于训练自然语言处理模型中的序列分类器,这些模型通常通过围绕感兴趣的特定词汇提取特征窗口来工作。

例如,假设我们有一个首先提取词性(PoS)标签的算法,我们想将这些标签用作训练序列分类器(例如分块器)的补充标签。下面的字典可以是在句子“The cat sat on the mat.”中围绕“sat”一词提取的特征窗口。

>>> pos_window = [
...     {
...         'word-2': 'the',
...         'pos-2': 'DT',
...         'word-1': 'cat',
...         'pos-1': 'NN',
...         'word+1': 'on',
...         'pos+1': 'PP',
...     },
...     # in a real application one would extract many such dictionaries
... ]

这种描述可以被向量化为一个稀疏的二维矩阵,适合输入分类器(可能在输入TfidfTransformer进行标准化之后)。

>>> vec = DictVectorizer()
>>> pos_vectorized = vec.fit_transform(pos_window)
>>> pos_vectorized
<Compressed Sparse...dtype 'float64'
  with 6 stored elements and shape (1, 6)>
>>> pos_vectorized.toarray()
array([[1., 1., 1., 1., 1., 1.]])
>>> vec.get_feature_names_out()
array(['pos+1=PP', 'pos-1=NN', 'pos-2=DT', 'word+1=on', 'word-1=cat',
       'word-2=the'], ...)

正如您所想象的,如果围绕文档语料库中的每个词提取这样的上下文,生成的矩阵将非常宽(许多 one-hot 特征),其中大多数值在大多数时间都为零。为了使生成的数据结构能够适应内存,DictVectorizer 类默认使用 scipy.sparse 矩阵而不是 numpy.ndarray

7.2.2. 特征哈希#

FeatureHasher 是一种高速、低内存的向量化器,它使用一种称为特征哈希或“哈希技巧”的技术。与向量化器在训练中遇到的特征构建哈希表不同,FeatureHasher 的实例直接对特征应用哈希函数来确定它们在样本矩阵中的列索引。结果是提高了速度并减少了内存使用,但代价是可检查性;哈希器不记得输入特征的样子,并且没有 inverse_transform 方法。

由于哈希函数可能导致(不相关)特征之间的冲突,因此使用了有符号的哈希函数,哈希值的符号决定了为特征存储在输出矩阵中的值的符号。这样,冲突更有可能抵消而不是累积误差,并且任何输出特征的值的预期平均值为零。默认情况下,通过 alternate_sign=True 启用此机制,这对于小的哈希表大小(n_features < 10000)特别有用。对于大的哈希表大小,可以禁用它,以允许将输出传递给需要非负输入的估计器,例如 MultinomialNBchi2 特征选择器。

FeatureHasher 接受映射(如 Python 的 dict 及其在 collections 模块中的变体)、(feature, value) 对或字符串,具体取决于构造函数参数 input_type。映射被视为 (feature, value) 对的列表,而单个字符串具有隐式值 1,因此 ['feat1', 'feat2', 'feat3'] 被解释为 [('feat1', 1), ('feat2', 1), ('feat3', 1)]。如果单个特征在样本中出现多次,则相关联的值将被求和(因此 ('feat', 2)('feat', 3.5) 变为 ('feat', 5.5))。FeatureHasher 的输出始终是 CSR 格式的 scipy.sparse 矩阵。

特征哈希可用于文档分类,但与 CountVectorizer 不同,FeatureHasher 不执行分词或任何其他预处理(除了 Unicode 到 UTF-8 编码);请参阅下面的使用哈希技巧对大型文本语料库进行向量化,了解组合的 tokenizer/hasher。

例如,考虑一个需要从 (token, part_of_speech) 对中提取特征的词级自然语言处理任务。可以使用 Python 生成器函数来提取特征

def token_features(token, part_of_speech):
    if token.isdigit():
        yield "numeric"
    else:
        yield "token={}".format(token.lower())
        yield "token,pos={},{}".format(token, part_of_speech)
    if token[0].isupper():
        yield "uppercase_initial"
    if token.isupper():
        yield "all_uppercase"
    yield "pos={}".format(part_of_speech)

然后,要馈送给 FeatureHasher.transformraw_X 可以使用以下方式构建

raw_X = (token_features(tok, pos_tagger(tok)) for tok in corpus)

并馈送给 hasher

hasher = FeatureHasher(input_type='string')
X = hasher.transform(raw_X)

以获得 scipy.sparse 矩阵 X

请注意生成器推导式的使用,它将惰性引入特征提取:令牌仅在 hasher 按需处理时才处理。

实施细节#

FeatureHasher 使用 MurmurHash3 的有符号 32 位变体。因此(并且由于 scipy.sparse 的限制),当前支持的最大特征数是 \(2^{31} - 1\)

Weinberger 等人对哈希技巧的原始表述使用了两个独立的哈希函数 \(h\)\(\xi\) 分别来确定特征的列索引和符号。当前的实现假设 MurmurHash3 的符号位与其其他位无关。

由于使用简单的模运算将哈希函数转换为列索引,建议使用 2 的幂作为 n_features 参数;否则特征将不会均匀地映射到列。

References

References

7.2.3. 文本特征提取#

7.2.3.1. 词袋表示#

文本分析是机器学习算法的主要应用领域。然而,原始数据(符号序列)不能直接馈送给算法本身,因为大多数算法需要固定大小的数值特征向量,而不是可变长度的原始文本文档。

为了解决这个问题,scikit-learn 提供了从文本内容中提取数值特征的最常见方法的实用程序,即

  • 分词字符串并为每个可能的令牌提供一个整数 ID,例如使用空格和标点符号作为令牌分隔符。

  • 计数每个文档中令牌的出现次数。

  • 标准化并加权在大多数样本/文档中出现的令牌,降低其重要性。

在这个方案中,特征和样本定义如下

  • 每个单独令牌出现频率(标准化与否)被视为一个特征

  • 给定文档的所有令牌频率向量被视为一个多变量样本

因此,文档语料库可以由一个矩阵表示,其中每行代表一个文档,每列代表语料库中出现的一个令牌(例如单词)。

我们称将文本文档集合转换为数值特征向量的通用过程为向量化。这种特定策略(分词、计数和标准化)称为词袋或“n-gram 袋”表示。文档通过单词出现来描述,同时完全忽略了单词在文档中的相对位置信息。

7.2.3.2. 稀疏性#

由于大多数文档通常只使用语料库中所有单词的一小部分,因此生成的矩阵将具有许多为零的特征值(通常超过 99%)。

例如,一个包含 10,000 个短文本文档(如电子邮件)的集合总共将使用一个大小约为 100,000 个独特单词的词汇表,而每个文档将单独使用 100 到 1000 个独特单词。

为了能够在内存中存储这样的矩阵并加快矩阵/向量的代数运算,实现通常使用稀疏表示,例如 scipy.sparse 包中可用的实现。

7.2.3.3. 常见的向量化器用法#

CountVectorizer 在一个类中实现了分词和出现计数

>>> from sklearn.feature_extraction.text import CountVectorizer

该模型有许多参数,但默认值相当合理(有关详细信息,请参阅参考文档)。

>>> vectorizer = CountVectorizer()
>>> vectorizer
CountVectorizer()

让我们使用它来对一个最小化的文本文档语料库进行分词和词频计数

>>> corpus = [
...     'This is the first document.',
...     'This is the second second document.',
...     'And the third one.',
...     'Is this the first document?',
... ]
>>> X = vectorizer.fit_transform(corpus)
>>> X
<Compressed Sparse...dtype 'int64'
  with 19 stored elements and shape (4, 9)>

默认配置通过提取至少 2 个字母的单词来对字符串进行分词。可以显式请求执行此步骤的特定函数

>>> analyze = vectorizer.build_analyzer()
>>> analyze("This is a text document to analyze.") == (
...     ['this', 'is', 'text', 'document', 'to', 'analyze'])
True

分析器在拟合期间找到的每个术语都被分配一个唯一的整数索引,对应于结果矩阵中的一列。可以按如下方式检索对列的这种解释

>>> vectorizer.get_feature_names_out()
array(['and', 'document', 'first', 'is', 'one', 'second', 'the',
       'third', 'this'], ...)

>>> X.toarray()
array([[0, 1, 1, 1, 0, 0, 1, 0, 1],
       [0, 1, 0, 1, 0, 2, 1, 0, 1],
       [1, 0, 0, 0, 1, 0, 1, 1, 0],
       [0, 1, 1, 1, 0, 0, 1, 0, 1]]...)

从特征名称到列索引的相反映射存储在向量化器的 vocabulary_ 属性中

>>> vectorizer.vocabulary_.get('document')
1

因此,在训练语料库中未见过的单词将在未来调用 transform 方法时被完全忽略

>>> vectorizer.transform(['Something completely new.']).toarray()
array([[0, 0, 0, 0, 0, 0, 0, 0, 0]]...)

请注意,在前面的语料库中,第一个文档和最后一个文档具有完全相同的单词,因此被编码为相等的向量。特别是,我们丢失了最后一个文档是疑问形式的信息。为了保留一些局部排序信息,我们可以除了 1-gram(单个单词)之外,还提取单词的 2-gram

>>> bigram_vectorizer = CountVectorizer(ngram_range=(1, 2),
...                                     token_pattern=r'\b\w+\b', min_df=1)
>>> analyze = bigram_vectorizer.build_analyzer()
>>> analyze('Bi-grams are cool!') == (
...     ['bi', 'grams', 'are', 'cool', 'bi grams', 'grams are', 'are cool'])
True

因此,这个向量化器提取的词汇表要大得多,现在可以解决编码在局部位置模式中的歧义

>>> X_2 = bigram_vectorizer.fit_transform(corpus).toarray()
>>> X_2
array([[0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 1, 1, 0],
       [0, 0, 1, 0, 0, 1, 1, 0, 0, 2, 1, 1, 1, 0, 1, 0, 0, 0, 1, 1, 0],
       [1, 1, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 1, 0, 0, 1, 1, 1, 0, 0, 0],
       [0, 0, 1, 1, 1, 1, 0, 1, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 1, 0, 1]]...)

特别是疑问形式“Is this”只存在于最后一个文档中

>>> feature_index = bigram_vectorizer.vocabulary_.get('is this')
>>> X_2[:, feature_index]
array([0, 0, 0, 1]...)

7.2.3.4. 使用停用词#

停用词是像“and”、“the”、“him”这样的词,它们被认为在表示文本内容方面没有信息量,并且可以被删除以避免它们被解释为对预测有信息量。然而,有时类似的词对预测有用,例如在对写作风格或个性进行分类时。

我们提供的“english”停用词列表中存在几个已知问题。它不旨在成为通用的“一刀切”解决方案,因为某些任务可能需要更自定义的解决方案。有关详细信息,请参阅[NQY18]

在选择停用词列表时请务必小心。流行的停用词列表可能包含对某些任务非常有信息量的词,例如 computer

您还应该确保停用词列表已经应用了与向量化器中使用的相同的预处理和分词。词 we’ve 被 CountVectorizer 的默认 tokenizer 分成 weve,所以如果 we’vestop_words 中,但 ve 不在,则 ve 将从 we’ve 中保留在转换后的文本中。我们的向量化器将尝试识别并警告某些类型的不一致性。

References

[NQY18]

J. Nothman, H. Qin and R. Yurchak (2018). “Stop Word Lists in Free Open-source Software Packages”. In Proc. Workshop for NLP Open Source Software.

7.2.3.5. Tf–idf 术语加权#

在大型文本语料库中,某些词会非常常见(例如,英语中的“the”、“a”、“is”),因此对文档的实际内容几乎没有有意义的信息。如果我们将直接计数数据直接馈送给分类器,那些非常频繁的术语会掩盖较稀有但更有趣的术语的频率。

为了将计数特征重新加权为适合分类器使用的浮点值,使用 tf–idf 转换非常普遍。

Tf 代表术语频率(term-frequency),而 tf–idf 代表术语频率乘以逆文档频率(inverse document-frequency):\(\text{tf-idf(t,d)}=\text{tf(t,d)} \times \text{idf(t)}\)

使用 TfidfTransformer 的默认设置,TfidfTransformer(norm='l2', use_idf=True, smooth_idf=True, sublinear_tf=False),术语频率(给定文档中术语出现的次数)乘以 idf 分量,idf 分量计算如下

\(\text{idf}(t) = \log{\frac{1 + n}{1+\text{df}(t)}} + 1\),

其中 \(n\) 是文档集中的文档总数,\(\text{df}(t)\) 是包含术语 \(t\) 的文档数量。然后通过欧几里得范数对得到的 tf-idf 向量进行标准化

\(v_{norm} = \frac{v}{||v||_2} = \frac{v}{\sqrt{v{_1}^2 + v{_2}^2 + \dots + v{_n}^2}}\).

这最初是一种为信息检索(作为搜索引擎结果的排名函数)开发的术语加权方案,在文档分类和聚类中也得到了很好的应用。

以下部分包含进一步的解释和示例,说明 tf-idfs 是如何精确计算的,以及 scikit-learn 的 TfidfTransformerTfidfVectorizer 中计算的 tf-idfs 与定义 idf 的标准教科书符号略有不同

\(\text{idf}(t) = \log{\frac{n}{1+\text{df}(t)}}.\)

TfidfTransformerTfidfVectorizer 中,当 smooth_idf=False 时,将“1”添加到 idf 而不是 idf 的分母中

\(\text{idf}(t) = \log{\frac{n}{\text{df}(t)}} + 1\)

这种标准化由 TfidfTransformer 类实现

>>> from sklearn.feature_extraction.text import TfidfTransformer
>>> transformer = TfidfTransformer(smooth_idf=False)
>>> transformer
TfidfTransformer(smooth_idf=False)

再次请参阅参考文档以获取所有参数的详细信息。

tf-idf 矩阵的数值示例#

让我们以以下计数为例。第一个术语在 100% 的时间里出现,因此不是很重要。另外两个特征只在不到 50% 的时间里出现,因此可能更能代表文档的内容

>>> counts = [[3, 0, 1],
...           [2, 0, 0],
...           [3, 0, 0],
...           [4, 0, 0],
...           [3, 2, 0],
...           [3, 0, 2]]
...
>>> tfidf = transformer.fit_transform(counts)
>>> tfidf
<Compressed Sparse...dtype 'float64'
  with 9 stored elements and shape (6, 3)>

>>> tfidf.toarray()
array([[0.81940995, 0.        , 0.57320793],
      [1.        , 0.        , 0.        ],
      [1.        , 0.        , 0.        ],
      [1.        , 0.        , 0.        ],
      [0.47330339, 0.88089948, 0.        ],
      [0.58149261, 0.        , 0.81355169]])

每行都被标准化为具有单位欧几里得范数

\(v_{norm} = \frac{v}{||v||_2} = \frac{v}{\sqrt{v{_1}^2 + v{_2}^2 + \dots + v{_n}^2}}\)

例如,我们可以按如下方式计算 counts 数组中第一个文档中第一个术语的 tf-idf

\(n = 6\)

\(\text{df}(t)_{\text{term1}} = 6\)

\(\text{idf}(t)_{\text{term1}} = \log \frac{n}{\text{df}(t)} + 1 = \log(1)+1 = 1\)

\(\text{tf-idf}_{\text{term1}} = \text{tf} \times \text{idf} = 3 \times 1 = 3\)

现在,如果我们对文档中的其余 2 个术语重复此计算,我们得到

\(\text{tf-idf}_{\text{term2}} = 0 \times (\log(6/1)+1) = 0\)

\(\text{tf-idf}_{\text{term3}} = 1 \times (\log(6/2)+1) \approx 2.0986\)

和原始 tf-idfs 向量

\(\text{tf-idf}_{\text{raw}} = [3, 0, 2.0986].\)

然后,应用欧几里得 (L2) 范数,我们得到文档 1 的以下 tf-idfs

\(\frac{[3, 0, 2.0986]}{\sqrt{\big(3^2 + 0^2 + 2.0986^2\big)}} = [ 0.819, 0, 0.573].\)

此外,默认参数 smooth_idf=True 会在分子和分母中添加“1”,就好像看到了一个包含集合中每个术语恰好一次的额外文档,这可以防止零除法

\(\text{idf}(t) = \log{\frac{1 + n}{1+\text{df}(t)}} + 1\)

使用此修改,文档 1 中第三个术语的 tf-idf 变为 1.8473

\(\text{tf-idf}_{\text{term3}} = 1 \times \log(7/3)+1 \approx 1.8473\)

L2-标准化 tf-idf 更改为

\(\frac{[3, 0, 1.8473]}{\sqrt{\big(3^2 + 0^2 + 1.8473^2\big)}} = [0.8515, 0, 0.5243]\):

>>> transformer = TfidfTransformer()
>>> transformer.fit_transform(counts).toarray()
array([[0.85151335, 0.        , 0.52433293],
      [1.        , 0.        , 0.        ],
      [1.        , 0.        , 0.        ],
      [1.        , 0.        , 0.        ],
      [0.55422893, 0.83236428, 0.        ],
      [0.63035731, 0.        , 0.77630514]])

通过 fit 方法调用计算出的每个特征的权重存储在模型属性中

>>> transformer.idf_
array([1., 2.25, 1.84])

由于 tf-idf 经常用于文本特征,因此还有另一个名为 TfidfVectorizer 的类,它将 CountVectorizerTfidfTransformer 的所有选项组合在一个模型中

>>> from sklearn.feature_extraction.text import TfidfVectorizer
>>> vectorizer = TfidfVectorizer()
>>> vectorizer.fit_transform(corpus)
<Compressed Sparse...dtype 'float64'
  with 19 stored elements and shape (4, 9)>

虽然 tf-idf 标准化通常非常有用,但在某些情况下,二进制出现标记可能提供更好的特征。这可以通过使用 CountVectorizerbinary 参数来实现。特别是,一些估计器,如伯努利朴素贝叶斯,明确地建模离散布尔随机变量。此外,非常短的文本可能具有嘈杂的 tf-idf 值,而二进制出现信息更稳定。

像往常一样,调整特征提取参数的最佳方法是使用交叉验证网格搜索,例如通过将特征提取器与分类器进行管道连接

示例

7.2.3.6. 解码文本文件#

文本由字符组成,但文件由字节组成。这些字节根据某种编码表示字符。要在 Python 中处理文本文件,必须将其字节解码为称为 Unicode 的字符集。常见的编码是 ASCII、Latin-1(西欧)、KOI8-R(俄语)以及通用编码 UTF-8 和 UTF-16。还有许多其他编码。

注意

编码也可以称为“字符集”,但这个术语不太准确:单个字符集可以存在多种编码。

scikit-learn 中的文本特征提取器知道如何解码文本文件,但前提是您告诉它们文件采用什么编码。 CountVectorizer 为此目的接受一个 encoding 参数。对于现代文本文件,正确的编码可能是 UTF-8,因此它是默认值(encoding="utf-8")。

但是,如果您加载的文本实际上不是用 UTF-8 编码的,您将收到一个 UnicodeDecodeError。可以通过将 decode_error 参数设置为 "ignore""replace" 来告诉向量化器忽略解码错误。有关详细信息,请参阅 Python 函数 bytes.decode 的文档(在 Python 提示符下键入 help(bytes.decode))。

解码文本故障排除#

如果您在解码文本时遇到问题,可以尝试以下方法

  • 找出文本的实际编码。文件可能附带一个标题或 README 文件说明编码,或者可能有一些基于文本来源的标准编码可以假定。

  • 您可以使用 UNIX 命令 file 找出它通常是什么类型的编码。Python chardet 模块附带一个名为 chardetect.py 的脚本,它会猜测特定的编码,尽管您不能依赖其猜测的准确性。

  • 您可以尝试 UTF-8 并忽略错误。您可以使用 bytes.decode(errors='replace') 解码字节字符串,将所有解码错误替换为无意义的字符,或者在向量化器中设置 decode_error='replace'。这可能会损害特征的有用性。

  • 真实的文本可能来自各种来源,可能使用了不同的编码,甚至可能以与编码时不同的编码草率地解码。这在从 Web 检索的文本中很常见。Python 包 ftfy 可以自动整理某些类别的解码错误,因此您可以尝试将未知文本解码为 latin-1,然后使用 ftfy 修复错误。

  • 如果文本是编码的混杂体,根本太难整理(20 Newsgroups 数据集就是这种情况),您可以退回到简单的单字节编码,例如 latin-1。某些文本可能显示不正确,但至少相同的字节序列将始终表示相同的特征。

例如,以下代码片段使用 chardet(未随 scikit-learn 提供,必须单独安装)来找出三个文本的编码。然后它对文本进行向量化并打印学习到的词汇表。输出未在此处显示。

>>> import chardet
>>> text1 = b"Sei mir gegr\xc3\xbc\xc3\x9ft mein Sauerkraut"
>>> text2 = b"holdselig sind deine Ger\xfcche"
>>> text3 = b"\xff\xfeA\x00u\x00f\x00 \x00F\x00l\x00\xfc\x00g\x00e\x00l\x00n\x00 \x00d\x00e\x00s\x00 \x00G\x00e\x00s\x00a\x00n\x00g\x00e\x00s\x00,\x00 \x00H\x00e\x00r\x00z\x00l\x00i\x00e\x00b\x00c\x00h\x00e\x00n\x00,\x00 \x00t\x00r\x00a\x00g\x00 \x00i\x00c\x00h\x00 \x00d\x00i\x00c\x00h\x00 \x00f\x00o\x00r\x00t\x00"
>>> decoded = [x.decode(chardet.detect(x)['encoding'])
...            for x in (text1, text2, text3)]
>>> v = CountVectorizer().fit(decoded).vocabulary_
>>> for term in v: print(v)

(取决于 chardet 的版本,它可能会搞错第一个。)

有关 Unicode 和字符编码的入门介绍,请参阅 Joel Spolsky 的每个软件开发人员都必须知道的关于 Unicode 的绝对最低限度

7.2.3.7. 应用和示例#

词袋表示非常简单,但在实践中出奇地有用。

特别是在监督学习设置中,它可以与快速且可扩展的线性模型成功结合使用,以训练文档分类器,例如

无监督学习设置中,它可用于通过应用聚类算法(例如K-means)将相似文档分组在一起

最后,可以通过放宽聚类的硬分配约束来发现语料库的主要主题,例如使用非负矩阵分解 (NMF or NNMF)

7.2.3.8. 词袋表示的局限性#

单字母组合(即词袋)的集合无法捕获短语和多词表达,有效地忽略了任何词序依赖性。此外,词袋模型不考虑潜在的拼写错误或词形变化。

N-gram 来拯救!与其构建一个简单的单字母组合 (n=1) 集合,不如选择一个双字母组合 (n=2) 集合,其中计算连续单词对的出现次数。

或者可以考虑一个字符 n-gram 集合,这是一种对拼写错误和词形变化具有弹性的表示。

例如,假设我们正在处理一个包含两个文档的语料库:['words', 'wprds']。第二个文档包含单词“words”的拼写错误。一个简单的词袋表示会将这两个文档视为非常不同的文档,在两个可能的特征上都不同。然而,字符 2-gram 表示会发现文档在 8 个特征中有 4 个匹配,这可能有助于首选分类器更好地做出决定

>>> ngram_vectorizer = CountVectorizer(analyzer='char_wb', ngram_range=(2, 2))
>>> counts = ngram_vectorizer.fit_transform(['words', 'wprds'])
>>> ngram_vectorizer.get_feature_names_out()
array([' w', 'ds', 'or', 'pr', 'rd', 's ', 'wo', 'wp'], ...)
>>> counts.toarray().astype(int)
array([[1, 1, 1, 0, 1, 1, 1, 0],
       [1, 1, 0, 1, 1, 1, 0, 1]])

在上面的示例中,使用了 char_wb 分析器,它仅从单词边界内的字符创建 n-gram(每侧用空格填充)。char 分析器则创建跨越单词的 n-gram

>>> ngram_vectorizer = CountVectorizer(analyzer='char_wb', ngram_range=(5, 5))
>>> ngram_vectorizer.fit_transform(['jumpy fox'])
<Compressed Sparse...dtype 'int64'
  with 4 stored elements and shape (1, 4)>

>>> ngram_vectorizer.get_feature_names_out()
array([' fox ', ' jump', 'jumpy', 'umpy '], ...)

>>> ngram_vectorizer = CountVectorizer(analyzer='char', ngram_range=(5, 5))
>>> ngram_vectorizer.fit_transform(['jumpy fox'])
<Compressed Sparse...dtype 'int64'
  with 5 stored elements and shape (1, 5)>
>>> ngram_vectorizer.get_feature_names_out()
array(['jumpy', 'mpy f', 'py fo', 'umpy ', 'y fox'], ...)

单词边界感知变体 char_wb 对于使用空格进行单词分隔的语言特别有趣,因为它在这种情况下生成的噪声特征明显少于原始 char 变体。对于此类语言,它可以提高使用此类特征训练的分类器的预测准确性和收敛速度,同时保持对拼写错误和词形变化的鲁棒性。

虽然可以通过提取 n-gram 而不是单个单词来保留一些局部位置信息,但词袋和 n-gram 袋破坏了文档的大部分内部结构,因此也破坏了该内部结构所承载的大部分含义。

为了解决更广泛的自然语言理解任务,因此应考虑句子和段落的局部结构。因此,许多此类模型将被归类为“结构化输出”问题,目前超出了 scikit-learn 的范围。

7.2.3.9. 使用哈希技巧对大型文本语料库进行向量化#

上述向量化方案很简单,但它保持了从字符串令牌到整数特征索引的内存中映射vocabulary_ 属性)这一事实在处理大型数据集时会导致几个问题

  • 语料库越大,词汇表增长得越快,内存使用量也越大,

  • 拟合需要分配与原始数据集大小成比例的中间数据结构。

  • 构建单词映射需要对数据集进行完整的遍历,因此无法以严格的在线方式拟合文本分类器。

  • 对具有大 vocabulary_ 的向量化器进行 pickle 和 un-pickle 可能非常慢(通常比 pickle/un-pickle 平面数据结构(例如相同大小的 NumPy 数组)慢得多),

  • 无法轻易将向量化工作拆分为并发子任务,因为 vocabulary_ 属性必须是具有精细粒度同步屏障的共享状态:从令牌字符串到特征索引的映射取决于每个令牌第一次出现的顺序,因此必须共享,这可能会损害并发 worker 的性能,使其比顺序变体慢。

可以通过将 特征哈希 实现的“哈希技巧”(由 FeatureHasher 类实现)与 CountVectorizer 的文本预处理和分词功能相结合来克服这些限制。

这种组合在 HashingVectorizer 中实现,这是一个转换器类,其 API 与 CountVectorizer 大部分兼容。 HashingVectorizer 是无状态的,这意味着您不必在其上调用 fit

>>> from sklearn.feature_extraction.text import HashingVectorizer
>>> hv = HashingVectorizer(n_features=10)
>>> hv.transform(corpus)
<Compressed Sparse...dtype 'float64'
  with 16 stored elements and shape (4, 10)>

您可以看到在向量输出中提取了 16 个非零特征令牌:这少于之前由 CountVectorizer 在同一玩具语料库上提取的 19 个非零特征。这种差异来自哈希函数冲突,因为 n_features 参数值较低。

在现实世界中,n_features 参数可以保留其默认值 2 ** 20(大约一百万个可能的特征)。如果内存或下游模型大小是一个问题,选择较低的值(例如 2 ** 18)可能会有所帮助,而不会在典型的文本分类任务上引入太多额外的冲突。

请注意,维度不会影响对 CSR 矩阵操作的算法的 CPU 训练时间(LinearSVC(dual=True)PerceptronSGDClassifier),但会影响对 CSC 矩阵操作的算法(LinearSVC(dual=False)Lasso() 等)。

让我们再次尝试使用默认设置

>>> hv = HashingVectorizer()
>>> hv.transform(corpus)
<Compressed Sparse...dtype 'float64'
  with 19 stored elements and shape (4, 1048576)>

我们不再发生冲突,但这以输出空间维度大得多为代价。当然,除了这里使用的 19 个术语之外,其他术语仍可能相互冲突。

HashingVectorizer 也有以下局限性

  • 不可能反转模型(没有 inverse_transform 方法),也无法访问特征的原始字符串表示形式,因为执行映射的哈希函数具有单向性。

  • 它不提供 IDF 加权,因为这会引入模型中的状态。如果需要,可以在管道中附加一个 TfidfTransformer

使用 HashingVectorizer 执行核外缩放#

使用 HashingVectorizer 的一个有趣发展是能够执行核外缩放。这意味着我们可以从无法放入计算机主内存的数据中学习。

实现核外缩放的一种策略是以小批量流式传输数据给估计器。每个小批量都使用 HashingVectorizer 进行向量化,以确保估计器的输入空间始终具有相同的维度。因此,任何时候使用的内存量都受限于小批量的大小。尽管使用这种方法可以摄取的数据量没有限制,但从实际角度来看,学习时间通常受到人们希望花在任务上的 CPU 时间的限制。

有关文本分类任务中核外缩放的完整示例,请参阅文本文档的核外分类

7.2.3.10. 自定义向量化器类#

可以通过将可调用对象传递给向量化器构造函数来自定义行为

>>> def my_tokenizer(s):
...     return s.split()
...
>>> vectorizer = CountVectorizer(tokenizer=my_tokenizer)
>>> vectorizer.build_analyzer()(u"Some... punctuation!") == (
...     ['some...', 'punctuation!'])
True

特别是我们命名

  • preprocessor:一个可调用对象,它将整个文档作为输入(作为单个字符串),并返回文档的可能转换版本,仍然作为整个字符串。这可用于删除 HTML 标签、将整个文档转换为小写等。

  • tokenizer:一个可调用对象,它接受预处理器的输出并将其拆分为令牌,然后返回这些令牌的列表。

  • analyzer:一个可调用对象,它取代预处理器和分词器。默认分析器都调用预处理器和分词器,但自定义分析器将跳过此操作。N-gram 提取和停用词过滤发生在分析器级别,因此自定义分析器可能需要重现这些步骤。

(Lucene 用户可能认识这些名称,但请注意 scikit-learn 概念可能无法与 Lucene 概念一一对应。)

为了使预处理器、分词器和分析器了解模型参数,可以从类派生并覆盖 build_preprocessorbuild_tokenizerbuild_analyzer 工厂方法,而不是传递自定义函数。

提示和技巧#
  • 如果文档由外部包预分词,则将它们存储在以空格分隔令牌的文件(或字符串)中,并传递 analyzer=str.split

  • 花哨的令牌级分析,例如词干提取、词形还原、复合词拆分、基于词性的过滤等,不包含在 scikit-learn 代码库中,但可以通过自定义分词器或分析器来添加。这是一个使用 NLTK 的带有分词器和词形还原器的 CountVectorizer

    >>> from nltk import word_tokenize
    >>> from nltk.stem import WordNetLemmatizer
    >>> class LemmaTokenizer:
    ...     def __init__(self):
    ...         self.wnl = WordNetLemmatizer()
    ...     def __call__(self, doc):
    ...         return [self.wnl.lemmatize(t) for t in word_tokenize(doc)]
    ...
    >>> vect = CountVectorizer(tokenizer=LemmaTokenizer())
    

    (请注意,这不会过滤掉标点符号。)

    例如,以下示例将一些英式拼写转换为美式拼写

    >>> import re
    >>> def to_british(tokens):
    ...     for t in tokens:
    ...         t = re.sub(r"(...)our$", r"\1or", t)
    ...         t = re.sub(r"([bt])re$", r"\1er", t)
    ...         t = re.sub(r"([iy])s(e$|ing|ation)", r"\1z\2", t)
    ...         t = re.sub(r"ogue$", "og", t)
    ...         yield t
    ...
    >>> class CustomVectorizer(CountVectorizer):
    ...     def build_tokenizer(self):
    ...         tokenize = super().build_tokenizer()
    ...         return lambda doc: list(to_british(tokenize(doc)))
    ...
    >>> print(CustomVectorizer().build_analyzer()(u"color colour"))
    [...'color', ...'color']
    

    对于其他类型的预处理;示例包括词干提取、词形还原或标准化数值令牌,后者在下面说明

在处理不使用显式单词分隔符(例如空格)的亚洲语言时,自定义向量化器也很有用。

7.2.4. 图像特征提取#

7.2.4.1. 补丁提取#

函数 extract_patches_2d 从存储为二维数组的图像中提取补丁,如果包含颜色信息,则从三维数组中提取。要从所有补丁重建图像,请使用 reconstruct_from_patches_2d。例如,让我们生成一个具有 3 个颜色通道(例如 RGB 格式)的 4x4 像素图像

>>> import numpy as np
>>> from sklearn.feature_extraction import image

>>> one_image = np.arange(4 * 4 * 3).reshape((4, 4, 3))
>>> one_image[:, :, 0]  # R channel of a fake RGB picture
array([[ 0,  3,  6,  9],
       [12, 15, 18, 21],
       [24, 27, 30, 33],
       [36, 39, 42, 45]])

>>> patches = image.extract_patches_2d(one_image, (2, 2), max_patches=2,
...     random_state=0)
>>> patches.shape
(2, 2, 2, 3)
>>> patches[:, :, :, 0]
array([[[ 0,  3],
        [12, 15]],

       [[15, 18],
        [27, 30]]])
>>> patches = image.extract_patches_2d(one_image, (2, 2))
>>> patches.shape
(9, 2, 2, 3)
>>> patches[4, :, :, 0]
array([[15, 18],
       [27, 30]])

现在让我们尝试通过平均重叠区域从补丁重建原始图像

>>> reconstructed = image.reconstruct_from_patches_2d(patches, (4, 4, 3))
>>> np.testing.assert_array_equal(one_image, reconstructed)

PatchExtractor 类的工作方式与 extract_patches_2d 相同,只是它支持将多个图像作为输入。它实现为 scikit-learn 转换器,因此可以在管道中使用。请参阅

>>> five_images = np.arange(5 * 4 * 4 * 3).reshape(5, 4, 4, 3)
>>> patches = image.PatchExtractor(patch_size=(2, 2)).transform(five_images)
>>> patches.shape
(45, 2, 2, 3)

7.2.4.2. 图像的连通性图#

scikit-learn 中的几个估计器可以使用特征或样本之间的连通性信息。例如,Ward 聚类 (层次聚类) 可以仅将图像的相邻像素聚类在一起,从而形成连续的补丁

../_images/sphx_glr_plot_coin_ward_segmentation_001.png

为此,估计器使用“连通性”矩阵,给出哪些样本是连接的。

函数 img_to_graph 从 2D 或 3D 图像返回这样一个矩阵。类似地,grid_to_graph 为给定图像形状的图像构建连通性矩阵。

这些矩阵可用于在需要连通性信息的估计器中强制执行连通性,例如 Ward 聚类 (层次聚类),也可用于构建预计算的内核或相似性矩阵。