7.2. 特征提取#

sklearn.feature_extraction 模块可用于从文本和图像等格式的数据集中,提取机器学习算法支持的特征。

注意

特征提取与特征选择非常不同:前者是将任意数据(如文本或图像)转换为可用于机器学习的数值特征。后者是应用于这些特征的机器学习技术。

7.2.1. 从字典加载特征#

DictVectorizer可用于将表示为标准Python dict 对象列表的特征数组转换为scikit-learn估计器使用的NumPy/SciPy表示。

虽然处理速度不是特别快,但Python的dict具有使用方便、稀疏(无需存储不存在的特征)以及除值外还存储特征名称的优点。

DictVectorizer为分类(也称为名义型、离散型)特征实现了所谓的一对K或“one-hot”编码。分类特征是“属性-值”对,其中值受限于离散可能性的列表,且无序(例如主题标识符、对象类型、标签、名称……)。

在下文中,“city”是分类属性,而“temperature”是传统的数值特征

>>> measurements = [
...     {'city': 'Dubai', 'temperature': 33.},
...     {'city': 'London', 'temperature': 12.},
...     {'city': 'San Francisco', 'temperature': 18.},
... ]

>>> from sklearn.feature_extraction import DictVectorizer
>>> vec = DictVectorizer()

>>> vec.fit_transform(measurements).toarray()
array([[ 1.,  0.,  0., 33.],
       [ 0.,  1.,  0., 12.],
       [ 0.,  0.,  1., 18.]])

>>> vec.get_feature_names_out()
array(['city=Dubai', 'city=London', 'city=San Francisco', 'temperature'], ...)

DictVectorizer接受一个特征的多个字符串值,例如,一部电影的多个类别。

假设一个数据库使用一些类别(非强制)和发行年份对每部电影进行分类。

>>> movie_entry = [{'category': ['thriller', 'drama'], 'year': 2003},
...                {'category': ['animation', 'family'], 'year': 2011},
...                {'year': 1974}]
>>> vec.fit_transform(movie_entry).toarray()
array([[0.000e+00, 1.000e+00, 0.000e+00, 1.000e+00, 2.003e+03],
       [1.000e+00, 0.000e+00, 1.000e+00, 0.000e+00, 2.011e+03],
       [0.000e+00, 0.000e+00, 0.000e+00, 0.000e+00, 1.974e+03]])
>>> vec.get_feature_names_out()
array(['category=animation', 'category=drama', 'category=family',
       'category=thriller', 'year'], ...)
>>> vec.transform({'category': ['thriller'],
...                'unseen_feature': '3'}).toarray()
array([[0., 0., 0., 1., 0.]])

DictVectorizer也是一种有用的表示转换,用于训练自然语言处理模型中的序列分类器,这些模型通常通过提取特定感兴趣词周围的特征窗口来工作。

例如,假设我们有一个第一个算法提取词性(PoS)标签,我们希望将其用作训练序列分类器(例如分块器)的补充标签。下面的字典可能是句子“The cat sat on the mat.”中围绕单词“sat”提取的特征窗口。

>>> pos_window = [
...     {
...         'word-2': 'the',
...         'pos-2': 'DT',
...         'word-1': 'cat',
...         'pos-1': 'NN',
...         'word+1': 'on',
...         'pos+1': 'PP',
...     },
...     # in a real application one would extract many such dictionaries
... ]

这个描述可以被向量化成一个稀疏的二维矩阵,适合输入分类器(可能在通过TfidfTransformer进行标准化之后)

>>> vec = DictVectorizer()
>>> pos_vectorized = vec.fit_transform(pos_window)
>>> pos_vectorized
<Compressed Sparse...dtype 'float64'
  with 6 stored elements and shape (1, 6)>
>>> pos_vectorized.toarray()
array([[1., 1., 1., 1., 1., 1.]])
>>> vec.get_feature_names_out()
array(['pos+1=PP', 'pos-1=NN', 'pos-2=DT', 'word+1=on', 'word-1=cat',
       'word-2=the'], ...)

正如您所能想象的,如果从语料库中每个文档的每个单词周围提取这样的上下文,结果矩阵将非常宽(许多one-hot特征),其中大部分时间它们的值都为零。为了使结果数据结构能够适应内存,DictVectorizer类默认使用scipy.sparse矩阵而不是numpy.ndarray

7.2.2. 特征哈希#

FeatureHasher是一个高速、低内存的向量化器,它使用一种称为特征哈希或“哈希技巧”的技术。与向量化器在训练中构建遇到的特征的哈希表不同,FeatureHasher的实例直接将哈希函数应用于特征,以确定它们在样本矩阵中的列索引。结果是提高了速度并减少了内存使用,但牺牲了可检查性;哈希器不记得输入特征是什么样子,并且没有inverse_transform方法。

由于哈希函数可能导致(不相关)特征之间的冲突,因此使用有符号哈希函数,并且哈希值的符号决定了特征在输出矩阵中存储值的符号。这样,冲突更有可能相互抵消而不是累积误差,并且任何输出特征值的预期平均值都为零。此机制默认启用alternate_sign=True,并且对于小哈希表大小(n_features < 10000)特别有用。对于大哈希表大小,可以禁用它,以便可以将输出传递给诸如MultinomialNBchi2特征选择器等需要非负输入的估计器。

FeatureHasher接受映射(如Python的dict及其在collections模块中的变体)、(feature, value)对或字符串,具体取决于构造函数参数input_type。映射被视为(feature, value)对的列表,而单个字符串具有隐式值1,因此['feat1', 'feat2', 'feat3']被解释为[('feat1', 1), ('feat2', 1), ('feat3', 1)]。如果一个特征在样本中多次出现,则关联的值将被求和(因此('feat', 2)('feat', 3.5)变为('feat', 5.5))。FeatureHasher的输出始终是CSR格式的scipy.sparse矩阵。

特征哈希可用于文档分类,但与CountVectorizer不同,FeatureHasher不进行分词或除Unicode到UTF-8编码外的任何其他预处理;有关组合分词器/哈希器的信息,请参阅下面的使用哈希技巧对大型文本语料库进行向量化

举例来说,考虑一个需要从(token, part_of_speech)对中提取特征的词级自然语言处理任务。可以使用Python生成器函数来提取特征

def token_features(token, part_of_speech):
    if token.isdigit():
        yield "numeric"
    else:
        yield "token={}".format(token.lower())
        yield "token,pos={},{}".format(token, part_of_speech)
    if token[0].isupper():
        yield "uppercase_initial"
    if token.isupper():
        yield "all_uppercase"
    yield "pos={}".format(part_of_speech)

然后,要馈送给FeatureHasher.transformraw_X可以使用以下方式构建

raw_X = (token_features(tok, pos_tagger(tok)) for tok in corpus)

并将其馈送给哈希器,以获取scipy.sparse矩阵X

hasher = FeatureHasher(input_type='string')
X = hasher.transform(raw_X)

以获取一个 scipy.sparse 矩阵 X

请注意生成器表达式的使用,这使得特征提取变得惰性:只有当哈希器需要时,令牌才会被处理。

实现细节#

FeatureHasher使用MurmurHash3的带符号32位变体。因此(以及由于scipy.sparse的限制),目前支持的最大特征数量为\(2^{31} - 1\)

Weinberger 等人提出的哈希技巧的原始公式使用两个独立的哈希函数 \(h\)\(\xi\) 分别确定特征的列索引和符号。本实现假设 MurmurHash3 的符号位与其其他位无关。

由于使用简单的模运算将哈希函数转换为列索引,建议使用2的幂作为n_features参数;否则特征将不会均匀地映射到列。

参考文献

参考文献

7.2.3. 文本特征提取#

7.2.3.1. 词袋表示#

文本分析是机器学习算法的一个主要应用领域。然而,原始数据(一系列符号)不能直接馈送给算法本身,因为大多数算法期望固定大小的数值特征向量而不是可变长度的原始文本文档。

为了解决这个问题,scikit-learn提供了从文本内容中提取数值特征的常用实用工具,即

  • 分词 字符串并为每个可能的词元分配一个整数ID,例如通过使用空格和标点符号作为词元分隔符。

  • 计数 每个文档中词元的出现次数。

  • 标准化 并通过降低在大多数样本/文档中出现的词元的重要性来加权。

在这种方案中,特征和样本定义如下

  • 每个独立词元出现频率(标准化或不标准化)被视为一个特征

  • 给定文档的所有词元频率向量被视为一个多变量样本

因此,文档语料库可以用一个矩阵表示,每行代表一个文档,每列代表语料库中出现的一个词元(例如单词)。

我们将向量化称为将文本文档集合转换为数值特征向量的一般过程。这种特定策略(分词、计数和标准化)被称为词袋(Bag of Words)或“n-gram袋”表示。文档通过词语出现来描述,同时完全忽略文档中词语的相对位置信息。

7.2.3.2. 稀疏性#

由于大多数文档通常只使用语料库中词汇的一小部分,因此生成的矩阵将包含许多值为零的特征值(通常超过99%)。

例如,一个包含10,000个短文本文档(如电子邮件)的集合将使用一个词汇量约100,000个唯一词的词汇表,而每个文档将单独使用100到1000个唯一词。

为了能够将这样的矩阵存储在内存中并加速矩阵/向量代数运算,实现通常会使用稀疏表示,例如scipy.sparse包中提供的实现。

7.2.3.3. 常用向量化器用法#

CountVectorizer 在一个类中实现了分词和出现次数计数

>>> from sklearn.feature_extraction.text import CountVectorizer

此模型有许多参数,但默认值相当合理(详情请参阅参考文档

>>> vectorizer = CountVectorizer()
>>> vectorizer
CountVectorizer()

让我们用它来对一个极简文本语料库进行分词和词频统计

>>> corpus = [
...     'This is the first document.',
...     'This is the second second document.',
...     'And the third one.',
...     'Is this the first document?',
... ]
>>> X = vectorizer.fit_transform(corpus)
>>> X
<Compressed Sparse...dtype 'int64'
  with 19 stored elements and shape (4, 9)>

默认配置通过提取至少2个字母的单词来对字符串进行分词。执行此步骤的特定函数可以显式请求

>>> analyze = vectorizer.build_analyzer()
>>> analyze("This is a text document to analyze.") == (
...     ['this', 'is', 'text', 'document', 'to', 'analyze'])
True

在拟合过程中,分析器找到的每个术语都被分配一个唯一的整数索引,对应于结果矩阵中的一列。对这些列的解释可以如下检索

>>> vectorizer.get_feature_names_out()
array(['and', 'document', 'first', 'is', 'one', 'second', 'the',
       'third', 'this'], ...)

>>> X.toarray()
array([[0, 1, 1, 1, 0, 0, 1, 0, 1],
       [0, 1, 0, 1, 0, 2, 1, 0, 1],
       [1, 0, 0, 0, 1, 0, 1, 1, 0],
       [0, 1, 1, 1, 0, 0, 1, 0, 1]]...)

从特征名称到列索引的逆向映射存储在向量化器的vocabulary_属性中

>>> vectorizer.vocabulary_.get('document')
1

因此,在训练语料库中未出现的词语将在未来调用transform方法时被完全忽略

>>> vectorizer.transform(['Something completely new.']).toarray()
array([[0, 0, 0, 0, 0, 0, 0, 0, 0]]...)

请注意,在前面的语料库中,第一个文档和最后一个文档的单词完全相同,因此被编码为相同的向量。特别是,我们丢失了最后一个文档是疑问句形式的信息。为了保留一些局部排序信息,除了1-gram(单个单词)之外,我们还可以提取2-gram单词

>>> bigram_vectorizer = CountVectorizer(ngram_range=(1, 2),
...                                     token_pattern=r'\b\w+\b', min_df=1)
>>> analyze = bigram_vectorizer.build_analyzer()
>>> analyze('Bi-grams are cool!') == (
...     ['bi', 'grams', 'are', 'cool', 'bi grams', 'grams are', 'are cool'])
True

因此,这个向量化器提取的词汇量要大得多,现在可以解决局部定位模式中编码的歧义

>>> X_2 = bigram_vectorizer.fit_transform(corpus).toarray()
>>> X_2
array([[0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 1, 1, 0],
       [0, 0, 1, 0, 0, 1, 1, 0, 0, 2, 1, 1, 1, 0, 1, 0, 0, 0, 1, 1, 0],
       [1, 1, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 1, 0, 0, 1, 1, 1, 0, 0, 0],
       [0, 0, 1, 1, 1, 1, 0, 1, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 1, 0, 1]]...)

特别是,疑问句形式“Is this”只出现在最后一个文档中

>>> feature_index = bigram_vectorizer.vocabulary_.get('is this')
>>> X_2[:, feature_index]
array([0, 0, 0, 1]...)

7.2.3.4. 使用停用词#

停用词是指“and”、“the”、“him”等词语,它们被认为在表示文本内容时信息量不大,可以被移除以避免它们被误解为对预测有信息量。然而,有时类似的词语对预测有用,例如在分类写作风格或个性时。

我们提供的“english”停用词列表存在一些已知问题。它并非旨在成为一种通用的“一刀切”解决方案,因为某些任务可能需要更自定义的解决方案。有关更多详细信息,请参阅[NQY18]

请谨慎选择停用词列表。流行的停用词列表可能包含对某些任务非常有用的词语,例如 computer

您还应确保停用词列表已应用了与向量化器中使用的预处理和分词相同的方法。单词 we’ve 会被CountVectorizer的默认分词器拆分为 weve,因此如果 we’vestop_words 中,但 ve 不在,那么 ve 将从转换后的文本中的 we’ve 中保留下来。我们的向量化器会尝试识别并警告某些类型的不一致性。

参考文献

[NQY18]

J. Nothman, H. Qin and R. Yurchak (2018). “免费开源软件包中的停用词列表”。收录于Proc. Workshop for NLP Open Source Software

7.2.3.5. Tf-idf 词语加权#

在一个大型文本语料库中,有些词会非常常见(例如,英语中的“the”、“a”、“is”),因此对文档的实际内容几乎不包含有意义的信息。如果我们将直接计数数据直接输入分类器,这些非常频繁的术语将会掩盖那些更罕见但更有趣的术语的频率。

为了将计数特征重新加权为适合分类器使用的浮点值,通常使用tf-idf变换。

Tf表示词频(term-frequency),而tf-idf表示词频乘以逆文档频率(inverse document-frequency)\(\text{tf-idf(t,d)}=\text{tf(t,d)} \times \text{idf(t)}\)

使用TfidfTransformer的默认设置,即TfidfTransformer(norm='l2', use_idf=True, smooth_idf=True, sublinear_tf=False),词频(即某个词在给定文档中出现的次数)与idf分量相乘,idf分量的计算公式为

\(\text{idf}(t) = \log{\frac{1 + n}{1+\text{df}(t)}} + 1\),

其中 \(n\) 是文档集中文档的总数,\(\text{df}(t)\) 是文档集中包含词语 \(t\) 的文档数量。得到的 tf-idf 向量然后通过欧几里得范数进行归一化

\(v_{norm} = \frac{v}{||v||_2} = \frac{v}{\sqrt{v{_1}^2 + v{_2}^2 + \dots + v{_n}^2}}\).

这最初是一种为信息检索(作为搜索引擎结果的排名函数)开发的词语加权方案,在文档分类和聚类中也得到了很好的应用。

以下各节包含进一步的解释和示例,说明 tf-idf 如何精确计算,以及 scikit-learn 的 TfidfTransformerTfidfVectorizer 中计算的 tf-idf 与标准教科书表示略有不同,后者将 idf 定义为

\(\text{idf}(t) = \log{\frac{n}{1+\text{df}(t)}}.\)

TfidfTransformerTfidfVectorizer中,当smooth_idf=False时,计数“1”被加到idf的分子而不是分母中

\(\text{idf}(t) = \log{\frac{n}{\text{df}(t)}} + 1\)

这种标准化由TfidfTransformer类实现

>>> from sklearn.feature_extraction.text import TfidfTransformer
>>> transformer = TfidfTransformer(smooth_idf=False)
>>> transformer
TfidfTransformer(smooth_idf=False)

再次请参阅参考文档,了解所有参数的详细信息。

tf-idf 矩阵的数值示例#

我们用以下计数为例。第一个词元出现了100%的时间,因此不太有趣。另外两个特征只出现了不到50%的时间,因此可能更能代表文档的内容

>>> counts = [[3, 0, 1],
...           [2, 0, 0],
...           [3, 0, 0],
...           [4, 0, 0],
...           [3, 2, 0],
...           [3, 0, 2]]
...
>>> tfidf = transformer.fit_transform(counts)
>>> tfidf
<Compressed Sparse...dtype 'float64'
  with 9 stored elements and shape (6, 3)>

>>> tfidf.toarray()
array([[0.81940995, 0.        , 0.57320793],
      [1.        , 0.        , 0.        ],
      [1.        , 0.        , 0.        ],
      [1.        , 0.        , 0.        ],
      [0.47330339, 0.88089948, 0.        ],
      [0.58149261, 0.        , 0.81355169]])

每行都被归一化为单位欧几里得范数

\(v_{norm} = \frac{v}{||v||_2} = \frac{v}{\sqrt{v{_1}^2 + v{_2}^2 + \dots + v{_n}^2}}\)

例如,我们可以计算counts数组中第一个文档中第一个词元的tf-idf,如下所示

\(n = 6\)

\(\text{df}(t)_{\text{term1}} = 6\)

\(\text{idf}(t)_{\text{term1}} = \log \frac{n}{\text{df}(t)} + 1 = \log(1)+1 = 1\)

\(\text{tf-idf}_{\text{term1}} = \text{tf} \times \text{idf} = 3 \times 1 = 3\)

现在,如果我们在文档中对剩余的2个词元重复此计算,我们得到

\(\text{tf-idf}_{\text{term2}} = 0 \times (\log(6/1)+1) = 0\)

\(\text{tf-idf}_{\text{term3}} = 1 \times (\log(6/2)+1) \approx 2.0986\)

以及原始tf-idf向量

\(\text{tf-idf}_{\text{raw}} = [3, 0, 2.0986].\)

然后,应用欧几里得(L2)范数,我们得到文档1的以下tf-idf值

\(\frac{[3, 0, 2.0986]}{\sqrt{\big(3^2 + 0^2 + 2.0986^2\big)}} = [ 0.819, 0, 0.573].\)

此外,默认参数smooth_idf=True会在分子和分母中添加“1”,就好像额外看到一个文档,其中每个词元在集合中恰好出现一次,这可以防止零除法

\(\text{idf}(t) = \log{\frac{1 + n}{1+\text{df}(t)}} + 1\)

使用此修改,文档1中第三个词元的tf-idf变为1.8473

\(\text{tf-idf}_{\text{term3}} = 1 \times \log(7/3)+1 \approx 1.8473\)

L2-标准化后的tf-idf变为

\(\frac{[3, 0, 1.8473]}{\sqrt{\big(3^2 + 0^2 + 1.8473^2\big)}} = [0.8515, 0, 0.5243]\):

>>> transformer = TfidfTransformer()
>>> transformer.fit_transform(counts).toarray()
array([[0.85151335, 0.        , 0.52433293],
      [1.        , 0.        , 0.        ],
      [1.        , 0.        , 0.        ],
      [1.        , 0.        , 0.        ],
      [0.55422893, 0.83236428, 0.        ],
      [0.63035731, 0.        , 0.77630514]])

通过fit方法调用计算的每个特征的权重存储在模型属性中

>>> transformer.idf_
array([1., 2.25, 1.84])

由于tf-idf经常用于文本特征,因此还有一个名为TfidfVectorizer的类,它将CountVectorizerTfidfTransformer的所有选项组合到一个模型中

>>> from sklearn.feature_extraction.text import TfidfVectorizer
>>> vectorizer = TfidfVectorizer()
>>> vectorizer.fit_transform(corpus)
<Compressed Sparse...dtype 'float64'
  with 19 stored elements and shape (4, 9)>

虽然tf-idf标准化通常非常有用,但在某些情况下,二进制出现标记可能提供更好的特征。这可以通过使用CountVectorizerbinary参数来实现。特别是,某些估计器(如伯努利朴素贝叶斯)明确建模离散布尔随机变量。此外,非常短的文本可能具有嘈杂的tf-idf值,而二进制出现信息则更稳定。

通常,调整特征提取参数的最佳方法是使用交叉验证网格搜索,例如通过将特征提取器与分类器进行流水线操作

7.2.3.6. 解码文本文件#

文本由字符组成,但文件由字节组成。这些字节根据某种编码表示字符。要在Python中处理文本文件,它们的字节必须被解码为一种称为Unicode的字符集。常见的编码有ASCII、Latin-1(西欧)、KOI8-R(俄语)以及通用编码UTF-8和UTF-16。还有许多其他编码存在。

注意

编码也可以称为“字符集”,但这个术语不太准确:一个字符集可以存在多种编码。

scikit-learn中的文本特征提取器知道如何解码文本文件,但前提是您需要告诉它们文件的编码方式。CountVectorizer为此目的接受一个encoding参数。对于现代文本文件,正确的编码可能是UTF-8,因此这是默认值(encoding="utf-8")。

然而,如果您加载的文本实际上没有用UTF-8编码,您将收到一个UnicodeDecodeError。可以通过将decode_error参数设置为"ignore""replace"来指示向量化器忽略解码错误。有关Python函数bytes.decode的更多详细信息,请参阅其文档(在Python提示符下键入help(bytes.decode))。

文本解码故障排除#

如果您在文本解码方面遇到问题,这里有一些尝试的方法

  • 找出文本的实际编码。文件可能带有标题或README文件,告知您编码方式,或者根据文本来源,您可以假定某种标准编码。

  • 您可以使用 UNIX 命令 file 大致找出它是哪种编码。Python 的 chardet 模块带有一个名为 chardetect.py 的脚本,可以猜测具体的编码,但您不能完全依赖其猜测的准确性。

  • 您可以尝试UTF-8并忽略错误。您可以使用bytes.decode(errors='replace')解码字节字符串,将所有解码错误替换为无意义的字符,或在向量化器中设置decode_error='replace'。这可能会损害特征的实用性。

  • 真实文本可能来自各种来源,这些来源可能使用了不同的编码,甚至在编码时就粗心地使用了不同于实际编码的方式进行解码。这在从Web检索的文本中很常见。Python包ftfy可以自动解决某些类型的解码错误,因此您可以尝试将未知文本解码为latin-1,然后使用ftfy来修复错误。

  • 如果文本是各种编码的混杂,难以整理(20新闻组数据集就是这种情况),您可以退而求其次,使用简单的单字节编码,如latin-1。有些文本可能显示不正确,但至少相同的字节序列将始终表示相同的特征。

例如,以下代码片段使用chardet(scikit-learn不自带,需单独安装)来找出三段文本的编码。然后,它将文本向量化并打印学习到的词汇。此处未显示输出。

>>> import chardet    
>>> text1 = b"Sei mir gegr\xc3\xbc\xc3\x9ft mein Sauerkraut"
>>> text2 = b"holdselig sind deine Ger\xfcche"
>>> text3 = b"\xff\xfeA\x00u\x00f\x00 \x00F\x00l\x00\xfc\x00g\x00e\x00l\x00n\x00 \x00d\x00e\x00s\x00 \x00G\x00e\x00s\x00a\x00n\x00g\x00e\x00s\x00,\x00 \x00H\x00e\x00r\x00z\x00l\x00i\x00e\x00b\x00c\x00h\x00e\x00n\x00,\x00 \x00t\x00r\x00a\x00g\x00 \x00i\x00c\x00h\x00 \x00d\x00i\x00c\x00h\x00 \x00f\x00o\x00r\x00t\x00"
>>> decoded = [x.decode(chardet.detect(x)['encoding'])
...            for x in (text1, text2, text3)]        
>>> v = CountVectorizer().fit(decoded).vocabulary_    
>>> for term in v: print(v)                           

(根据chardet的版本,它可能会把第一个弄错。)

有关Unicode和字符编码的入门知识,请参阅Joel Spolsky的每个软件开发人员都必须知道的Unicode绝对最小知识

7.2.3.7. 应用与示例#

词袋表示虽然相当简单,但在实践中却出奇地有用。

特别是在有监督学习中,它可以成功地与快速可扩展的线性模型结合,训练文档分类器,例如

无监督学习中,它可以通过应用聚类算法(如K-means)将相似文档分组在一起

最后,通过放宽聚类的硬性分配约束,例如使用非负矩阵分解 (NMF 或 NNMF),可以发现语料库的主要主题

7.2.3.8. 词袋表示的局限性#

一个单语词集合(即词袋)无法捕捉短语和多词表达,从而有效地忽略了任何词序依赖性。此外,词袋模型不考虑潜在的拼写错误或词形派生。

N-gram来救援!除了构建一个简单的单语词(n=1)集合外,人们可能更喜欢一个双语词(n=2)集合,其中计算连续词对的出现次数。

或者,可以考虑字符 n-gram 的集合,这种表示对拼写错误和派生词具有鲁棒性。

例如,假设我们正在处理一个包含两个文档的语料库:['words', 'wprds']。第二个文档包含单词“words”的拼写错误。一个简单的词袋表示会将这两个文档视为非常不同,在两个可能的特征上都存在差异。然而,字符2-gram表示将在8个特征中有4个特征上发现文档匹配,这可能有助于首选分类器做出更好的决策

>>> ngram_vectorizer = CountVectorizer(analyzer='char_wb', ngram_range=(2, 2))
>>> counts = ngram_vectorizer.fit_transform(['words', 'wprds'])
>>> ngram_vectorizer.get_feature_names_out()
array([' w', 'ds', 'or', 'pr', 'rd', 's ', 'wo', 'wp'], ...)
>>> counts.toarray().astype(int)
array([[1, 1, 1, 0, 1, 1, 1, 0],
       [1, 1, 0, 1, 1, 1, 0, 1]])

在上面的例子中,使用了char_wb分析器,它只从词边界内的字符(两侧用空格填充)创建n-gram。char分析器则创建跨词的n-gram

>>> ngram_vectorizer = CountVectorizer(analyzer='char_wb', ngram_range=(5, 5))
>>> ngram_vectorizer.fit_transform(['jumpy fox'])
<Compressed Sparse...dtype 'int64'
  with 4 stored elements and shape (1, 4)>

>>> ngram_vectorizer.get_feature_names_out()
array([' fox ', ' jump', 'jumpy', 'umpy '], ...)

>>> ngram_vectorizer = CountVectorizer(analyzer='char', ngram_range=(5, 5))
>>> ngram_vectorizer.fit_transform(['jumpy fox'])
<Compressed Sparse...dtype 'int64'
  with 5 stored elements and shape (1, 5)>
>>> ngram_vectorizer.get_feature_names_out()
array(['jumpy', 'mpy f', 'py fo', 'umpy ', 'y fox'], ...)

对于使用空格进行单词分隔的语言,char_wb这种词边界感知的变体特别有意义,因为它生成的噪声特征比原始char变体少得多。对于这类语言,它可以在保持对拼写错误和词形派生的鲁棒性的同时,提高使用这些特征训练的分类器的预测准确性和收敛速度。

虽然通过提取n-gram而不是单个单词可以保留一些局部位置信息,但词袋和n-gram袋破坏了文档的大部分内部结构,从而也破坏了该内部结构所承载的大部分含义。

为了解决更广泛的自然语言理解任务,因此应考虑句子和段落的局部结构。许多此类模型将被归类为“结构化输出”问题,这些问题目前超出scikit-learn的范围。

7.2.3.9. 使用哈希技巧对大型文本语料库进行向量化#

上述向量化方案很简单,但它将字符串词元映射到整数特征索引的内存映射(即vocabulary_属性)这一事实,在处理大型数据集时会导致一些问题

  • 语料库越大,词汇量将增长越大,因此内存使用量也会增加,

  • 拟合需要分配与原始数据集大小成比例的中间数据结构。

  • 构建词语映射需要对数据集进行完整的遍历,因此无法以严格在线的方式拟合文本分类器。

  • 对具有大vocabulary_的向量化器进行序列化和反序列化可能非常慢(通常比对相同大小的NumPy数组等扁平数据结构进行序列化/反序列化慢得多),

  • 将向量化工作分解为并发子任务并不容易,因为vocabulary_属性必须是具有细粒度同步障碍的共享状态:从词元字符串到特征索引的映射取决于每个词元首次出现的顺序,因此必须共享,这可能会损害并发工作者的性能,以至于它们比顺序变体更慢。

可以通过结合特征哈希实现的“哈希技巧”(FeatureHasher类)和CountVectorizer的文本预处理和分词功能来克服这些限制。

这种组合在HashingVectorizer中实现,这是一个转换器类,其API大部分与CountVectorizer兼容。HashingVectorizer是无状态的,这意味着您不必在其上调用fit

>>> from sklearn.feature_extraction.text import HashingVectorizer
>>> hv = HashingVectorizer(n_features=10)
>>> hv.transform(corpus)
<Compressed Sparse...dtype 'float64'
  with 16 stored elements and shape (4, 10)>

您可以看到在向量输出中提取了16个非零特征词元:这少于之前CountVectorizer在相同玩具语料库上提取的19个非零词元。这种差异源于n_features参数值较低导致的哈希函数冲突。

在实际应用中,n_features参数可以保留其默认值2 ** 20(大约一百万个可能的特征)。如果内存或下游模型大小是一个问题,选择一个较低的值,例如2 ** 18,可能会有所帮助,而不会在典型文本分类任务中引入太多额外的冲突。

请注意,维度不会影响操作CSR矩阵的算法(LinearSVC(dual=True)PerceptronSGDClassifierPassiveAggressive)的CPU训练时间,但会影响操作CSC矩阵的算法(LinearSVC(dual=False)Lasso()等)。

我们再试一下默认设置

>>> hv = HashingVectorizer()
>>> hv.transform(corpus)
<Compressed Sparse...dtype 'float64'
  with 19 stored elements and shape (4, 1048576)>

我们不再遇到冲突,但这以输出空间维度大幅增加为代价。当然,除了这里使用的19个词元之外,其他词元之间仍然可能发生冲突。

HashingVectorizer还具有以下局限性

  • 由于执行映射的哈希函数的单向性,无法反转模型(没有inverse_transform方法),也无法访问特征的原始字符串表示。

  • 它不提供IDF加权,因为那会给模型引入状态。如果需要,可以在管道中附加一个TfidfTransformer

使用 HashingVectorizer 执行核外缩放#

使用HashingVectorizer的一个有趣发展是能够执行核外(out-of-core)缩放。这意味着我们可以从不适合计算机主内存的数据中学习。

实现核外缩放的一种策略是以小批量流式传输数据到估计器。每个小批量都使用HashingVectorizer进行向量化,以确保估计器的输入空间始终具有相同的维度。因此,任何时候使用的内存量都由小批量的大小限制。尽管这种方法可以摄取的数据量没有限制,但从实际角度来看,学习时间通常受限于任务所需的CPU时间。

有关文本分类任务中核外缩放的完整示例,请参阅文本文档的核外分类

7.2.3.10. 自定义向量化器类#

可以通过向向量化器构造函数传递一个可调用对象来定制其行为

>>> def my_tokenizer(s):
...     return s.split()
...
>>> vectorizer = CountVectorizer(tokenizer=my_tokenizer)
>>> vectorizer.build_analyzer()(u"Some... punctuation!") == (
...     ['some...', 'punctuation!'])
True

特别是我们命名

  • preprocessor:一个可调用对象,它将整个文档作为输入(单个字符串),并返回文档的可能转换版本,仍然是整个字符串。这可以用于移除HTML标签、将整个文档转换为小写等。

  • tokenizer:一个可调用对象,它接收预处理器的输出并将其拆分为词元,然后返回这些词元的列表。

  • analyzer:一个可调用对象,它替代了预处理器和分词器。默认的分析器都调用预处理器和分词器,但自定义分析器将跳过此步骤。N-gram提取和停用词过滤发生在分析器级别,因此自定义分析器可能需要重现这些步骤。

(Lucene用户可能认识这些名称,但请注意scikit-learn的概念可能无法与Lucene概念一一对应。)

为了使预处理器、分词器和分析器感知模型参数,可以从类派生并覆盖build_preprocessorbuild_tokenizerbuild_analyzer工厂方法,而不是传递自定义函数。

技巧与窍门#
  • 如果文档由外部包预分词,则将其存储在以空格分隔词元的文件(或字符串)中,并传递analyzer=str.split

  • 诸如词干提取、词形还原、复合词拆分、基于词性的过滤等高级词元级分析不包含在scikit-learn代码库中,但可以通过自定义分词器或分析器来添加。以下是使用NLTKCountVectorizer及其分词器和词形还原器

    >>> from nltk import word_tokenize          
    >>> from nltk.stem import WordNetLemmatizer 
    >>> class LemmaTokenizer:
    ...     def __init__(self):
    ...         self.wnl = WordNetLemmatizer()
    ...     def __call__(self, doc):
    ...         return [self.wnl.lemmatize(t) for t in word_tokenize(doc)]
    ...
    >>> vect = CountVectorizer(tokenizer=LemmaTokenizer())  
    

    (请注意,这不会过滤掉标点符号。)

    以下示例将,例如,将一些英式拼写转换为美式拼写

    >>> import re
    >>> def to_british(tokens):
    ...     for t in tokens:
    ...         t = re.sub(r"(...)our$", r"\1or", t)
    ...         t = re.sub(r"([bt])re$", r"\1er", t)
    ...         t = re.sub(r"([iy])s(e$|ing|ation)", r"\1z\2", t)
    ...         t = re.sub(r"ogue$", "og", t)
    ...         yield t
    ...
    >>> class CustomVectorizer(CountVectorizer):
    ...     def build_tokenizer(self):
    ...         tokenize = super().build_tokenizer()
    ...         return lambda doc: list(to_british(tokenize(doc)))
    ...
    >>> print(CustomVectorizer().build_analyzer()(u"color colour"))
    [...'color', ...'color']
    

    对于其他类型的预处理;示例包括词干提取、词形还原或数值词元标准化,后者在以下示例中进行说明

在处理不使用明确分词符(如空格)的亚洲语言时,自定义向量化器也很有用。

7.2.4. 图像特征提取#

7.2.4.1. 图像块提取#

extract_patches_2d函数从存储为二维数组的图像中提取图像块,或者在第三轴具有颜色信息的三维图像中提取。要从所有图像块重建图像,请使用reconstruct_from_patches_2d。例如,让我们生成一个具有3个颜色通道(例如RGB格式)的4x4像素图像

>>> import numpy as np
>>> from sklearn.feature_extraction import image

>>> one_image = np.arange(4 * 4 * 3).reshape((4, 4, 3))
>>> one_image[:, :, 0]  # R channel of a fake RGB picture
array([[ 0,  3,  6,  9],
       [12, 15, 18, 21],
       [24, 27, 30, 33],
       [36, 39, 42, 45]])

>>> patches = image.extract_patches_2d(one_image, (2, 2), max_patches=2,
...     random_state=0)
>>> patches.shape
(2, 2, 2, 3)
>>> patches[:, :, :, 0]
array([[[ 0,  3],
        [12, 15]],

       [[15, 18],
        [27, 30]]])
>>> patches = image.extract_patches_2d(one_image, (2, 2))
>>> patches.shape
(9, 2, 2, 3)
>>> patches[4, :, :, 0]
array([[15, 18],
       [27, 30]])

现在让我们尝试通过对重叠区域求平均值来从图像块重建原始图像

>>> reconstructed = image.reconstruct_from_patches_2d(patches, (4, 4, 3))
>>> np.testing.assert_array_equal(one_image, reconstructed)

PatchExtractor类的工作方式与extract_patches_2d相同,只是它支持多个图像作为输入。它被实现为scikit-learn转换器,因此可以在管道中使用。请参阅

>>> five_images = np.arange(5 * 4 * 4 * 3).reshape(5, 4, 4, 3)
>>> patches = image.PatchExtractor(patch_size=(2, 2)).transform(five_images)
>>> patches.shape
(45, 2, 2, 3)

7.2.4.2. 图像的连通图#

scikit-learn 中的一些估计器可以使用特征或样本之间的连通性信息。例如,Ward 聚类(层次聚类)可以只将图像的相邻像素聚类在一起,从而形成连续的图像块

../_images/sphx_glr_plot_coin_ward_segmentation_001.png

为此,估计器使用一个“连通性”矩阵,指示哪些样本是连接的。

函数img_to_graph从2D或3D图像返回这样的矩阵。类似地,grid_to_graph根据图像的形状构建图像的连通性矩阵。

这些矩阵可用于在需要连通性信息的估计器中施加连通性,例如 Ward 聚类(层次聚类),也可用于构建预计算的核函数或相似度矩阵。