ElasticSearch 2 (26) - 语言处理系列之打字或拼写错误

摘要

我们喜欢在对结构化数据(如:日期和价格)做查询时,结果只返回那些能精确匹配的文档。但是,好的全文搜索不应该有这样的限制。相反,我们可以扩大范围,包括更多可能匹配的词语,使用相关度评分将更匹配的文档放置在结果集的顶部。

事实上,只做精确匹配的全文搜索很有可能会让用户失望,难道我们不希望搜索 “quick brown fox” 可以匹配到包含 “fast brown foxes” 的文档,“Johnny Walker” 可以匹配 “Johnnie Walker”,“Arnold Shcwarzenneger” 可以匹配 “Arnold Schwarzenegger”?

如果文档确实精确包含用户的搜索条件,那么它们应该出现在结果集的顶部,而弱匹配可以置于结果列表的稍后地方。如果没有精确的匹配,至少我们可以为用户提供潜在匹配的可能,它们甚至可能是用户搜索的初衷!

我们已经在 规则化标记(Normalizing Tokens) 介绍了处理变音词的匹配方式,在 缩减单词至词根形式(Reducing Words to Their Root Form) 中介绍了词语的词干提取方式,在 同义词(Synonyms) 中介绍了同义词的处理方式,但是所有这些方法都以单词是正确拼写这个条件为前提,或者说每个词的拼写方式只有一种。

模糊匹配允许在查询时匹配拼写错误的词,语音标记过滤器可以在索引时用来语音匹配。

版本

elasticsearch版本: elasticsearch-2.x

内容

模糊逻辑(Fuzziness)

模糊匹配将两个模糊相似的词作为同一词语处理,首先,我们须要定义什么是模糊性。

在 1965 年,Vladimir Levenshtein 开发了 Levenshtein 距离算法,它可以计算从一个单词变成另外一个单词时,单个字符改变的总次数。它提出了三种类型的单字符修改方式:

  • 将一个字符替换成为另外一个:f ox → b ox
  • 插入新的字符:sic → sic k
  • 删除字符:b l ack → back

Frederick Damerau 后来对这些操作进行了扩展,新增了一种方式:

  • 交换两个相邻字符的位置:st ar → ts ar

例如,将单词 bieber 转换成 beaver 需要以下步骤:

  1. b 替换成 v : bie b er → bie v er
  2. i 替换成 a : b i ever → b a ever
  3. 交换 ae 的位置: b ae ver → b ea ver

这三步用 Damerau-Levenshtein 法表示的距离是 3 。

显然,bieberbeaver 有很长一段距离,它们相距太远而不能被认为是简单的拼写错误。Damerau 观察到 80% 的人为拼写错误的距离是 1 。换句话说,有 80% 的拼写错误可以通过单次字符修改得到原始的字符串。

Elasticsearch 支持一个最大的编辑距离是 2 ,可以通过参数 fuzziness 来指定。

当然,单次修改的影响还取决于被修改字符串的长度。单词 hat 经两次修改可以变成 mad ,所以允许长度为 3 的字符串修改两次有点过度。参数 fuzziness 可以被设置成 AUTO ,代表以下三中最大编辑距离:

  • 0 对于长度为 1 或 2 的字符串
  • 1 对于长度为 3、4 或 5 的字符串
  • 2 对于长度大于 5 的字符串

当然,可能会发现 2 步修改仍然过度,返回的结果看上去并不相关。当最大 fuzziness 值为 1 时,我们可能会得到更好的搜索结果和更好的性能。

模糊查询(Fuzzy Query)

fuzzy 查询和使用 term 查询的 fuzzy 特性是等价的。通常我们很少会自己直接使用它,但是理解它的工作方式有助于我们在高层 match 查询中利用模糊的特性。

为了理解它是如何工作的,我们先新建索引一些文档:

	POST /my_index/my_type/_bulk
{ "index": { "_id": 1 }}
{ "text": "Surprise me!"}
{ "index": { "_id": 2 }}
{ "text": "That was surprising."}
{ "index": { "_id": 3 }}
{ "text": "I wasn't surprised."}

现在我们就可以运行 fuzzy 查询搜索 surprize

	GET /my_index/my_type/_search
{
"query": {
"fuzzy": {
"text": "surprize"
}
}
}

fuzzy 查询是一个词项级别的查询,所以它没有做任何分析的工作。它接收单个词项,并且根据指定的模糊逻辑在字典中查找匹配的所有词项。默认的 fuzziness 值是 AUTO

在我们的例子中,surprize 距离 2 以内的词有 surprisesurprised,所以文档 1 和 3 是匹配的。我们可以通过以下查询将匹配结果缩小至 surprise

	GET /my_index/my_type/_search
{
"query": {
"fuzzy": {
"text": {
"value": "surprize",
"fuzziness": 1
}
}
}
}

提升性能(Improving Performance)

fuzzy 查询接受原始词项并为其构建一个 Levenshtein 自动机(automaton) ,这个结构有如一个图,它能表示与原始字符串相距指定编辑距离值以内的所有可能字符串。

模糊查询随后使用这个自动机逐步高效的在字典中匹配所有词项,一旦收集到字典里所有的匹配词项,它便能计算出所有与之匹配的文档。

当然,由于索引里存储的数据类型不同,一个编辑距离为 2 可以与大量词匹配,性能也会非常差。以下两个参数可以用来限制对性能的不良影响:

  • prefix_length

    设置字符串不会被“模糊化”的起始长度。多数拼写错误出现在词语的末尾处,而不是开始处。比如,当 prefix_length 的值为 3 时,我们可以大大减少需要匹配词项的数目。

  • max_expansions

    如果模糊查询扩展到三或四个选项的时候,这些新选项可能还是有意义的,但当它生成 1,000 个选项时,它们实际上毫无意义。用 max_expansions 来限制生成选项的总数,模糊查询会搜集匹配的词项,直到找不出更多匹配或词项数目达到 max_expansions 数值的限制。

模糊匹配查询(Fuzzy match Query)

match 查询自带支持模糊匹配的功能:

	GET /my_index/my_type/_search
{
"query": {
"match": {
"text": {
"query": "SURPRIZE ME!",
"fuzziness": "AUTO",
"operator": "and"
}
}
}
}

查询字符串首先经过分析,然后生成词项 [surprize, me],最后每个词项用指定的 fuzziness(模糊逻辑) 进行模糊化处理。

类似地,multi_match 查询也支持模糊逻辑,但它只支持两种类型 best_fieldsmost_fields

	GET /my_index/my_type/_search
{
"query": {
"multi_match": {
"fields": [ "text", "title" ],
"query": "SURPRIZE ME!",
"fuzziness": "AUTO"
}
}
}

matchmulti_match 查询都能支持 prefix_lengthmax_expansions 参数。

小贴士

模糊逻辑只能使用于两种基本查询 matchmulti_match,而无法使用于短语匹配,常用词项或跨字段匹配。

模糊度的评分(Scoring Fuzziness)

用户喜欢模糊查询,他们以为这些查询总会奇妙的找到正确的拼写结果。不幸的是,事实却无法激动人心。

假设我们有 1,000 个文档包含词语 “Schwarzenegger”,其中只有 1 个文档里有错误拼写 “Schwarzeneger”,根据 TF/IDF 的理论,这个错误拼写比正确拼写更具相关性,因为它在文档里出现的次数要少得多!

换句话说,如果我们同等对待模糊匹配和其他匹配,那么我们就会更偏向错误拼写而不是正确拼写,这会使用户感到抓狂的。

小贴士

模糊匹配不应用于以评分为目的的查询,而只能当有错误拼写时,用于扩大匹配词项的匹配范围。

默认情况下,match 查询给所有模糊匹配的分数总是 1 。这足以使潜在的匹配出现在结果的末尾,而不用影响到非模糊查询的相关度评分计算。

小贴士

模糊查询本身并没有刚开始看起来那么有用,它们最好作为高级功能的一部分,例如 输入即搜索 completion 完成建议器 或 你想查找 词组建议器。

语音匹配(Phonetic Matching)

最后,令人绝望的是,试图匹配那些听上去相似的词,这些词的拼写甚至是不同的。

现存一些算法可以将词语转换成语音形式表示。Soundex 算法是它们的始祖,其他所有类似算法都是 Soundex 的改进或定制形式,例如 MetaphoneDouble Metaphone (它对语音匹配扩展到其他语言而不只是英语),Caverphone 算法可以匹配新西兰姓名,Beider-Morse 算法以 Soundex 算法为基础,但它能更好的匹配德语和依地语姓名,Kölner Phonetik 对德语词支持更好。

我们从上面一串算法中要学到的是语音算法都相当粗糙,太依赖于它们针对设计的语言,这些语言可以是英语,也可以是德语,这限制了它们的可用性。不过,如果与其他技术相结合,为了处理某种问题,语音匹配也可以是个有用的工具。

首先,我们需要从下面网址安装语音分析插件 https://www.elastic.co/guide/en/elasticsearch/plugins/current/analysis-phonetic.html ,为集群每个节点都安装,然后重启每个节点。

安装后,我们可以创建一个自定义分析器,尝试使用其中一个语音标记过滤器:

	PUT /my_index
{
"settings": {
"analysis": {
"filter": {
"dbl_metaphone": { #1
"type": "phonetic",
"encoder": "double_metaphone"
}
},
"analyzer": {
"dbl_metaphone": {
"tokenizer": "standard",
"filter": "dbl_metaphone" #2
}
}
}
}
}

#1 首先,配置自定义 phonetic 语音标记过滤器以及 double_metaphone 编码器。

#2 然后在自定义分析器中使用自定义的标记过滤器。

现在使用 analyze API 对其测试:

	GET /my_index/_analyze?analyzer=dbl_metaphone
Smith Smythe

SmithSmythe 在同一位置各生成两个标记:SM0XMT。分析 JohnJonJohnnie 会都生成两个标记 JNAN,但 Jonathon 会生成标记 JN0NANTN

语音分析器和其他分析器的使用方式类似,首先为字段设置映射,然后在对数据建立索引:

	PUT /my_index/_mapping/my_type
{
"properties": {
"name": {
"type": "string",
"fields": {
"phonetic": { #1
"type": "string",
"analyzer": "dbl_metaphone"
}
}
}
}
} PUT /my_index/my_type/1
{
"name": "John Smith"
} PUT /my_index/my_type/2
{
"name": "Jonnie Smythe"
}

#1 name.phonetic 字段使用自定义的 dbl_metaphone 分析器。

match 查询来搜索:

	GET /my_index/my_type/_search
{
"query": {
"match": {
"name.phonetic": {
"query": "Jahnnie Smeeth",
"operator": "and"
}
}
}
}

这个查询同时返回两个文档,这样表明语音查询是有多粗糙。使用语音算法进行评分通常也没有多大意义。使用语音算法的目的不在于提高精度,而在于提高召回,扩大撒网范围从而获得任何可能匹配的文档。

通常将语音算法的结果作为其他算法或计算机的输入信息,要比直接将结果给人使用要靠谱得多。

参考

elastic.co: Typoes and Mispelings

ElasticSearch 2 (26) - 语言处理系列之打字或拼写错误的更多相关文章

  1. ElasticSearch 2 (19) - 语言处理系列之故事开始

    ElasticSearch 2 (19) - 语言处理系列之故事开始 摘要 全文搜索是精度(尽可能少的返回不相关文档)和召回(尽可能多的返回相关文档)的战场.尽管只精确匹配用户查询的词肯定会是精确的, ...

  2. ElasticSearch 2 (25) - 语言处理系列之同义词

    ElasticSearch 2 (25) - 语言处理系列之同义词 摘要 词干提取有助于通过简化屈折词到它们词根的形式来扩展搜索的范围,而同义词是通过关联概念和想法来扩展搜索范围的.或许没有文档能与查 ...

  3. ElasticSearch 2 (24) - 语言处理系列之停用词:性能与精度

    ElasticSearch 2 (24) - 语言处理系列之停用词:性能与精度 摘要 在信息检索早期,磁盘和内存相较我们今天的使用只是很小的一部分.将索引空间保持在一个较小的水平是至关重要的,节省每个 ...

  4. ElasticSearch 2 (23) - 语言处理系列之词根提取

    ElasticSearch 2 (23) - 语言处理系列之词根提取 摘要 世界上大多数语言都是屈折变化的,意思是词语可以通过变形来表达不同的含义: 数(Number): fox, foxes 时态( ...

  5. ElasticSearch 2 (22) - 语言处理系列之标记规范化

    ElasticSearch 2 (22) - 语言处理系列之标记规范化 摘要 将文本拆解成标记只是工作的一半.为了使这些标记更容易被搜索到,它们需要经过一个规范化的处理过程,以移除相同单词间不重要的差 ...

  6. ElasticSearch 2 (21) - 语言处理系列之单词识别

    ElasticSearch 2 (21) - 语言处理系列之单词识别 摘要 一个英语单词相对容易识别:因为英语单词是被空格或(某些)标点符号隔开的.但在英语中也有反例:you're 这个词是一个单词还 ...

  7. ElasticSearch 2 (20) - 语言处理系列之如何开始

    ElasticSearch 2 (20) - 语言处理系列之如何开始 摘要 Elasticsearch 配备了一组语言分析器,为世界上大多数常见的语言提供良好的现成基础支持. 阿拉伯语.亚美尼亚语,巴 ...

  8. ElasticSearch 2 (36) - 信息聚合系列之显著项

    ElasticSearch 2 (36) - 信息聚合系列之显著项 摘要 significant_terms(SigTerms)聚合与其他聚合都不相同.目前为止我们看到的所有聚合在本质上都是简单的数学 ...

  9. ElasticSearch 2 (18) - 深入搜索系列之控制相关度

    ElasticSearch 2 (18) - 深入搜索系列之控制相关度 摘要 处理结构化数据(比如:时间.数字.字符串.枚举)的数据库只需要检查一个文档(或行,在关系数据库)是否与查询匹配. 布尔是/ ...

随机推荐

  1. Monad、Actor与并发编程--基于线程与基于事件的并发编程之争

    将线程.事件.状态等包装成流的源. 核心:解决线程的消耗和锁的效率问题. Java和Node.js可以说分别是基于线程和基于事件的两个并发编程代表,它们互相指责瞧不起对方,让我们看看各种阵营的声音: ...

  2. BZOJ4919:[Lydsy1706月赛]大根堆(set启发式合并)

    Description 给定一棵n个节点的有根树,编号依次为1到n,其中1号点为根节点.每个点有一个权值v_i. 你需要将这棵树转化成一个大根堆.确切地说,你需要选择尽可能多的节点,满足大根堆的性质: ...

  3. Odoo附件传输

    转载请注明原文地址:https://www.cnblogs.com/cnodoo/p/9307319.html  一:odoo后端上传附件 odoo中的ir.attachment模型是附件模型,可以用 ...

  4. String----是一个对象

    * 字符串可以看成是字符组成的数组,但是js中没有字符类型 * 字符是一个一个的,在别的语言中字符用一对单引号括起来 * 在js中字符串可以使用单引号也可以使用双引号 * 因为字符串可以看成是数组,所 ...

  5. SQL必知必会摘要

    数据检索 2.2 检索单个列 SELECT prod_name FROM Products; SQL语句不区分大小写   2.3 检索多个列 SELECT prod_name,prod_id,prod ...

  6. Python基础(11)——反射、异常处理

    1.反射 以下均是对对象的操作,而不是对类 class Foo(object): def __init__(self): self.name = 'wupeiqi' def func(self): r ...

  7. 详细解读大数据分析引擎Pig&PigLatin语句

    Pig 一.Pig的介绍: Pig由Yahoo开发,主要应用于数据分析,Twitter公司大量使用Pig处理海量数据,Pig之所以是数据分析引擎,是因为Pig相当于一个翻译器,将PigLatin语句翻 ...

  8. 2《想成为黑客,不知道这些命令行可不行》(Learn Enough Command Line to Be Dangerous)——操作文件

    已经学习了基本的命令,现在是时候学习操作文件了,这也是命令行的重要任务.还是基于本教程的事先规定,本教程是入门级的,不要求熟悉类似编辑文本的程序(这些文本编辑程序,将在下个系列教程中介绍, Learn ...

  9. 20155217《网络对抗》Exp03 免杀原理与实践

    20155217<网络对抗>Exp03 免杀原理与实践 实践内容 正确使用msf编码器,msfvenom生成如jar之类的其他文件,veil-evasion,自己利用shellcode编程 ...

  10. 20155330 《网络攻防》 Exp3 免杀原理与实践

    20155330 <网络攻防> Exp3 免杀原理与实践 基础问题回答 杀软是如何检测出恶意代码的? 基于特征码.先对流行代码特征的提取,然后进行程序的比对,如果也检测到相应的特征码的程序 ...