一般的网站都会有都会有搜索的功能,一般实现搜索主要有三种方案

第一种是最差的,也是最不推荐的,使用数据库的模糊查询例如select * form table where 字段 like XXX,这种查询的缺点很明显:

(1)       无法查找几个关键词不连在一起的情况

(2)       全表扫描 效率低下

第二种:使用SqlServer的全文本检索功能

举例:select * form table where msg = ‘江苏南京’

这是就可以写成select * form table where msg.contains(‘江苏南京’);

这样搜索出来的结果就可以既包含江苏也可以包含南京,并且匹配的速度也快,还可以实现分词。

缺点:

(1):只有正版的SqlServer才支持上面的技术

(2):数据库的分词不太灵活,不能自己修改词库

第三种:使用lucene.Net(本文重点讲解)

Lucene.Net只是一个全文检索开发包,不是一个成熟的搜索引擎,他的功能就是:将数据交给Lucene.Net,         查询数据的时候从Lucene.Net查询数据,可以看成是一个提供了全文检索功能的数据库,lucene.net只对文本信息进行检索,如果不是文本信息,要转换为文本信息。lucene会将扔给他的词切词保存,因为是保存的时候分词(切词),所以搜索速度非常快。

分词是搜索结果好坏的关键:

lucene不同的分词算法就是不同的类,所有的分词算法类都从Analyzer类继承,不同的分词算法有不同的优缺点。

例如:内置的StandardAnalyzer是将英文按照空格,标点符号等进行分词,讲中文按照单个字进行分词,一个汉字算一个词(就是所谓的一元分词)

二元分词:每两个汉字算一个单词,“欢迎你们大家”会分为“欢迎”,迎你,你们,们大,大家     要在网上下载一个二元分词的算法:CJKAnalyzer

基于词库的分词算法:基于一个词库进行分词,可以提高分词的成功率,有庖丁解牛,盘古分词等。效率低(相对于一元分词与二元分词)但准确度较高

注意:lucene.Net对汉语的分词效果不好,需要借助于第三方的分词算法:开源的盘古分词(可以在开源中国社区下载,里面有详细的Demo,以及dll文件)

编写代码如下(体验盘古分词):

中国开源社区下载Pangu分词forLucene

第一步:将WebDemo里的bin文件夹下的Dictionaries文件夹复制到项目的根目录下,然后改文件夹名为Dict并设置里面的内容的属性的如果较新则复制到输出目录

第二部:添加引用Lucene.net.dll文件和PanGu.Lucene.Analyzer.dll文件

Analyzer analyzer = new Lucene.Net.Analysis.PanGu.PanGuAnalyzer();

TokenStream tokenStream = analyzer.TokenStream("", new System.IO.StringReader("北京,Hi欢迎你们大家"));

Lucene.Net.Analysis.Token token = null;

while ((token = tokenStream.Next()) != null)

{

ListBox1.Items.Add(token.TermText());

}

既然是分词,那就肯定有词库,有词库就可以修改,使用刚才的Bin文件夹下的PanGu.Lucene.ImportTool.exe文件打开词库修改词库的内容,就可以实现最新的分词效果。

可以理解为:

先建立一个索引系统,然后打开索引系统,使用lucene的IndexWriter类向里面写入索引(document对象),该对象从盘古分词对已有的文章的分词得到

 
 
 
 

基本思想如上图

lucene+PanGu

建立lucene词库:(将数据交给lucene,使用Pangu分词),并实现搜索的功能(第二段代码)

 protected void Button4_Click(object sender, EventArgs e)
{
string indexPath = Server.MapPath(@"/Demo/lucenedir");//注意和磁盘上文件夹的大小写一致,否则会报错。将创建的分词内容放在该目录下。 //指定索引文件(打开索引目录) FS指的是就是FileSystem 我的理解:索引系统
FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NativeFSLockFactory()); //IndexReader:对索引进行读取的类。该语句的作用:判断索引库文件夹是否存在以及索引特征文件是否存在。
bool isUpdate = IndexReader.IndexExists(directory);
if (isUpdate)
{
//同时只能有一段代码对索引库进行写操作。当使用IndexWriter打开directory时会自动对索引库文件上锁。
//如果索引目录被锁定(比如索引过程中程序异常退出),则首先解锁
//(提示一下:如果我现在正在写着已经加锁了,但是还没有写完,这时候又来一个请求,那么不就解锁了吗?这个问题后面会解决)
if (IndexWriter.IsLocked(directory))
{
IndexWriter.Unlock(directory);
}
} //向索引库中写索引。这时在这里加锁。
IndexWriter writer = new IndexWriter(directory, new PanGuAnalyzer(), !isUpdate, Lucene.Net.Index.IndexWriter.MaxFieldLength.UNLIMITED);
for (int i = ; i <= ; i++)
{
string txt = File.ReadAllText(Server.MapPath(@"/Demo/测试文件/" + i + ".txt"), System.Text.Encoding.Default);//注意这个地方的编码
Document document = new Document();//表示一篇文档。
//Field.Store.YES:表示是否存储原值。只有当Field.Store.YES在后面才能用doc.Get("number")取出值来.Field.Index. NOT_ANALYZED:不进行分词保存
document.Add(new Field("number", i.ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED)); //Field.Index. ANALYZED:进行分词保存:也就是要进行全文的字段要设置分词 保存(因为要进行模糊查询) //Lucene.Net.Documents.Field.TermVector.WITH_POSITIONS_OFFSETS:不仅保存分词还保存分词的距离。
document.Add(new Field("body", txt, Field.Store.YES, Field.Index.ANALYZED, Lucene.Net.Documents.Field.TermVector.WITH_POSITIONS_OFFSETS));
writer.AddDocument(document); }
writer.Close();//会自动解锁。
directory.Close();//不要忘了Close,否则索引结果搜不到
}
 protected void Button5_Click(object sender, EventArgs e)
{
//创建的分词的内容所存放的目录
string indexPath = Server.MapPath(@"/Demo/lucenedir"); ;
string kw = "C#";
kw = kw.ToLower(); FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NoLockFactory());
IndexReader reader = IndexReader.Open(directory, true);
IndexSearcher searcher = new IndexSearcher(reader); //搜索条件
PhraseQuery query = new PhraseQuery();
//foreach (string word in kw.Split(' '))//先用空格,让用户去分词,空格分隔的就是词“计算机 专业”
//{
// query.Add(new Term("body", word));
//}
//query.Add(new Term("body","语言"));--可以添加查询条件,两者是add关系.顺序没有关系.
// query.Add(new Term("body", "大学生"));
query.Add(new Term("body", kw));//body中含有kw的文章
query.SetSlop();//多个查询条件的词之间的最大距离.在文章中相隔太远 也就无意义.(例如 “大学生”这个查询条件和"简历"这个查询条件之间如果间隔的词太多也就没有意义了。)
//TopScoreDocCollector是盛放查询结果的容器
TopScoreDocCollector collector = TopScoreDocCollector.create(, true);
searcher.Search(query, null, collector);//根据query查询条件进行查询,查询结果放入collector容器 //得到所有查询结果中的文档,GetTotalHits():表示总条数 TopDocs(300, 20);//表示得到300(从300开始),到320(结束)的文档内容.
//可以用来实现分页功能
ScoreDoc[] docs = collector.TopDocs(, collector.GetTotalHits()).scoreDocs;
this.ListBox1.Items.Clear();
for (int i = ; i < docs.Length; i++)
{
//搜索ScoreDoc[]只能获得文档的id,这样不会把查询结果的Document一次性加载到内存中。
//降低了内存压力,需要获得文档的详细内容的时候通过searcher.Doc来根据文档id来获得文档的详细内容对象Document.
//得到查询结果文档的id(Lucene内部分配的id)
int docId = docs[i].doc; //找到文档id对应的文档详细信息
Document doc = searcher.Doc(docId); // 取出放进字段的值
this.ListBox1.Items.Add(doc.Get("number") + "\n");
this.ListBox1.Items.Add(doc.Get("body") + "\n");
this.ListBox1.Items.Add("-----------------------\n");
}
}

注意事项:搜索的时候是区分大小写的,要想不区分,可以在建立词库的时候直接将所有的词都转换为大写或小写的,搜索的时候做出相应的转换即可

lucene+盘古分词的更多相关文章

  1. 站内搜索——Lucene +盘古分词

    为了方便的学习站内搜索,下面我来演示一个MVC项目. 1.首先在项目中[添加引入]三个程序集和[Dict]文件夹,并新建一个[分词内容存放目录] Lucene.Net.dll.PanGu.dll.Pa ...

  2. 【原创】Lucene.Net+盘古分词器(详细介绍)

    本章阅读概要 1.Lucenne.Net简介 2.介绍盘古分词器 3.Lucene.Net实例分析 4.结束语(Demo下载) Lucene.Net简介 Lucene.net是Lucene的.net移 ...

  3. Lucene.Net+盘古分词->开发自己的搜索引擎

    //封装类 using System;using System.Collections.Generic;using System.Linq;using System.Web;using Lucene. ...

  4. Lucene.net 全文检索 盘古分词

    lucene.net + 盘古分词 引用: 1.Lucene.Net.dll 2.PanGu.Lucene.Analyzer.dll 3.PanGu.HighLight.dll 4.PanGu.dll ...

  5. Lucene.Net+盘古分词器(详细介绍)(转)

    出处:http://www.cnblogs.com/magicchaiy/archive/2013/06/07/LuceneNet%E7%9B%98%E5%8F%A4%E5%88%86%E8%AF%8 ...

  6. Lucene.net入门学习(结合盘古分词)

    Lucene简介 Lucene是apache软件基金会4 jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包,即它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整 ...

  7. lucene.net helper类 【结合盘古分词进行搜索的小例子(分页功能)】

      转自:http://blog.csdn.net/pukuimin1226/article/details/17558247 添加:2013-12-25 更新:2013-12-26 新增分页功能. ...

  8. Lucene.Net+盘古分词

    前言 各位朋友,谢谢大家的支持,由于文件过大,有考虑到版权的问题,故没有提供下载,本人已建立一个搜索技术交流群:77570783,源代码已上传至群共享,需要的朋友,请自行下载! 首先自问自答几个问题, ...

  9. 完整的站内搜索Demo(Lucene.Net+盘古分词)

    前言 首先自问自答几个问题,以让各位看官了解写此文的目的 什么是站内搜索?与一般搜索的区别? 很多网站都有搜索功能,很多都是用SQL语句的Like实现的,但是Like无法做到模糊匹配(例如我搜索“.n ...

随机推荐

  1. ubuntu下nvm,node以及npm的安装与使用

    一:安装nvm 首先下载nvm,这里我们需要使用git,如果没有安装git,可以使用 sudo apt-get install git 来安装 git clone https://github.com ...

  2. sqlserver 2008 局域网跨服务器T-SQL操作(二)

    --判断是否开启远程操作服务,如果关闭,则开启,用完之后关闭 DECLARE @value SQL_VARIANT SELECT @value=VALUE from sys.configuration ...

  3. JavaScript Set Cursor Style

    <!DOCTYPE html> <html> <head> <meta charset="ISO-8859-1"> <titl ...

  4. 【IOS学习基础】内存管理

    1.内存几大区域 1> 栈区:局部变量(基本数据类型.指针变量). 2> 堆区:程序运行的过程中动态分配的存储空间(创建的对象). 3> BSS段:没有初始化的全局变量和静态变量. ...

  5. Hadoop学习资料收集

    1.漫画HDFS工作原理  http://blog.csdn.net/netcoder/article/details/7442779 2.马哥教育 http://mageedu.blog.51cto ...

  6. AOP面试遇到的问题

    1.什么是AOP? 面向切面的编程,找出纸和笔,画一个箭头,两道竖线将这个箭头砍断,这就是AOP 举例来说,某个方法正在运行呢,要想在前面加个日志,加在这里,后面加个日志,加在这里,前面加transa ...

  7. 指定端口号,多线程扫描局域网内IP地址

    小白第一次发博客,请各路大神不要喷,有错的地方还请不吝啬指教,谢谢....... 因为注释基本上已经说清楚啦,在这里就不多说什么啦,知识不够怕误人子弟 # -*- coding:utf-8 -*-im ...

  8. sql server 2008 索引

    微软的SQL SERVER提供了两种索引:聚集索引(clustered index,也称聚类索引.簇集索引)和非聚集索引(nonclustered index,也称非聚类索引.非簇集索引) 我们举例来 ...

  9. 谈谈ILDasm的功能限制与解除

    原文:谈谈ILDasm的功能限制与解除 首先,我在此申明,此文并不是教别人突破限制,我们只是用学习的眼光看问题 大家都知道ILDasm是.NET程序的反编译工具,它是由Microsoft提供的反编译工 ...

  10. 支持SMTP邮箱介绍

    126邮箱:POP:POP.126.comSMTP:SMTP.126.comhttp://mail.126.com/help/client_04.htm 163邮箱:POP:pop.163.comSM ...