在我们项目中,很多种情况都有一个大搜索,像下图右上角这种
很多时候。我们选择了用模糊查询匹配标题来实现,今天给大家介绍一个更专业的检索方式:Sphinx
Sphinx 单一 索引 最大可包含1亿条记录,在1千万条记录情况下的查询速度为0.x秒(毫秒级)。Sphinx创建索引的速度为:创建100万条记录的索引只需 3~4分钟,创建1000万条记录的索引可以在50分钟内完成,而只包含最新10万条记录的增量索引,重建一次只需几十秒。
就是这么神奇!!!你心动了吗?
1、 Sphinx是什么
Sphinx是由俄罗斯人Andrew Aksyonoff开发的基于SQL一个全文检索引擎。意图为其他应用提供高速、低空间占用、高结果 相关度的全文搜索功能。 可以结合 MySQL , PostgreSQL 做全文搜索,它可以提供比数据库本身更专业的搜索功能,使得应用程序更容易实现专业化的 全文检索 。Sphinx特别为一些脚本语言设计搜索API接口,如PHP,Python,Perl,Ruby等,同时为MySQL也设计了一个存储引擎插件。
2 Sphinx的特性
-
高速的建立索引(在当代CPU上,峰值性能可达到10 MB/秒);
-
高性能的搜索(在2 – 4GB 的文本数据上,平均每次检索响应时间小于0.1秒);
-
可处理海量数据(目前已知可以处理超过100 GB的文本数据, 在单一CPU的系统上可 处理100 M 文档);
-
提供了优秀的相关度算法,基于短语相似度和统计(BM25)的复合Ranking方法;
-
支持分布式搜索;
-
支持短语搜索
-
提供文档摘要生成
-
可作为MySQL的存储引擎提供搜索服务;
-
支持 布尔 、短语、词语相似度等多种检索模式;
-
文档支持多个全文检索字段(最大不超过32个);
-
文档支持多个额外的属性信息(例如:分组信息,时间戳等);
-
支持断词;
3、Sphinx中文分词
中文的全文检索和英文等latin系列不一样,后者是根据空格等特殊字符来断词,而中文是根据语义来分词。目前大多数数据库尚未支持中文全文检索,如Mysql。故,国内出现了一些Mysql的中文全文检索的插件,做的比较好的有hightman的中文分词。Sphinx如果需要对中文进行全文检索,也得需要一些插件来补充。其中我知道的插件有 coreseek 和 sfc 。
coreseek是现在用的最多的sphinx中文全文检索,它提供了为Sphinx设计的中文分词包 LibMMSeg 。并提供了多个系统的二进制发行版,其中有rpm,deb及windows下的二进制包。另外,coreseek也为sphinx贡献了以下事项:
-
GBK 编码的数据源支持
-
采用Chih-Hao Tsai MMSEG算法的中文分词器
-
中文使用手册(这份中文手册对国内使用sphinx新手——特别是英语不太好的人来说,提供了极大的便利)
-
sfc(sphinx-for-chinese) 是由网友happy兄提供的另外一个中文分词插件。其中文词典采用的是 xdict 。据其介绍,经过测试,目前版本在索引速度上(Linux 测试平台)基本上能够达到索引UTF-8英文的一半,即官方宣称速度的一半。(时间主要是消耗在分词上)。 现提供了与sphinx最新版(sphinx 0.9.10)同步的sphinx-for-chinese-0.9.10-dev-r2006.tar.gz 。此版本增加了sql_attr_string,经过本人的测试。其安装和配置都非常方便。happy兄在分词方面还有另外一个贡献——php-mmseg,这是php对中文分词的一个扩展库。
此外,如果你对中文分词不感兴趣。或者说仅需要实现类似sql中like的功能,如: select * from product where prodName like ‘%手机%’。sphinx也不会让你失望,这个或许就是官网对中文的简单实现——直接对字索引。并且搜索速度还不错^_^ 。
安装、配置过程。请大家自行查资料吧。在此我就不罗嗦了。
PHP+MYSQL+Sphinx 操作流程
简单的中文分词例子
Sphinx官网链接: