Haystack是django的开源全文搜索框架(全文检索不同于特定字段的模糊查询,使用全文检索的效率更高 ),该框架支持Solr,Elasticsearch,Whoosh, **Xapian搜索引擎它是一个可插拔的后端(很像Django的数据库层),所以几乎你所有写的代码都可以在不同搜索引擎之间便捷切换。全文检索不同于特定字段的模糊查询,使用全文检索的效率更高,并且能够对于中文进行分词处理。
haystack:django 的一个包,可以方便地对 model 里面的内容进行索引、搜索,设计为支持 whoosh,solr,Xapian,Elasticsearc 四种全文检索引擎后端,属于一种全文检索的框架
whoosh:纯Python编写的全文搜索引擎,虽然性能比不上sphinx、xapian、Elasticsearc等,但是无二进制包,程序不会莫名其妙的崩溃,对于小型的站点,whoosh已经足够使用
jieba 分词 :一款免费的中文分词包,-加强 haystack 的中文分词力度。
安装python包:
# 使用清华的镜像安装速度更快 pip install django-haystack=2.7.0 -i https://pypi.tuna.tsinghua.edu.cn/simple pip install whoosh -i https://pypi.tuna.tsinghua.edu.cn/simple
将 Haystack 添加到 settings.py 中
INSTALLED_APPS = [ # 添加 'haystack', ]
接着增加全文检索框架
# 全文检索框架 HAYSTACK_ConNECTIONS = { 'default': { 'ENGINE': 'haystack.backends.whoosh_backend.WhooshEngine', 'PATH': os.path.join(base_DIR, 'whoosh_index'), }, } # 自动更新索引 HAYSTACK_SIGNAL_PROCESSOR = 'haystack.signals.RealtimeSignalProcessor'
建立索引
如果想针对某个app例如我的article做全文检索,则必须在article的目录下面建立search_indexes.py文件,文件名不能修改
from haystack import indexes from .models import Article class ArticleIndex(indexes.SearchIndex, indexes.Indexable): # 类名必须为需要检索的Model_name+Index,这里需要检索Article,所以创建ArticleIndex # use_template根据哪些字段建立索引,将说明放入一个文件中 # document=True 说明text是索引字段 text = indexes.CharField(document=True, use_template=True) # 创建一个text字段 def get_model(self): # 重载get_model方法,必须要有! return Article # 建立索引的数据 def index_queryset(self, using=None): return self.get_model().objects.all()索引就像是一本书的目录,可以为读者提供更快速的导航与查找。在这里也是同样的道理,当数据量非常大的时候,若要从这些数据里找出所有的满足搜索条件的几乎是不太可能的,将会给服务器带来极大的负担。所以我们需要为指定的数据添加一个索引(目录)。
在目录 “templates/search/indexes/ 应用名称 /” 下创建 “ 模型类名称 _text.txt” 文件 例如: templates/search/indexes/article/article_text.txt, 添加 title,desc,content 字段添加索引
# 随机挑选几个 {{ object.title }} {{ object.desc }} {{ object.content }}
运行 python manage.py rebuild_index 建立索引
会看到生成三个文件
接着建立搜索表单 在templates的search目录下建立search.html文件
Title {{ query }} {% for item in page %} {{ item.object.id }} - {{ item.object.title }} - {{ item.object.author }} - {{ item.object.desc }}
{% endfor %}
启动服务器后在浏览器中输入 http://127.0.0.1:8000/search/?q=XXX XXX是要搜索的关键字
这个可不能乱输入,要看数据库里面有没有
为了提高搜索期望,我们使用结巴分词会好一点。
结巴库也常用python词云应用,这里不过多阐述。
# 安装结巴库 pip install jieba
修改默认分词方式:在你自己的 haystack 的安装文件夹下建立 ChineseAnalyzer.py 文件
(可以从pycharm的环境中看到,下面的路径是我自己的)
反正要从 Libsite-packageshaystack进去
D:Program Files (x86)pythonmycodingpython-djangodjangoblogvenvLibsite-packageshaystack
# ChineseAnalyzer.py import jieba from whoosh.analysis import Tokenizer, Token class ChineseTokenizer(Tokenizer): def __call__(self, value, positions=False, chars=False, keeporiginal=False, removestops=True, start_pos=0, start_char=0, mode='', **kwargs): t = Token(positions, chars, removestops=removestops, mode=mode, **kwargs) seglist = jieba.cut(value, cut_all=True) for w in seglist: t.original = t.text = w t.boost = 1.0 if positions: t.pos = start_pos + value.find(w) if chars: t.startchar = start_char + value.find(w) t.endchar = start_char + value.find(w) + len(w) yield t def ChineseAnalyzer(): return ChineseTokenizer()
#复制whoosh_backend.py文件,改名为whoosh_cn_backend.py
#注意:复制出来的文件名,末尾会有一个空格,记得要删除这个空格
打开 whoosh_cn_backend.py 大约是47行添加
from .ChineseAnalyzer import ChineseAnalyzer
查找 analyzer=StemmingAnalyzer() 大概在164行
改为 analyzer=ChineseAnalyzer()
返回项目的settings.py文件下 修改ENGINE
HAYSTACK_ConNECTIONS = { 'default': { 'ENGINE': 'haystack.backends.whoosh_cn_backend.WhooshEngine', 'PATH': os.path.join(base_DIR, 'whoosh_index'), }, }
重新执行:python manage.py rebuild_index 重新生成索引 跳出来询问直接:Y
看到 jieba.cache 就是成功了
现在去测试一下
关键词:月饼 id:6 测试期望符合
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)