您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene 3.6 学习笔记

  2. 目录 序言: 1 第一章 LUCENE基础 2 1.1 索引部分的核心类 2 1.2 分词部分的核心类 2 1.3 搜索部分的核心类 2 第二章 索引建立 3 2.1 创建Directory 3 2.2 创建Writer 3 2.3 创建文档并且添加索引 4 2.4 查询索引的基本信息 5 2.5 删除和更新索引 5 (1) 使用writer删除 5 (2) 使用reader删除 5 (3) 恢复删除 5 (4) 彻底删除 6 (5) 更新索引 6 (6) 手动优化 6 2.6 索引文件作用
  3. 所属分类:Java

    • 发布日期:2014-08-05
    • 文件大小:2097152
    • 提供者:yiwangxianshi
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. 使用IK Analyzer实现中文分词之Java实现(包含所有工具包)

  2. 1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5、IkSegmentation.java(样例类)
  3. 所属分类:Java

    • 发布日期:2015-03-30
    • 文件大小:3145728
    • 提供者:luozhipeng2011
  1. 使用IK Analyzer实现中文分词之Java实现

  2. 1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5.IkSegmentation.java(示例代码)
  3. 所属分类:Java

    • 发布日期:2015-03-30
    • 文件大小:3145728
    • 提供者:luozhipeng2011
  1. solr6.2完整版

  2. 是一个tomcat和solrhome的压缩包,下载后只需要修改一下apache-tomcat-8.5.6\webapps\solr\WEB-INF\web.xml里面的第43行D:\solrhome,将目录修改成你自己用来存放solrhome文件夹的路径即可,需要注意的是,jdk要求1.8,内部以集成ik分词器,fiel为text_ik
  3. 所属分类:Web服务器

    • 发布日期:2017-03-09
    • 文件大小:51380224
    • 提供者:debushiwo
  1. Es5.6.1版本的所有总结V2.0

  2. es从基本介绍,安装部署,java api使用,分词器的介绍,等等,建议用notepad++看格式更好,
  3. 所属分类:Java

    • 发布日期:2017-10-12
    • 文件大小:18432
    • 提供者:li_work
  1. solr-6.5.1

  2. 本资源包含: ik-analyzer-solr5-5.x.jar 分词器 pinyinAnalyzer.jar 分词器 solr-6.5.1.tgz solr-6.5.1.zip solr教程.pdf Solr-学习笔记.pdf
  3. 所属分类:Java

    • 发布日期:2017-10-28
    • 文件大小:310378496
    • 提供者:duguxingfeng
  1. elasticsearch-analysis-ik-5.6.4.zip

  2. elasticsearch-analysis-ik-5.6.4.zip es中大名鼎鼎的ik分词器 The IK Analysis plugin integrates Lucene IK analyzer (http://code.google.com/p/ik-analyzer/) into elasticsearch, support customized dictionary.
  3. 所属分类:其它

    • 发布日期:2017-11-18
    • 文件大小:4194304
    • 提供者:shannonlee
  1. 针对Solr6.6.0的IK分词器

  2. 包含ik-analyzer-solr5-5.x.jar、solr-analyzer-ik-5.1.0.jar、ext.dic、IKAnalyzer.cfg.xml、stopword.dic
  3. 所属分类:其它

    • 发布日期:2018-03-15
    • 文件大小:1048576
    • 提供者:u011035026
  1. Ikik-analyzer-solr-6.5.1

  2. Ikik-analyzer-solr-6.5.1 中文分词器6.5.1,最高支持到lucene6.5.1版本
  3. 所属分类:Java

    • 发布日期:2018-04-22
    • 文件大小:1048576
    • 提供者:yuruixin_china
  1. lucene检索实例代码,自己总结的非常详细

  2. 文档中包含Lucene4.0.0版本jar包,中文分词器jar包,Lucene实例代码 1:建立索引 2:各种搜索方式方法 3:删除索引 4:检查索引文件 5:恢复删除的索引 6:强制删除 7:更新索引 8:合并索引 9:高亮回显 供大家参考学习 public static void main(String[] args) { LuceneUtil luceneUtil = new LuceneUtil(); // 创建索引 // luceneUtil.index(); // 搜索 lucen
  3. 所属分类:Java

    • 发布日期:2018-07-13
    • 文件大小:62914560
    • 提供者:run65536
  1. solr中文分词高版本

  2. 由于网上提供的solr中文分词器大多不吃吃6.5以上,会报错(具体错误提示忘了),这里提供高版本,内含使用教程
  3. 所属分类:Java

    • 发布日期:2018-08-29
    • 文件大小:1048576
    • 提供者:yugehasaki666
  1. elasticsearch-ik-6.5.4

  2. elasticsearch-ik 当前使用比较广泛的中文分词器 对应 es-6.5.4
  3. 所属分类:Java

    • 发布日期:2019-01-08
    • 文件大小:3145728
    • 提供者:weixin_42247563
  1. es5.6.8ik分词器.zip

  2. 官网连接不上,借用CSDN的平台分享给大家,elasticsearch-5.6.8.tar.gz对应的IK分词器
  3. 所属分类:平台管理

    • 发布日期:2020-05-12
    • 文件大小:4194304
    • 提供者:shang741815151
  1. 6.8.5IK分词器

  2. 1.IK分词器安装包,直接放在ES的plugins文件夹下解压就可以使用。如果需要配置自定义词典,将自己的.dic文件放在IK解压后的config即可,同时在IKAnalyzer.cfg.xml添加扩展词典或自定义的停词词典用英文分号(;)分隔即可(如:test.dic;extra_single_word_low_freq.dic)。 2.如果使用远程词库,在远程sever放置.txt自定义分词文件,使用http://ip:端口号/文件名.txt配置即可,远程停词文件配置再中。 注:这里存放
  3. 所属分类:Java

    • 发布日期:2020-03-17
    • 文件大小:4194304
    • 提供者:Tomcat_wr8
  1. elasticsearch-6.5.4.tar.gz elasticsearch-analysis-ik-6.5.4 (1).zip

  2. elasticsearch-6.5.4.tar.gz elasticsearch-analysis-ik-6.5.4 (1).zip es linux安装包及ik分词器插件 打包 elasticsearch-6.5.4.tar.gz elasticsearch-analysis-ik-6.5.4 (1).zip es linux安装包及ik分词器插件 打包
  3. 所属分类:互联网

    • 发布日期:2020-06-26
    • 文件大小:117440512
    • 提供者:zhangxm_qz
  1. ik分词器6.5.4[解压再安装].tar

  2. elasticsearch-analysis-ik-6.5.4.zip, IK分词器, 跟ES版本保持一致6.5.4
  3. 所属分类:算法与数据结构

    • 发布日期:2020-07-18
    • 文件大小:4194304
    • 提供者:qq_15036079
  1. Elasticsearch 6.5.4全套(windows版)

  2. 包含6.5.4版Elasticsearch(zip包) ,kibana客户端 , IK分词器 ,logstash同步数据库工具,数据库连接jar(8.0版)
  3. 所属分类:其它

  1. Mysql实现全文检索、关键词跑分的方法实例

  2. 一、前言 今天一个同事问我,如何使用 Mysql 实现类似于 ElasticSearch 的全文检索功能,并且对检索关键词跑分?我当时脑子里立马产生了疑问?为啥不直接用es呢?简单好用还贼快。但是听他说,数据量不多,客户给的时间非常有限,根本没时间去搭建es,所以还是看一下 Mysql 的全文检索功能吧! MySQL 从 5.7.6 版本开始,MySQL就内置了ngram全文解析器,用来支持中文、日文、韩文分词。在 MySQL 5.7.6 版本之前,全文索引只支持英文全文索引,不支持中文全文索引
  3. 所属分类:其它

    • 发布日期:2020-12-14
    • 文件大小:233472
    • 提供者:weixin_38597889
  1. 如何在docker容器内部安装kibana分词器

  2. 步骤: 1.在虚拟机目录下新建docker-compose.yml文件,然后进入yml文件编辑 vi docker-compose.yml 2.在yml文件中添加如下代码: version: 3.1 services: elasticsearch: image: daocloud.io/library/elasticsearch:6.5.4 restart: always container_name: elasticsearch ports: - 9200:920
  3. 所属分类:其它

    • 发布日期:2021-01-08
    • 文件大小:40960
    • 提供者:weixin_38620267
« 12 3 4 5 6 7 8 »