您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. php 中文分词程序

  2. 包含中文分词程序 与中文分词库 配置方法请看官方网站
  3. 所属分类:PHP

    • 发布日期:2009-06-24
    • 文件大小:3145728
    • 提供者:tangdayun
  1. BIWEB5.8商务智能建站系统

  2. BIWEB商务智能网站系统是依托在ArthurXF企业应用级PHP开发框架上的大型网站系统,是由上海网务网络信息有限公司经历了5年不断的在各种大型项目中实践、总结、开发设计出来的一个快速开发、简单易用的面向对象的企业应用级PHP MVC建站系统。现由上海网务公司开源发布,共同促进行业发展。BIWEB的设计初衷就是为了简化企业级各种基于WEB应用程序的开发,针对各种大中型企业应用级web项目,有着各种优化手段,能让服务器硬件性能提升到最大化应用。BIWEB建站系统集合了网站SEO、链接优化、数据
  3. 所属分类:Web开发

    • 发布日期:2009-07-28
    • 文件大小:13631488
    • 提供者:lvseshengming47
  1. BIWEB商务智能网站系统 v5.8.1

  2. BIWEB商务智能网站系统是依托在ArthurXF企业应用级PHP开发框架上的大型网站系统,是由上海网务网络信息有限公司经历了5年不断的在各种大型项目中实践、总结、开发设计出来的一个快速开发、简单易用的面向对象的企业应用级PHPMVC建站系统。现由上海网务公司开源发布,共同促进行业发展。BIWEB的设计初衷就是为了简化企业级各种基于WEB应用程序的开发,针对各种大中型企业应用级web项目,有着各种优化手段,能让服务器硬件性能提升到最大化应用。BIWEB建站系统集合了网站SEO、链接优化、数据分
  3. 所属分类:Web开发

    • 发布日期:2009-09-07
    • 文件大小:8388608
    • 提供者:lxg160
  1. php中方分词DEMO

  2. 这个程序是用于PHP最简易的中文词语划分和词性标注,小弟最近在做这方面的研究,苦于没有合适的PHP分词软件,而ICTCLAS或PCSWS不懂如何加载,终于让小弟找到一款这样的软件,与大家共享。本DEMO来自IT柏拉图的个人博客,网址为http://www.itgrass.com/phpanalysis/?ac=done。感谢大神啊!只用于学习和交流,严禁商业用途。
  3. 所属分类:PHP

    • 发布日期:2010-03-25
    • 文件大小:4194304
    • 提供者:wu474046308
  1. php 中文分词程序 分词算法

  2. 中文分词 php 分词 搜索引擎 搜索算法
  3. 所属分类:其它

  1. PHP中文分词程序 非常优秀特此推荐

  2. 中文切词,非常优秀特此推荐。是目前分词效率较高的算法-Chinese segmentation, hereby commend outstanding. Segmentation is more efficient algorithm
  3. 所属分类:其它

    • 发布日期:2011-08-01
    • 文件大小:708608
    • 提供者:suc88jp
  1. Sphinx实时索引最新版

  2. Sphinx是一个基于SQL的全文检索引擎,可以结合MySQL,PostgreSQL做全文搜索,它可以提供比数据库本身更专业的搜索功能,使得应用程序更容易实现专业化的全文检索。Sphinx特别为一些脚本语言设计搜索API接口,如PHP,Python,Perl,Ruby等,同时为MySQL也设计了一个存储引擎插件。 Sphinx 单一索引最大可包含1亿条记录,在1千万条记录情况下的查询速度为0.x秒(毫秒级)。Sphinx创建索引的速度为:创建100万条记录的索引只需 3~4分钟,创建1000万
  3. 所属分类:其它

    • 发布日期:2012-09-29
    • 文件大小:3145728
    • 提供者:xuneng_123
  1. jcseg java中文分词

  2. friso是使用c语言开发的一个中文分词器,使用流行的mmseg算法实现。完全基于模块化设计和实现,可以很方便的植入到其他程序中,例如:MySQL,PHP等。
  3. 所属分类:C

    • 发布日期:2013-01-04
    • 文件大小:861184
    • 提供者:yangjian8801
  1. 高级语言程序设计PPT

  2. 实验一:随机抽样 (基于PHP的随便菜单为例) 实验二:信息采集(基于PHP的网页信息采集与抽取) 实验三:信息共享(基于MYSQL数据的信息共享,以移动通讯录为例) 实验四:条形码技术(基于PHP生成二维码) 实验五:中文分词(正向最长匹配、正向最小匹配、词首分词、IK分词组件、中科院分词组件) 实验六:信息集成(以天气预报为例)
  3. 所属分类:Android

    • 发布日期:2014-04-29
    • 文件大小:985088
    • 提供者:kyasky
  1. php搜索引擎中文分词例子

  2. 说明:本技术用于搜索引擎中文分词 程序使用自建词库,存储15多万(免费版10万左右)词,未压缩词库仅1.13M 程序自动过滤了诸如:█♀♂卍※ 平均每个词查找词库次数为2 使用分词类中的add_word方法可以很轻易扩展词库,稍加扩展可使程序具有学习功能 程序未对RMM和MM分词进行结果组合与筛选
  3. 所属分类:PHP

    • 发布日期:2008-10-17
    • 文件大小:699392
    • 提供者:yaosky
  1. friso中文分词1.6版

  2. friso是使用c语言开发的一个开源的中文分词器,使用流行的mmseg算法实现。完全基于模块化设计和实现,可以很方便的植入到其他程序中,例如:MySQL,PHP等。
  3. 所属分类:C

    • 发布日期:2014-06-11
    • 文件大小:2097152
    • 提供者:u013226064
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

    • 发布日期:2018-10-11
    • 文件大小:1048576
    • 提供者:weixin_43387663
  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:2097152
    • 提供者:weixin_39841365
  1. BIWEB WMS PHP开源企业建站系统 v5.8.5.rar

  2. BIWEB WMS 企业版升级啦!!!现推出中英文双语版,并可以完美支持中文繁简转换。 该系统需要PHP5以上版本,并要开启PDO和PDO_MYSQL组件,否则无法使用。 BIWEB V5.8.5启用了新的底层框架,共享内存缓存的应用,是新底层的一大特色,大家可以下载来体验一下。 5.8.5更新: 1.更新了底层数据库缓存的算法,由2个字符一层目录生成的缓存存放路径,循环8次就停止了。 2.更新了更新缓存文件函数updateCache,加入了更新数据库缓存的部分。 3.更新了删除数据函数del
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:13631488
    • 提供者:weixin_39840515
  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串
  3. 所属分类:其它

    • 发布日期:2019-07-07
    • 文件大小:2097152
    • 提供者:weixin_39840588
  1. 快速构建PHP全文检索——马明练

  2. 信息检索,全文检索,IR基础,反向索引,同步机制,批量处理检索比较 全文检索数据库LKE 索引使用事先建好的全文索引用不到索引,只能遍历匹配 % eight%也会匹配 height 匹配效笑/通过分词器切割匹配,良好\9m%me就不能匹配颠 支持中文、英文词干 倒的ⅹx.net. XXX. COm 相关度基于概率模型的相关性算无相关算法,匹配一次或多次 法,越相关的排在越前面 无明显区别 可定制通过定制分词器,实现不同 索引规则 难以定制 结论支持大数据,性能高效果好/效率低,相关性差,模糊检索
  3. 所属分类:PHP

    • 发布日期:2019-03-04
    • 文件大小:1048576
    • 提供者:danyidanfei
  1. Friso中文分词器 v1.6.4

  2. 为您提供Friso中文分词器下载,Friso 是使用 c 语言开发的一款开源的高性能中文分词器,使用流行的mmseg算法实现。完全基于模块化设计和实现,可以很方便的植入其他程序中, 例如:MySQL,PHP,并且提供了php5,php7,ocaml,lua的插件实现。源码无需修改就能在各种平台下编译使用,加载完 20 万的词条,内存占用稳定为 14.5M。Friso核心功能:中文分词:mmseg算法 + Friso 独创的优化算法
  3. 所属分类:其它

    • 发布日期:2020-11-25
    • 文件大小:1048576
    • 提供者:weixin_38675341
  1. scws:开源免费的简易中文分词系统,PHP分词的上乘之选!-源码

  2. SCWS的自述文件 $ Id $ SCWS简介 是Simple Chinese Word Segmentation的首字母缩写(即:简易中文分词系统)。这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分开的词。词是中文的最小语素单位,但在书写时并不像英语会在词之间用间隔分开,所以如何准确并快速分词一直是中文分词的攻关难点。 SCWS采用纯C语言开发,不依赖任何外部库函数,可直接使用动态链接库嵌入应用程序,支持的中文编码包括GBK , UTF-8等。几乎还提供了扩展模
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:7340032
    • 提供者:weixin_42181545
  1. friso:高性能中文令牌生成器,基于ANSI C开发的MMSEG算法,同时支持GBK和UTF-8字符集。完全基于模块化实现,可以轻松嵌入其他程序中,例如:MySQL,PostgreSQL,PHP等-源码

  2. Friso是什么? Friso是使用c语言开发的一种开源的高级中文分词器,使用流行的mmseg算法实现。完全基于建模设计和实现,可以很方便的植入其他程序中,例如:MySQL,PHP,并提供无需修改即可在各种平台下编译使用,加载完20万的词条,内存占用稳定为14.5M。 Friso核心功能: 中文分词:mmseg算法+ Friso独创的优化算法,各种切分模式。 关键字提取:基于textRank算法。 关键语法提取:基于textRank算法。 关键句子提取:基于textRank算法。 Friso中
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:1048576
    • 提供者:weixin_42133899
  1. 开源php中文分词系统SCWS安装和使用实例

  2. 一、SCWS简介 SCWS 是 Simple Chinese Word Segmentation 的首字母缩写(即:简易中文分词系统)。这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。SCWS 采用纯 C 语言开发,不依赖任何外部库函数,可直接使用动态链接库嵌入应用程序, 支持的中文编码包括 GBK、UTF-8 等。此外还提供了 PHP 扩展模
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:63488
    • 提供者:weixin_38581405
« 12 »