点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 、分词
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Lucene中文分词器包
来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
所属分类:
其它
发布日期:2007-08-14
文件大小:873472
提供者:
linliangyi2006
JE中文分词je-analysis-1.5.1.jar
1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
所属分类:
其它
发布日期:2009-04-28
文件大小:891904
提供者:
tiancen2001
支持lucene的词典机械中文分词
采用反向机械分词算法。 对数字、英文进行特别的处理。 支持中英文数字混合词的处理。 分词速度快。
所属分类:
其它
发布日期:2009-05-14
文件大小:18432
提供者:
wolffool
C++中文分词+自动标引范例
1、合并使用停用词表和关键词表作为分词词表,应用逆向最长匹配法对所有篇名分词,给出每条篇名对应的分词结果。在屏幕上显示篇名序号、篇名、分词结果。 2、去除停用词(显示在屏幕上)。 3、利用tfx词频加权公式,计算各词的权重,在屏幕上显示每条篇名中各词的权重。 4、根据输入的阈值,确定标引词,并在屏幕上显示标引词。 5、根据输入的标引深度,确定标引词,并在屏幕上显示标引词。
所属分类:
C++
发布日期:2009-12-10
文件大小:956416
提供者:
xutaozero21
MFC查词典、分词、词频统计程序
MFC查词典、分词、词频统计程序,可用!
所属分类:
C++
发布日期:2010-02-03
文件大小:931840
提供者:
lgj8617
中科院分词器ICTCLAS
中科院语义分词 ICTCLAS 中科院官方于2009年2月19日发布了中科院中文分词器ICTCLAS2009版,转引官方介绍说明,新版本的中文分词系统在原有的基础上主要完善的有: 1、用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 2、分词粒度可调 可以控制分词结果的粒度。共享版本提供两种分词粒度,标准粒度和粗粒度,满足不同用户的需求。 3、词性标注功能加强 多种标注级的选择,系统可供选择的标注级有:计算所一级标注级,计算所二级标注集,北大
所属分类:
Web开发
发布日期:2012-03-08
文件大小:2097152
提供者:
abing79
搜索引擎solr环境配置、分词及索引操作
搜索引擎solr环境配置、分词及索引操作
所属分类:
Java
发布日期:2012-04-09
文件大小:224256
提供者:
woshi90sunshan
中文分词服务器3.3
软件名称:百万商业圈简易中文分词服务器 作者:百万商业圈 版本:3.2(目前最新单线程服务器版,支持并发) 具体使用时可将 bwsyq.com.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:bwsyq fenci service and serve 0.1 (百万商业圈中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时
所属分类:
其它
发布日期:2013-09-02
文件大小:6291456
提供者:
yefengying
织梦分词库
网站建设必备关键字词库,内包含10万条关键词、分词,每行一个,通用csv格式
所属分类:
PHP
发布日期:2014-05-23
文件大小:676864
提供者:
wang27lei
基于cygwin平台的检索分词实验
基于cygwin平台的检索分词实验
所属分类:
其它
发布日期:2014-10-26
文件大小:2048
提供者:
hey_ya
藏拙简易中文分词服务器源代码及词库
软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
所属分类:
Web开发
发布日期:2009-02-18
文件大小:1048576
提供者:
u012960424
中文分词服务器源代码及词库
软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
所属分类:
Web开发
发布日期:2009-02-18
文件大小:1048576
提供者:
xuying198702
中文分词服务器源代码及词库
软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
所属分类:
Web开发
发布日期:2009-02-18
文件大小:1048576
提供者:
mysqlyao
学术论文————一种改进的汉语分词算法
这是关于分词算法的一篇论文,我感觉不错,想与大家一起分享
所属分类:
其它
发布日期:2009-02-23
文件大小:155648
提供者:
happy_flight
java版本结巴分词
java版本结巴分词。添加了自定义分词、阻止词、分词词性等。
所属分类:
Java
发布日期:2018-03-13
文件大小:4194304
提供者:
u012050821
lucene中文分词工具包
IKAnalyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包,将一段文字进行IK分词处理一般经过:词典加载、预处理、分词器分词、歧义处理、善后结尾 五个部分
所属分类:
Web开发
发布日期:2018-05-10
文件大小:1048576
提供者:
weixin_39268520
遗忘算法演示程序(包含词库生成、分词、词权重)C#源码详细介绍
遗忘算法演示程序(包含词库生成、分词、词权重)C#源码详细介绍
所属分类:
机器学习
发布日期:2018-05-13
文件大小:45088768
提供者:
u014556723
python之中文分词
目录 1、安装和使用jieba 2、分词练习 3、为jieba添加自定义的词典 4、知识点普及 1)分词文件怎么写 2)jieba.cut()参数说明 5、搜索引擎模式 1、安装和使用jieba 直接用命令:pip3 install jieba就可以了,如图所示表示成功。 2、分词练习 import jieba if __name__ == '__main__': seg_gu=jieba.cut(故宫的重要景点:乾清宫, cut_all=False) print(Full
所属分类:
其它
发布日期:2021-01-06
文件大小:65536
提供者:
weixin_38536397
第三章 3、1 文本预处理之分词(Word Segmentation)
一、大纲总览 1、tough资料:各类文本等的输入。 2、分词。好的分词算法很重要。 3、文本预处理。 4、标准化:单词的时态,单复数。都转换为最原始的。这时还是字符串。 5、特征提取:向量表示,thidf算法,w2w,seq2seq算法等等。 6、模型:向量有了,然后就是根据算法去匹配。 二、分词 可以直接用的分词工具。 1、分词算法之最大匹配 向前最大匹配、向后最大匹配、双向最大匹配(不讲) 向前最大匹配 1、首先输入一个句子,已知后建好的词典库,设置好窗口值(5) 2、窗口从第一个汉字
所属分类:
其它
发布日期:2021-01-20
文件大小:2097152
提供者:
weixin_38705873
python中文分词库jieba使用方法详解
安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1、分词 1.1、CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = '我爱自然语言处理' # 创建【Tokenizer.cut 生成器
所属分类:
其它
发布日期:2021-01-20
文件大小:107520
提供者:
weixin_38707356
«
1
2
3
4
5
6
7
8
9
10
...
50
»