您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 文本分类系统

  2. TextClassify文本分类系统适用于中文,英文文本分类。 包括各个文本的关键词输出,可以控制关键词输出个数,也可以对关键词加入黑名单和白名单。 关于TextClassify文本分类系统的改进: 改进jieba中文分词词典 改进黑名单:增加停用词 改进白名单:增加专业词 在TextProcess改进每一类text至多选FileInFolder个:理论上越多越好 deleteN的选取:可以优化 特征词的长度限定:unicode不过长,不过短 特征词词典dict_size的选取:可以优化 特征
  3. 所属分类:Python

    • 发布日期:2014-06-17
    • 文件大小:1048576
    • 提供者:lining0806
  1. Jieba0.35中文分词组件

  2. Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。
  3. 所属分类:Python

    • 发布日期:2016-03-23
    • 文件大小:7340032
    • 提供者:sanqima
  1. 结巴分词jar包

  2. jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module. Scroll down for English documentation. 特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模 式,把句子中所有的可以
  3. 所属分类:Java

    • 发布日期:2017-05-15
    • 文件大小:2097152
    • 提供者:subson
  1. 企业名称词典

  2. 实现公司名及公司地址的模糊匹配,也可以迁移到房产信息、电话号码之类的字段上。本来的应用场景是反团伙欺诈以及失联客户的修复,大概的意思就是说多个相同公司的同事都在我公司借贷的欺诈可能性要高于其他客户,以及造假的房产信息和电话号码可能不完全相同,但有一定的相似性,我们需要把这些客户找出来,但是又不能用精确匹配。
  3. 所属分类:机器学习

    • 发布日期:2017-08-31
    • 文件大小:3145728
    • 提供者:t15600624671
  1. 中文分词词库

  2. 分词词库字典,主要为百度中文分词,主要用于中文jieba分词的自定义词典,或者其他分词工具的自定义词典等。
  3. 所属分类:算法与数据结构

    • 发布日期:2017-09-20
    • 文件大小:8388608
    • 提供者:qq_39308905
  1. 40万汉语分词词库

  2. 汉语大词库。总量为四十多万个。可以用于jieba等分词模块的分词的时候用。也可以自定义作为专业文档的分词的词典用。
  3. 所属分类:算法与数据结构

    • 发布日期:2017-09-20
    • 文件大小:784384
    • 提供者:qq_39308905
  1. jieba分词词典和停用词

  2. 利用jieba分词进行文本的处理这里面是jieba分词所需要的词典和停用词
  3. 所属分类:机器学习

    • 发布日期:2018-03-28
    • 文件大小:2097152
    • 提供者:qq_33771080
  1. 基于隐马尔科夫模型的分词

  2. 使用隐马尔科夫模型(Hidden Markov Model,HMM) 进行分词,并与基于词典的正向最大匹配算法和工业界使用的jieba分词进行对比。 采用最大似然估计的方法从带标记样本学习模型参数,并通过维特比算法进行解码。
  3. 所属分类:机器学习

    • 发布日期:2018-01-24
    • 文件大小:6291456
    • 提供者:iredbean
  1. jieba_分词

  2. 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。支持繁体分词支持自定义词典MIT 授权协议
  3. 所属分类:机器学习

    • 发布日期:2018-10-09
    • 文件大小:11534336
    • 提供者:abc_xian
  1. 【深度学习语料库】常见金融领域词汇词典

  2. 金融方面的常见词汇形成的词典/语料库,jieba.load_userdict()即可使用
  3. 所属分类:深度学习

    • 发布日期:2018-10-15
    • 文件大小:15360
    • 提供者:qq_35825325
  1. 2018最新停用词词典

  2. 2018最新停用词词典,用于jieba停用词词典,载入后可以减少分词噪音
  3. 所属分类:Python

    • 发布日期:2018-09-09
    • 文件大小:9216
    • 提供者:u014043991
  1. jieba青春有你2自定义python分词词典

  2. jieba青春有你2自定义分词词典,青春有你2评论爬取,青春有你2视频饭圈自定义分词词典,jieba分词Python分词词典
  3. 所属分类:网络基础

  1. jieba-master.zip

  2. jieba 是目前最好的 Python 中文分词组件,它主要有以下 3 种特性: 支持 3 种分词模式:精确模式、全模式、搜索引擎模式 支持繁体分词 支持自定义词典 安装:先下载,随便解压到一个地方,cmd 进入对应文件夹后运行 python setup.py install
  3. 所属分类:Python

    • 发布日期:2020-04-02
    • 文件大小:24117248
    • 提供者:happyjacob
  1. jieba.NET-master.zip

  2. 分词 jieba.NET版本(C#实现) * 支持三种分词模式: - 精确模式,试图将句子最精确地切开,适合文本分析; - 全模式,把句子中所有的可以成词的词语都扫描出来, **速度非常快,但是不能解决歧义。 具体来说,分词过程不会借助于词频查找最大概率路径,亦不会使用HMM; - 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。 * 支持繁体分词 * 支持添加自定义词典和自定义词 * MIT 授权协议
  3. 所属分类:C#

    • 发布日期:2020-01-07
    • 文件大小:11534336
    • 提供者:chengbi0653
  1. jieba分词词典大全dict.rar

  2. 自己搜集来的词典,有重复的一些,自己甄别,里面包了清华大学词典,台湾大学词典,知网词典等,褒义词,贬义词,情感词一类的,反正挺多的
  3. 所属分类:机器学习

    • 发布日期:2019-10-07
    • 文件大小:4194304
    • 提供者:qq_20707221
  1. Python jieba结巴分词原理及用法解析

  2. 1、简要说明 结巴分词支持三种分词模式,支持繁体字,支持自定义词典 2、三种分词模式 全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义 精简模式:把句子最精确的分开,不会添加多余单词,看起来就像是把句子分割一下 搜索引擎模式:在精简模式下,对长词再度切分 # -*- encoding=utf-8 -*- import jieba if __name__ == '__main__': str1 = '我去北京天安门广场跳舞' a = jieba.lcut(s
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:83968
    • 提供者:weixin_38617196
  1. 浅谈python jieba分词模块的基本用法

  2. jieba(结巴)是一个强大的分词库,完美支持中文分词,本文对其基本用法做一个简要总结。 特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。 支持繁体分词 支持自定义词典 MIT 授权协议 安装jieba pip install jieba 简单用法 结巴分词分为三
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:97280
    • 提供者:weixin_38713057
  1. 深入研究中文分词利器——Jieba

  2. jieba的分词 jieba安装后的位置: 可以修改里面的dict.txt文本,或者把自定义的词典直接改到这个目录,当jieba初始化的时候会创建索引。jieba.load_userdict()其实也是把额外的词典放加入的默认的词典里的。 使用jieba.load_userdict()的方式: 使用前没有把“区块链分开”,使用后就分开了。 还有另一种方法是直接修改默认的词典: 但是需要删除缓存,则运行原来的代码,jieba会重新构建: 效果如下: 参考: jieba加载自定义大词典
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:432128
    • 提供者:weixin_38732343
  1. 【深度学习语料库】常见金融领域词汇词典

  2. 金融方面的常见词汇形成的词典/语料库,jieba.load_userdict()即可使用
  3. 所属分类:算法与数据结构

    • 发布日期:2021-03-08
    • 文件大小:8192
    • 提供者:sangsi
  1. 手把手教你Python3使用Jieba工具

  2. 疫情宅在家,只能静下心来弄毕设~ 话不多说,直接上干货,本篇博客包含: 中文分词 添加自定义词典 词性标注 关键词抽取 环境: Python3.5 Jieba-0.39 Pycharm2018 一、安装jieba 在安装有python3 和 pip 的机子上,安装jieba库很简单,使用pip即可: pip install jieba 二、Jieba分词特性 1、支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模式,把句子中所有的可以成词的词语都扫描出来,
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:1048576
    • 提供者:weixin_38651165
« 12 »