您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. word2vec词向量训练及中文文本相似度计算 【源码+语料】

  2. 该资源主要参考我的博客:word2vec词向量训练及中文文本相似度计算 http://blog.csdn.net/eastmount/article/details/50637476 其中包括C语言的Word2vec源代码(从官网下载),自定义爬取的三大百科(百度百科、互动百科、维基百科)中文语料,涉及到国家、景区、动物和人物。 同时包括60M的腾讯新闻语料,是一个txt,每行相当于一个新闻。 国家包括了Python的Jieba分词代码,详见博客。 免费资源希望对你有所帮助~
  3. 所属分类:C

    • 发布日期:2016-02-18
    • 文件大小:148897792
    • 提供者:eastmount
  1. python的中文分词库smallseg

  2. python的中文分词库有多个,jieba、thulac都可以在GitHub上下载到,但是smallseg需要在code.google上下载,所以只上传了smallseg
  3. 所属分类:搜索引擎

    • 发布日期:2018-01-03
    • 文件大小:1048576
    • 提供者:qq_33363973
  1. python的jieba功能

  2. 近来看到jieba分词功能,自己写了测试用,只是玩玩,没有内容,不要下载就好了,谢谢!!
  3. 所属分类:Python

    • 发布日期:2018-10-19
    • 文件大小:42991616
    • 提供者:joinzheng
  1. 基于Java的jieba分词统计词频

  2. 需要下载数据库可视工具(SQLyog)将text文件复制粘贴到数据库中,将压缩文件导入eclipse
  3. 所属分类:Java

    • 发布日期:2018-09-11
    • 文件大小:3145728
    • 提供者:weixin_42612360
  1. jieba-analysis-master.zip

  2. 学习过程中,在Ubuntu虚拟机上,使用Eclipse,用java编写分词行为,需要下载此包。 1.下载好后解压,并且在Eclipse中开始新建一个java项目。 2.在项目的src文件夹下新建如下2个包:com.huaban.analysis.jieba和com.huaban.analysis.jieba.viterbi。 3.将解压好的文件jieba-analysis-master\src\main\java\com\huaban\analysis\jieba目录下的8个文件放到刚才新建的
  3. 所属分类:算法与数据结构

    • 发布日期:2019-04-30
    • 文件大小:7340032
    • 提供者:qq_40237865
  1. python爬虫源码

  2. 用python爬取百度贴吧,而后对语料进行处理。利用结巴分词,使用python3,需要自行下载各种库如jieba。而后还有统计词频和关键词提取,功能比较全,但是可能运行起来比较慢。
  3. 所属分类:Python

    • 发布日期:2019-05-03
    • 文件大小:11534336
    • 提供者:weixin_41345899
  1. jieba-0.42.1.zip

  2. 中文分词工具jieba 。相比其他分词工具而言,jieba不仅只有分词这一功能,它还提供了许多分词以外的算法,支持Python、R、C++等多种编程语言的实现,使用简单,对于新手而言是一个较好的入门分词工具
  3. 所属分类:外包

    • 发布日期:2020-05-10
    • 文件大小:38797312
    • 提供者:z_mawkish
  1. jieba-master.zip

  2. jieba 是目前最好的 Python 中文分词组件,它主要有以下 3 种特性: 支持 3 种分词模式:精确模式、全模式、搜索引擎模式 支持繁体分词 支持自定义词典 安装:先下载,随便解压到一个地方,cmd 进入对应文件夹后运行 python setup.py install
  3. 所属分类:Python

    • 发布日期:2020-04-02
    • 文件大小:24117248
    • 提供者:happyjacob
  1. 第三方库jieba.zip

  2. 分享python jieba库 优秀的第三方中文分词库
  3. 所属分类:Python

    • 发布日期:2020-07-21
    • 文件大小:18874368
    • 提供者:weixin_44142358
  1. sougou.dict

  2. 中文分词jieba 插件,最新2020,欢迎下载,下载后放到/conf/sougou.dict 即可
  3. 所属分类:机器学习

    • 发布日期:2020-09-09
    • 文件大小:1048576
    • 提供者:zhiyuzhe
  1. Jieba分词.rar

  2. 针对jieba的各种分词模式进行测试,并且给出了对三国演义的关键词提取,以及数据集,同时包括其他常用分词数据集
  3. 所属分类:Python

    • 发布日期:2020-11-21
    • 文件大小:5242880
    • 提供者:qq_44465615
  1. python实现的读取网页并分词功能示例

  2. 本文实例讲述了python实现的读取网页并分词功能。分享给大家供大家参考,具体如下: 这里使用分词使用最流行的分词包jieba,参考:https://github.com/fxsjy/jieba 或点击此处本站下载jieba库。 代码: import requests from bs4 import BeautifulSoup import jieba # 获取html url = http://finance.ifeng.com/a/20180328/16049779_0.shtml res
  3. 所属分类:其它

    • 发布日期:2021-01-02
    • 文件大小:232448
    • 提供者:weixin_38673548
  1. NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录

  2. 最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。 以下是整理的安装过程和注意事项。 希望能给大家提供些帮助。 目录一、Nlpir第一步:下载工具。第二步:下载后,解压,按如下顺序进入目录。第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。二、 Pyltp第一步:下载安装Pyltp。第二步:下载模型。第三步:使用基本组件。三、 Jieba第一步:pip安装,指令为第二步:基于python中jieb
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:799744
    • 提供者:weixin_38617297
  1. Python结巴中文分词工具使用过程中遇到的问题及解决方法

  2. 本文实例讲述了Python结巴中文分词工具使用过程中遇到的问题及解决方法。分享给大家供大家参考,具体如下: 结巴分词是Python语言中效果最好的分词工具,其功能包括:分词、词性标注、关键词抽取、支持用户词表等。这几天一直在研究这个工具,在安装与使用过程中遇到一些问题,现在把自己的一些方法帖出来分享一下。 官网地址:https://github.com/fxsjy/jieba 1、安装。 按照官网上的说法,有三种安装方式, 第一种是全自动安装:easy_install jieba 或者 pip
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:99328
    • 提供者:weixin_38632046