您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 搜狗词库(scel)转化成txt

  2. 该工具是一个python程序,你只需要运行python 输入搜狗词库源安装包路劲就可以把scel安装包转化成txt
  3. 所属分类:Python

    • 发布日期:2016-10-12
    • 文件大小:2048
    • 提供者:qq_28511869
  1. python3中文识别词库模型

  2. python3中文识别词库模型,超级好用。包涵全部简体中文。
  3. 所属分类:深度学习

    • 发布日期:2017-12-06
    • 文件大小:34603008
    • 提供者:gengzg
  1. 搜狗词库解码python脚本

  2. 搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库搜狗词库
  3. 所属分类:Python

    • 发布日期:2018-08-09
    • 文件大小:25600
    • 提供者:liaoyu0099
  1. 关于百度词库编辑者的信息爬取

  2. 使用Python做开发语言,做一个爬虫,将百度词库中编辑者的地址信息爬取出来,显示在地图上(调用百度地图API)
  3. 所属分类:Python

    • 发布日期:2018-02-15
    • 文件大小:7168
    • 提供者:qq_32305017
  1. Python 搜狗词库的批量下载

  2. 搜狗的细胞词库是一个开放共享的词库,本程序是使用python获取搜狗词库官网上的所有下载链接,下载词库并进行分类保存。需要注意的是,下载过来的文件格式为:.scel 如果要转换为.txt,欢迎查看我的另一个下载资源。欢迎下载交流!
  3. 所属分类:Python

    • 发布日期:2018-09-14
    • 文件大小:2048
    • 提供者:q_quanting
  1. 敏感词库JAV、Phton等语言

  2. 支持各种语言的敏感词库,python , java等语言有需要的朋友可以下载
  3. 所属分类:Java

  1. Python中文分词库Yaha.zip

  2. "哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:6291456
    • 提供者:weixin_39841856
  1. NLP自然语言处理停词库

  2. 停词库,包含一般性常用词。可用于R语言与python的自然语言处理中的词频、关键词分析。绘制词云效果也是比较不错的。
  3. 所属分类:Python

    • 发布日期:2020-03-06
    • 文件大小:19456
    • 提供者:renewallee
  1. 常用英文单词词库txt版本

  2. 4593条英语单词库txt版本,一行是一个条目。 方便大家用python判断单词,也方便大家转为自己想要的数据库。
  3. 所属分类:其它

    • 发布日期:2020-02-29
    • 文件大小:147456
    • 提供者:weixin_39804265
  1. 数学专业术语英文翻译词库.csv

  2. 内含一万五千条左右数学专业词汇的英文翻译,足够绝大多数时间查询,配套python词典传送门:https://blog.csdn.net/JasonTube/article/details/104215313
  3. 所属分类:教育

    • 发布日期:2020-02-08
    • 文件大小:433152
    • 提供者:JasonTube
  1. 用python实现词语接龙游戏的代码及词库文件

  2. 用python实现词语接龙游戏的代码及词库文件,python环境下解压执行即可。
  3. 所属分类:Python

    • 发布日期:2019-03-03
    • 文件大小:58368
    • 提供者:weixin_44428093
  1. 同义词词库

  2. 同义词词库梅家驹等于1983年编纂而成,已经由本人整理,整理后如下: Aa01:白丁,百姓,辈,婊子养的,宾主,布衣,苍生,曹,豺狼当道,侪,赤子,畜生,大众,大家,大伙儿,大家伙儿,党群,等,刁民,丁口,东西,方趾圆颅,分子,夫,妇孺,干群,个人,工农兵,公民,公众,狗崽子,鬼,棍,国民,汉,和尚,横目,混蛋,货,货色,家,家伙,贱民,匠,教职员工,噍类,军民,客,口,劳力,劳资,劳动力,老百姓,黎元,黎民,黎苗,黎庶,黎民百姓,良民,流民,们,氓,民,民众,男女老小,匹夫,匹夫匹妇,平民,千
  3. 所属分类:Python

    • 发布日期:2012-11-22
    • 文件大小:499712
    • 提供者:stone1113
  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 主要介绍了Python中文分词库jieba,pkusegwg性能准确度比较,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:549888
    • 提供者:weixin_38744803
  1. python中文分词库jieba使用方法详解

  2. 主要介绍了python中文分词库jieba使用方法详解,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:104448
    • 提供者:weixin_38589795
  1. python词云库wordcloud的使用方法与实例详解

  2. 主要介绍了python词云库wordcloud的使用方法与实例详解,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:265216
    • 提供者:weixin_38590738
  1. python创建属于自己的单词词库 便于背单词

  2. 主要为大家详细介绍了python创建属于自己的单词词库,便于背单词,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:70656
    • 提供者:weixin_38637764
  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:655360
    • 提供者:weixin_38717031
  1. python创建属于自己的单词词库 便于背单词

  2. 本文实例为大家分享了python创建单词词库的具体代码,供大家参考,具体内容如下 基本思路:以COCA两万单词表为基础,用python爬取金山词霸的单词词性,词义,音频分别存入sqllite。背单词的时候根据需要自定义数据的选择方式。 效果如下: 代码写的比较随意,还请见谅。 创建数据库 复制代码 代码如下:cu.execute(‘create table test (id INTEGER PRIMARY KEY AUTOINCREMENT,dc varchar(20),cx varchar(
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:70656
    • 提供者:weixin_38550146
  1. open-semantic-entity-search-api:开源REST API,用于命名实体提取,命名实体链接,命名实体歧义消除,推荐和对诸如个人,组织和场所之类的实体进行(半)自动语义标记和文档分析链接数据知识图,例如SKOS词库,

  2. 开源REST-API,用于命名实体提取,规范化,对帐,推荐,命名实体消歧和命名实体链接 REST API和Python库,用于搜索,建议,推荐,规范化,对帐,命名实体提取,命名实体链接和命名实体的歧义,例如人员,组织和场所的(半)自动语义标记,文档分析和语义丰富通过链接数据知识图(例如SKOS词库,Wikidata或RDF本体),SQL数据库或电子表格(例如CSV,TSV或Excel表)。 开源和开放标准 通过集成用于结构化数据格式的开放标准(SKOS,RDF,JSON)和REST API(H
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:106496
    • 提供者:weixin_42117224
  1. python中文分词库jieba使用方法详解

  2. 安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1、分词 1.1、CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = '我爱自然语言处理' # 创建【Tokenizer.cut 生成器
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:107520
    • 提供者:weixin_38707356
« 12 3 4 5 6 7 8 9 10 ... 13 »