您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 单词统计(Python)

  2. 统计一篇英语文章txt中词频,GUI显示
  3. 所属分类:Python

    • 发布日期:2017-03-09
    • 文件大小:7168
    • 提供者:hello_lijie1018
  1. 如何用python统计英语文章词频?

  2. 统计单词词频,能够按照单词次数排列,统计英语高频词。可用于自我学习,对于想快速提升英语的可以快速把握所有高频词。打蛇打七寸,把握关键点。也可用于培训机构,针对考试高频词,快速提分,
  3. 所属分类:Python

    • 发布日期:2020-03-12
    • 文件大小:935
    • 提供者:zhouzongzs
  1. python文件词频统计

  2. 读取给定文本文件,统计单词,计算TOP 10 有一个文件sample.txt,对其进行单词统计,不区分大小写,并显示单词重复最多的10个单词。
  3. 所属分类:Python

    • 发布日期:2020-01-17
    • 文件大小:1024
    • 提供者:weixin_43332900
  1. 词频统计(基于hadoop集群,python实现)

  2. 基于hadoop集群,用python写mapReduce实现单词统计,文件里包含python代码和操作步骤,适合初学者学习,我亲自测试,在ubuntu系统上,搭建的hadoop集群,能够运行出结果。
  3. 所属分类:群集服务

    • 发布日期:2020-07-11
    • 文件大小:1048576
    • 提供者:ChengXuxiao
  1. python 文本单词提取和词频统计的实例

  2. 今天小编就为大家分享一篇python 文本单词提取和词频统计的实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:29696
    • 提供者:weixin_38741317
  1. Python实现统计英文文章词频的方法分析

  2. 主要介绍了Python实现统计英文文章词频的方法,结合实例形式分析了Python针对英文单词频率统计的相关原理、实现方法及具体操作技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:48128
    • 提供者:weixin_38648396
  1. python利用多种方式来统计词频(单词个数)

  2. 主要介绍了python利用多种方式来统计词频(单词个数),小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:43008
    • 提供者:weixin_38713167
  1. 基于Qt的英语词频统计软件,使用python开发

  2. 基于Qt框架的Pyside2,使用Python语言进行开发了一个英语词频统计软件。完成了对英语本文的词频统计功能,可直接对一段文本进行粘贴统计,也可以对指定文件夹下(包括其下的子目录)的所有txt文件进行分析,界面可预览出现频率前10的单词,全部结果保存在result文件夹下
  3. 所属分类:Python

    • 发布日期:2020-11-10
    • 文件大小:70254592
    • 提供者:lishan132
  1. python用字典统计单词或汉字词个数示例

  2. 有如下格式的文本文件复制代码 代码如下:/“/请/!/”/“/请/!/”/两名/剑士/各自/倒转/剑尖/,/右手/握/剑柄/,/左手/搭于/右手/手背/,/躬身行礼/。/两/人/身子/尚未/站/直/,/突然/间/白光闪/动/,/跟着/铮的/一/声响/,/双剑相/交/,/两/人/各/退一步/。/旁/观众/人/都/是/“/咦/”/的/一声/轻呼/。/青衣/剑士/连/劈/三/剑/ 将这段话进行词频统计,结果是  词—词数  的形式,比如  请  2  ,并把结果放到txt文件中。 这样的问题利用词或单
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:40960
    • 提供者:weixin_38613681
  1. python 文本单词提取和词频统计的实例

  2. 这些对文本的操作经常用到, 那我就总结一下。 陆续补充。。。 操作: strip_html(cls, text) 去除html标签 separate_words(cls, text, min_lenth=3) 文本提取 get_words_frequency(cls, words_list) 获取词频 源码: class DocProcess(object): classmethod def strip_html(cls, text): """ Delete html tags
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:35840
    • 提供者:weixin_38526780
  1. python日记Day08——文本词频统计(中英文)

  2. python日记——文本词频统计(中英文) 一、jieba库的基本介绍 中文文本词频统计需要用到第三方库:jieba; jieba库是优秀的中文分词第三方库,需要额外安装; jieba库分词依靠中文词库,确定汉字之间的关联概率; jieba库分词有三种模式: 1、精确模式:把文本精确的切分开,不存在冗余单词; print(jieba.lcut("时间一定会给你最好的答案")) #['时间','一定', '会', '给', '你', '最好', '的', '答案'] 2、全模式:把文本中所有可能的
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:68608
    • 提供者:weixin_38658982
  1. 使用python的信息检索作业(1)

  2. 统计词频 任务: 统计文本文件中的单词出现次数 给定文本文件;需要查询的单词 给出查询结果;生成词典文件 查阅资料后考虑借助python的***nltk***库(需要额外安装) 最基础版: import nltk import os current_path = os.path.abspath(__file__) path = os.path.abspath(os.path.dirname(current_path) + os.path.sep + ".") # 确认文件路径 name = i
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:40960
    • 提供者:weixin_38732307
  1. Python输入输出-自然语言处理+json格式化

  2. Python输入输出-自然语言处理+json格式化 NLP自然语言处理 读取文件 去除所有标点符号和换行符,并把所有大写变成小写; 合并相同的词,统计每个词出现的频率,并按照词频从大到小排序; 将结果按行输出到文件 out.txt。 import re def parse(text): #使用正则表达式去除text文件内标点符号和换行符,替换为空格, text = re.sub(r'[^\W]',' ',text) #转换为小写 text = text.lowe
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:157696
    • 提供者:weixin_38665668
  1. python统计文章中单词出现次数实例

  2. python统计单词出现次数 做单词词频统计,用字典无疑是最合适的数据类型,单词作为字典的key, 单词出现的次数作为字典的 value,很方便地就记录好了每个单词的频率,字典很像我们的电话本,每个名字关联一个电话号码。 下面是具体的实现代码,实现了从importthis.txt文件读取单词,并统计出现次数最多的5个单词。 # -*- coding:utf-8 -*- import io import re class Counter: def __init__(self, path):
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:33792
    • 提供者:weixin_38693192
  1. python利用多种方式来统计词频(单词个数)

  2. python的思维就是让我们用尽可能少的代码来解决问题。对于词频的统计,就代码层面而言,实现的方式也是有很多种的。之所以单独谈到统计词频这个问题,是因为它在统计和数据挖掘方面经常会用到,尤其是处理分类问题上。故在此做个简单的记录。 统计的材料如下: document = [ 'look', 'into', 'my', 'eyes', 'look', 'into', 'my', 'eyes', 'the', 'eyes', 'the', 'eyes', 'the', 'eyes', 'n
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:39936
    • 提供者:weixin_38707217
  1. 简单理解TFIDF及其算法python实现

  2. 简单理解TF-IDF 引出TF-IDF 通俗来讲TF-IDF就是考虑单词的重要性。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。 TF-IDF简单介绍 TF-IDF(term frequency–inverse document frequency)是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。TF意思是词频(Term Frequency)指的是某一个给定的词语在该文件中出现的次数,IDF意思是逆文本频率指数(
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:69632
    • 提供者:weixin_38678498
  1. Python 合并多个TXT文件并统计词频的实现

  2. 需求是:针对三篇英文文章进行分析,计算出现次数最多的 10 个单词 逻辑很清晰简单,不算难, 使用 python 读取多个 txt 文件,将文件的内容写入新的 txt 中,然后对新 txt 文件进行词频统计,得到最终结果。 代码如下:(在Windows 10,Python 3.7.4环境下运行通过) # coding=utf-8 import re import os # 获取源文件夹的路径下的所有文件 sourceFileDir = 'D:\\Python\\txt\\' filenames
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:68608
    • 提供者:weixin_38728360
  1. Python实现统计英文文章词频的方法分析

  2. 本文实例讲述了Python实现统计英文文章词频的方法。分享给大家供大家参考,具体如下: 应用介绍: 统计英文文章词频是很常见的需求,本文利用python实现。 思路分析: 1、把英文文章的每个单词放到列表里,并统计列表长度; 2、遍历列表,对每个单词出现的次数进行统计,并将结果存储在字典中; 3、利用步骤1中获得的列表长度,求出每个单词出现的频率,并将结果存储在频率字典中; 4、以字典键值对的“值”为标准,对字典进行排序,输出结果(也可利用切片输出频率最大或最小的特定几个,因为经过排序sorte
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:50176
    • 提供者:weixin_38742656
  1. python如何统计序列中元素

  2. 本文实例为大家分享了python统计序列中元素的具体代码,供大家参考,具体内容如下 问题1:        随机数列[12,5,8,7,8,9,4,8,5,…] 中出现次数最高的3个元素,他们出现的次数 问题2:        对某英文文章的单词,进行词频统计,找出出现次数最搞得10个单词,他们出现的次数是多少? 上面问题都是以字典的形式保存结果 如何解决问题1? 方法1: #!/usr/bin/python3 from random import randint def count_seq
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:41984
    • 提供者:weixin_38522323
  1. python数据分析:关键字提取方式

  2. TF-IDF TF-IDF(Term Frequencey-Inverse Document Frequency)指词频-逆文档频率,它属于数值统计的范畴。使用TF-IDF,我们能够学习一个词对于数据集中的一个文档的重要性。 TF-IDF的概念 TF-IDF有两部分,词频和逆文档频率。首先介绍词频,这个词很直观,词频表示每个词在文档或数据集中出现的频率。等式如下: TF(t)=词t在一篇文档中出现的次数/这篇文档的总词数 第二部分——逆文档频率实际上告诉了我们一个单词对文档的重要性。这是因为当计
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:75776
    • 提供者:weixin_38572115
« 12 »