点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - python统计单词词频
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
单词统计(Python)
统计一篇英语文章txt中词频,GUI显示
所属分类:
Python
发布日期:2017-03-09
文件大小:7168
提供者:
hello_lijie1018
如何用python统计英语文章词频?
统计单词词频,能够按照单词次数排列,统计英语高频词。可用于自我学习,对于想快速提升英语的可以快速把握所有高频词。打蛇打七寸,把握关键点。也可用于培训机构,针对考试高频词,快速提分,
所属分类:
Python
发布日期:2020-03-12
文件大小:935
提供者:
zhouzongzs
python文件词频统计
读取给定文本文件,统计单词,计算TOP 10 有一个文件sample.txt,对其进行单词统计,不区分大小写,并显示单词重复最多的10个单词。
所属分类:
Python
发布日期:2020-01-17
文件大小:1024
提供者:
weixin_43332900
词频统计(基于hadoop集群,python实现)
基于hadoop集群,用python写mapReduce实现单词统计,文件里包含python代码和操作步骤,适合初学者学习,我亲自测试,在ubuntu系统上,搭建的hadoop集群,能够运行出结果。
所属分类:
群集服务
发布日期:2020-07-11
文件大小:1048576
提供者:
ChengXuxiao
python 文本单词提取和词频统计的实例
今天小编就为大家分享一篇python 文本单词提取和词频统计的实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-19
文件大小:29696
提供者:
weixin_38741317
Python实现统计英文文章词频的方法分析
主要介绍了Python实现统计英文文章词频的方法,结合实例形式分析了Python针对英文单词频率统计的相关原理、实现方法及具体操作技巧,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-19
文件大小:48128
提供者:
weixin_38648396
python利用多种方式来统计词频(单词个数)
主要介绍了python利用多种方式来统计词频(单词个数),小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-19
文件大小:43008
提供者:
weixin_38713167
基于Qt的英语词频统计软件,使用python开发
基于Qt框架的Pyside2,使用Python语言进行开发了一个英语词频统计软件。完成了对英语本文的词频统计功能,可直接对一段文本进行粘贴统计,也可以对指定文件夹下(包括其下的子目录)的所有txt文件进行分析,界面可预览出现频率前10的单词,全部结果保存在result文件夹下
所属分类:
Python
发布日期:2020-11-10
文件大小:70254592
提供者:
lishan132
python用字典统计单词或汉字词个数示例
有如下格式的文本文件复制代码 代码如下:/“/请/!/”/“/请/!/”/两名/剑士/各自/倒转/剑尖/,/右手/握/剑柄/,/左手/搭于/右手/手背/,/躬身行礼/。/两/人/身子/尚未/站/直/,/突然/间/白光闪/动/,/跟着/铮的/一/声响/,/双剑相/交/,/两/人/各/退一步/。/旁/观众/人/都/是/“/咦/”/的/一声/轻呼/。/青衣/剑士/连/劈/三/剑/ 将这段话进行词频统计,结果是 词—词数 的形式,比如 请 2 ,并把结果放到txt文件中。 这样的问题利用词或单
所属分类:
其它
发布日期:2020-12-25
文件大小:40960
提供者:
weixin_38613681
python 文本单词提取和词频统计的实例
这些对文本的操作经常用到, 那我就总结一下。 陆续补充。。。 操作: strip_html(cls, text) 去除html标签 separate_words(cls, text, min_lenth=3) 文本提取 get_words_frequency(cls, words_list) 获取词频 源码: class DocProcess(object): classmethod def strip_html(cls, text): """ Delete html tags
所属分类:
其它
发布日期:2020-12-23
文件大小:35840
提供者:
weixin_38526780
python日记Day08——文本词频统计(中英文)
python日记——文本词频统计(中英文) 一、jieba库的基本介绍 中文文本词频统计需要用到第三方库:jieba; jieba库是优秀的中文分词第三方库,需要额外安装; jieba库分词依靠中文词库,确定汉字之间的关联概率; jieba库分词有三种模式: 1、精确模式:把文本精确的切分开,不存在冗余单词; print(jieba.lcut("时间一定会给你最好的答案")) #['时间','一定', '会', '给', '你', '最好', '的', '答案'] 2、全模式:把文本中所有可能的
所属分类:
其它
发布日期:2020-12-23
文件大小:68608
提供者:
weixin_38658982
使用python的信息检索作业(1)
统计词频 任务: 统计文本文件中的单词出现次数 给定文本文件;需要查询的单词 给出查询结果;生成词典文件 查阅资料后考虑借助python的***nltk***库(需要额外安装) 最基础版: import nltk import os current_path = os.path.abspath(__file__) path = os.path.abspath(os.path.dirname(current_path) + os.path.sep + ".") # 确认文件路径 name = i
所属分类:
其它
发布日期:2020-12-21
文件大小:40960
提供者:
weixin_38732307
Python输入输出-自然语言处理+json格式化
Python输入输出-自然语言处理+json格式化 NLP自然语言处理 读取文件 去除所有标点符号和换行符,并把所有大写变成小写; 合并相同的词,统计每个词出现的频率,并按照词频从大到小排序; 将结果按行输出到文件 out.txt。 import re def parse(text): #使用正则表达式去除text文件内标点符号和换行符,替换为空格, text = re.sub(r'[^\W]',' ',text) #转换为小写 text = text.lowe
所属分类:
其它
发布日期:2020-12-21
文件大小:157696
提供者:
weixin_38665668
python统计文章中单词出现次数实例
python统计单词出现次数 做单词词频统计,用字典无疑是最合适的数据类型,单词作为字典的key, 单词出现的次数作为字典的 value,很方便地就记录好了每个单词的频率,字典很像我们的电话本,每个名字关联一个电话号码。 下面是具体的实现代码,实现了从importthis.txt文件读取单词,并统计出现次数最多的5个单词。 # -*- coding:utf-8 -*- import io import re class Counter: def __init__(self, path):
所属分类:
其它
发布日期:2020-12-20
文件大小:33792
提供者:
weixin_38693192
python利用多种方式来统计词频(单词个数)
python的思维就是让我们用尽可能少的代码来解决问题。对于词频的统计,就代码层面而言,实现的方式也是有很多种的。之所以单独谈到统计词频这个问题,是因为它在统计和数据挖掘方面经常会用到,尤其是处理分类问题上。故在此做个简单的记录。 统计的材料如下: document = [ 'look', 'into', 'my', 'eyes', 'look', 'into', 'my', 'eyes', 'the', 'eyes', 'the', 'eyes', 'the', 'eyes', 'n
所属分类:
其它
发布日期:2020-12-26
文件大小:39936
提供者:
weixin_38707217
简单理解TFIDF及其算法python实现
简单理解TF-IDF 引出TF-IDF 通俗来讲TF-IDF就是考虑单词的重要性。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。 TF-IDF简单介绍 TF-IDF(term frequency–inverse document frequency)是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。TF意思是词频(Term Frequency)指的是某一个给定的词语在该文件中出现的次数,IDF意思是逆文本频率指数(
所属分类:
其它
发布日期:2021-01-07
文件大小:69632
提供者:
weixin_38678498
Python 合并多个TXT文件并统计词频的实现
需求是:针对三篇英文文章进行分析,计算出现次数最多的 10 个单词 逻辑很清晰简单,不算难, 使用 python 读取多个 txt 文件,将文件的内容写入新的 txt 中,然后对新 txt 文件进行词频统计,得到最终结果。 代码如下:(在Windows 10,Python 3.7.4环境下运行通过) # coding=utf-8 import re import os # 获取源文件夹的路径下的所有文件 sourceFileDir = 'D:\\Python\\txt\\' filenames
所属分类:
其它
发布日期:2021-01-21
文件大小:68608
提供者:
weixin_38728360
Python实现统计英文文章词频的方法分析
本文实例讲述了Python实现统计英文文章词频的方法。分享给大家供大家参考,具体如下: 应用介绍: 统计英文文章词频是很常见的需求,本文利用python实现。 思路分析: 1、把英文文章的每个单词放到列表里,并统计列表长度; 2、遍历列表,对每个单词出现的次数进行统计,并将结果存储在字典中; 3、利用步骤1中获得的列表长度,求出每个单词出现的频率,并将结果存储在频率字典中; 4、以字典键值对的“值”为标准,对字典进行排序,输出结果(也可利用切片输出频率最大或最小的特定几个,因为经过排序sorte
所属分类:
其它
发布日期:2021-01-20
文件大小:50176
提供者:
weixin_38742656
python如何统计序列中元素
本文实例为大家分享了python统计序列中元素的具体代码,供大家参考,具体内容如下 问题1: 随机数列[12,5,8,7,8,9,4,8,5,…] 中出现次数最高的3个元素,他们出现的次数 问题2: 对某英文文章的单词,进行词频统计,找出出现次数最搞得10个单词,他们出现的次数是多少? 上面问题都是以字典的形式保存结果 如何解决问题1? 方法1: #!/usr/bin/python3 from random import randint def count_seq
所属分类:
其它
发布日期:2021-01-20
文件大小:41984
提供者:
weixin_38522323
python数据分析:关键字提取方式
TF-IDF TF-IDF(Term Frequencey-Inverse Document Frequency)指词频-逆文档频率,它属于数值统计的范畴。使用TF-IDF,我们能够学习一个词对于数据集中的一个文档的重要性。 TF-IDF的概念 TF-IDF有两部分,词频和逆文档频率。首先介绍词频,这个词很直观,词频表示每个词在文档或数据集中出现的频率。等式如下: TF(t)=词t在一篇文档中出现的次数/这篇文档的总词数 第二部分——逆文档频率实际上告诉了我们一个单词对文档的重要性。这是因为当计
所属分类:
其它
发布日期:2021-01-20
文件大小:75776
提供者:
weixin_38572115
«
1
2
»