您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 原子分析英语词根20080321软件

  2. 软件介绍: 英语词汇浩如烟海,掌握 3000 - 5000词汇后如何进一步扩大词汇量,如何更长时间不会遗忘,如何将有内在联系的单词成组记忆,如何猜出陌生单词的含义,如何找出单词词源及构词规律避免死记硬背,诸如此类问题可列出许多,有灵丹妙药吗? 熟记一定量的常用词根及其在单词中的用法示例,无疑会对您有极大帮助。古今中外,无数学习英语的成功人士已经验证:通过词根记单词,事半功倍。 本软件收集常用词根,解释其含义并通过单词分解演示出词汇的奥秘,此外,可以选择词根,将已记熟的词根过滤掉,分而治之,最后
  3. 所属分类:专业指导

    • 发布日期:2009-11-29
    • 文件大小:300032
    • 提供者:wuyezhen
  1. 百度百科1-3000

  2. 百度百科1-3000词库 非常不错的mdict词库,不要错过哦!
  3. 所属分类:专业指导

    • 发布日期:2010-01-17
    • 文件大小:9437184
    • 提供者:huwei602800258
  1. 非常好用的中文分词,直接能用

  2. 目前的搜索引擎,大多是基于一种称为倒排索引的结构[1]。以什么做为索引的Key值,直接影响到整个搜索引擎的准确度、召回率[2]、速度。我们先看看不使用中文分词的情况。 如果不使用中文分词,可以采用单个汉字索引方式。例如,雅虎,先索引'雅'字,然后再索引'虎'字。同样,对于一篇文章,先把所有的汉字都单独索引一次,并记录他们的位置。搜索过程中,也是先找'雅'字的所有文档,再找'虎'字的所有文档,然后做交叉'与'运算,即包含这两个字,而且位置连续的文档才会做为符合要求的结果。这种方式是最基本的索引方
  3. 所属分类:其它

    • 发布日期:2010-03-06
    • 文件大小:4194304
    • 提供者:pkuluck
  1. 语音记事本0.23共享版

  2. 语音记事本,不同于网上的“语音输入法”和“语音输入王”,也不是IBM的ViaVoice,它是本人独立开发的,包括记事本功能和语音输入功能,记事本新增了“字数统计”和“自动保存”功能,语音输入包括“语音识别”和“模糊音识别”功能,如果您的普通话不够标准,比如说“为”时,在模糊音识别区就可以选择“为、未、位......”等字,然后双击这个字就输入到了记事本中。“语音识别”可以识别大多数的字词,不能识别的字词就到“模糊音识别”区选择,非常方便。语音记事本的用户对象是从事文字工作而又不会打字的人的人,
  3. 所属分类:网络基础

    • 发布日期:2010-04-03
    • 文件大小:778240
    • 提供者:wuwei1971
  1. 刨丁解羊中文分词器-主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词

  2. 刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。DLL及OCX调用请联系QQ(601069289)。
  3. 所属分类:网络基础

    • 发布日期:2010-08-30
    • 文件大小:2097152
    • 提供者:henggua
  1. 英语词根词缀记忆完全版.pdf

  2. 死记硬背单词与旁门左道显然是行不通的,词根词缀大词记忆法则是科学的学习英语词汇的方法,可以达到举一反三的的地步。只要掌握3000左右的单音节词和1000个左右词根词缀,就可以解决你一生的词汇问题。
  3. 所属分类:专业指导

    • 发布日期:2011-03-03
    • 文件大小:1048576
    • 提供者:hy1698
  1. 输入法必备成语词库

  2. 输入法可直接导入的成语词库(2000至3000条词语)
  3. 所属分类:其它

    • 发布日期:2012-02-20
    • 文件大小:26624
    • 提供者:v189189
  1. 敏感词过滤器(富含3000词汇)

  2. 敏感词过滤器(富含3000词汇)绝对值 仅供学习参考
  3. 所属分类:PHP

    • 发布日期:2012-11-15
    • 文件大小:6144
    • 提供者:roft418
  1. 横瓜中文分词器

  2. 横瓜中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。
  3. 所属分类:Web开发

  1. SEO发词工具

  2. 刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分 词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普 通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个 网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。DLL及OCX 调用请联系QQ(601069289)。
  3. 所属分类:网络基础

    • 发布日期:2014-08-28
    • 文件大小:57344
    • 提供者:hongling2014
  1. 东北方言3000词 v1.1.2738

  2. 拼音查询东北方言词汇,又多又全,非常方便
  3. 所属分类:C++

    • 发布日期:2015-11-10
    • 文件大小:215040
    • 提供者:wingsold
  1. 中文停用词表3000+

  2. 综合了网上各个版本的停用词,整理出的适用于大部分自然语言处理的问题
  3. 所属分类:机器学习

    • 发布日期:2018-04-30
    • 文件大小:9216
    • 提供者:domsemn
  1. 抽象词版.xlsx

  2. 用户抽象词汇的具体练习,收集了大约3000个抽象词
  3. 所属分类:其它

    • 发布日期:2019-07-23
    • 文件大小:61440
    • 提供者:guo417409635
  1. 英语口语3000高频词 - 2020.xlsx

  2. 本能英语训练营,本能英语口语高频词汇常用3000个单词快速记忆法,收费资料,免费分享,3000个常用单词,助力英语学习
  3. 所属分类:教育

    • 发布日期:2020-04-19
    • 文件大小:462848
    • 提供者:youmendaxia
  1. 牛津核心词汇3000词[语音版] For SuperMemo UX

  2. 我刚做好的词库。 新鲜出炉。 支持语音和音标。 单词解释没给出,这有几个考虑: 第一:词典的含义太多了,背单词最好一个到两个重点含义。不然影响记忆速度。 第二:很多单词是基本词大家都知道。 第三:自己动手输入解释,加深记忆。 编辑模式进入和退出都是F9键。如果有的单词开始就认识,不想学:Ctrl+D忽视它,以后就不出现了。 语音可以用朗文的语音库,需要自行下载然后放在D:\speech下面,就有声音啦。
  3. 所属分类:专业指导

    • 发布日期:2012-09-29
    • 文件大小:12582912
    • 提供者:michaelcity
  1. 牛津词典3000解释用词

  2. 牛津词典3000 The keywords of the Oxford 3000have been carefully selected by a group of language experts and experienced teachers as the words which should receive priority in vocabulary study because of their importance and usefulness. The selection
  3. 所属分类:数据库

    • 发布日期:2013-08-09
    • 文件大小:149504
    • 提供者:u011650071
  1. react-portfolio::sparkles:使用React,样式化组件和一些其他流行词创建的产品组合-源码

  2. React组合 使用React,样式化组件和一些其他流行词创建的作品集仅用于教育目的。 现场演示 安装 用安装卷装。 yarn install 启动应用程序 在终端上输入: yarn start 然后访问URL: http://localhost:3000/ 灵感 该布局的灵感来自Shakuro的作品,名为“设计自由职业主页插图”。 您可以通过单击访问Dribbble上的原始作品。 团队合作 我的感谢: 为了友谊,支持和所有教学活动! 贡献 欢迎提出请求,尽管该项目仅用于研究目的。 执照
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:226304
    • 提供者:weixin_42124743
  1. 词:Twitter词频分析-源码

  2. 剑 快速的Twitter数据集创建和Twitter词频分析 总览 Twords是一个Python类,用于收集推文并在Jupyter笔记本中调查其词频。 Twords使用Jefferson Henrique的Java版本的GetOldTweets(可下载)下载tweets,通过直接查询Twitter网站来克服Twitter API的局限性。 收集速度约为每分钟3000条推文,这意味着可以在大约6个小时内收集100万条推文数据集。 一旦收集了推文,就可以使用Twords将推文加载到熊猫数据框中,清
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:34603008
    • 提供者:weixin_42131601
  1. Deta_Parser:快速中文分词分析分词-源码

  2. (早期接触申请软着,以为申请软着就是发表,结果找华夏知识产权写了已经发表,这里永久申明下。) 用户使用如果遇纠纷法院热线电话12368,公安电话号码110,国外请咨询当地法院与公安部部门 :fire: 26,000 / ms的词段,用于NLP,POS,AI和深度学习/每秒中文混合分词2200〜3000万单词的高精准确率快速神经网络分词包的文本挖掘。训练词意分析,词感分析,词境分析,词灵分析和自由扩展词库免费的官方互动展示页地址: ://tinos.qicp.vip/data.html 项目
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42127835
  1. 小学灯谜练习3000则

  2. Sheet1序号谜面谜目谜底1做人直率点少笔字仆2做人难得无厘头2字词故里3做人不正毁一生6笔字件4做对选择题,再做连线题成语勾勾搭搭5做到心无愧,自然一生清!14笔字魄6座中人皆去6笔字庄7坐谈3字
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28311552
    • 提供者:weixin_38609693
« 12 3 »