您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 英语口语五句学习法 实战篇

  2. 英语口语一直是中国人的难关,请熟练背诵本书中的例句,教你怎么样扩展自己的词穷的英语词库,句库!!相信自己也可以说出流利的英语,请您尝试,请您大胆说出口,请您坚持练习
  3. 所属分类:专业指导

    • 发布日期:2009-08-10
    • 文件大小:2097152
    • 提供者:enxin3166
  1. 基于二分法的从词库中查找单词源代码

  2. 基于二分法的从词库中查找单词!!!!!!!!!
  3. 所属分类:专业指导

    • 发布日期:2009-09-24
    • 文件大小:929
    • 提供者:xixilala
  1. 语音版新东方考研词库

  2. 舍得制作的语音版新东方考研词库For SuperMemo 2006版,直接新建一个SuperMemo词库,导入后即可使用。该词库是舍得利用网上流传较广的“新东方《考研英语词汇 词根+联想记忆法》文本”制作的,共计收入单词3300余个,利用外挂的语音库可以实现自动语音功能,具体方法如下: 1.下载外挂语音库,下载地址及更详尽的使用方法请看这里:http://blog.sina.com.cn/s/blog_5f2d67f90100d97d.html 2.在D盘下新建一个“Speech”文件夹,将下
  3. 所属分类:专业指导

    • 发布日期:2009-10-10
    • 文件大小:68608
    • 提供者:wyoukun
  1. ppt文件格式转换器

  2. 词库每日更新,随时打出最新词汇,聊天永不落伍。建议使用RealOne Player的朋友赶快升级到新版本。SmartPC是一款集结了系统修复、磁盘清理以及系统优化于一身的软件。StormQ Messenger是由暴风雨工作室开发的专门针对QQ即时通讯平台设计的一款专业产品推广软件。 ppt文件格式转换器包含大量报告功能,可以解释来自服务器、路由器、防火墙、活动目录等的复杂活动日志,为您提供有效监控 和管理整个网路偶所需的精确信息。发表了简短声明,称收回此前不当言论。100%纯净安全, 页面简洁
  3. 所属分类:C++

    • 发布日期:2010-01-05
    • 文件大小:394240
    • 提供者:jp380668002
  1. 法语助手2009 +EFDic (简明英法词典)

  2. (简明英法词典)法语助手2009 + EFDic
  3. 所属分类:专业指导

    • 发布日期:2010-03-24
    • 文件大小:11534336
    • 提供者:ywzgwabc
  1. 中科院计算所语词法分析系统NICTCLAS

  2. NICTCLAS是大名鼎鼎的中科院计算所语词法分析系统ICTCLAS免费版的.NET包装版本,在原有免费EXE源码的基础上使用C++/CLI封装成NICTCLAS.dll,将原CResult类改写成NICTCLAS managed class,并为适应VC8编译对源码做了少许改动,当然还有N个因为strcpy之类的警告因为实在太多干脆不予理会。如有错漏请不吝指正。 NICTCLAS做了一定程度的简化,接口非常简单,普通分词应用足够了,这里提供C#执行程序调用示例。词库文件下载解压请放在对应NI
  3. 所属分类:C#

    • 发布日期:2010-04-15
    • 文件大小:13631488
    • 提供者:njswbd
  1. NICTCLAS文件分词应用.rar

  2. NICTCLAS是大名鼎鼎的中科院计算所语词法分析系统ICTCLAS免费版的.NET包装版本,在原有免费EXE源码的基础上使用C++/CLI封装成NICTCLAS.dll,将原CResult类改写成NICTCLAS managed class,并为适应VC8编译对源码做了少许改动,当然还有N个因为strcpy之类的警告因为实在太多干脆不予理会。如有错漏请不吝指正。 NICTCLAS做了一定程度的简化,接口非常简单,普通分词应用足够了,这里提供C#执行程序调用示例。词库文件下载解压请放在对应NI
  3. 所属分类:C#

    • 发布日期:2010-05-21
    • 文件大小:3145728
    • 提供者:everhuang
  1. stardict法中中法词典下载

  2. stardict词库就不用多说了,供有需要的人。
  3. 所属分类:专业指导

    • 发布日期:2010-09-05
    • 文件大小:9437184
    • 提供者:ivandot
  1. ghostcat源码(附带实例)

  2. -判断矢量边缘实现不规则物品碰撞检测(非位图) -高效位图碰撞及重叠矢量检测 -A星,深/广度,2D/3D/路点,寻路方式统一处理。 -二次贝尔法曲线,按长度切割和计算法线,光滑曲线拟合(过点或者不过点) -SWF解析器,从ByteArray中播放声音,直接控制AVM1的动画类容。 -丰富的文本缓动,部分文字Filter,渐变色文字,字符差异对比,ANSI转码,URL解码,中文数字,拼音码,这是一个单独的底层包 -完全由FLASH实现的拼音输入法,需要加载200K的词库,光标跟随并可词语输入(
  3. 所属分类:Actionscript

    • 发布日期:2011-09-08
    • 文件大小:13631488
    • 提供者:lili2lili
  1. 各种输入法词库互导工具

  2. 一款可以让你的搜狗输入法,QQ拼音输入法等相关输入法的词库互相导入导出的强大的工具
  3. 所属分类:其它

    • 发布日期:2013-12-31
    • 文件大小:248832
    • 提供者:yese_slamdunk
  1. 百度输入法 v5.3.3.0

  2. 百度输入法 v5.3.3.0 版本:5.3.3.0 软件语言:中文 软件类别:输入法 软件大小:8.26 MB 适用固件:1.5及更高固件 内置广告:没有广告 适用平台:Android 百度输入法是百度官方开发的适用于Android平台的输入法,支持拼音,笔画输入,经网友再次开发,支持五笔86输入,是广大五笔用户的必备输入法软件,软件还处于测试版,不可避免存在一起bug. 百度手机输入法特点: 输入方式多样:支持全拼、双拼、笔画、五笔、英文、手写等多种输入方式,满足不同用户输入习惯; 词库精准
  3. 所属分类:Android

    • 发布日期:2015-01-22
    • 文件大小:8388608
    • 提供者:bbcsport
  1. 中文分词入门与字标注法

  2. 作为中文信息处理的“桥头堡”,中文分词在国内的关注度似乎远远超过了自然语言处理的其他研究领域。在中文分词中,资源的重要性又不言而喻,最大匹配法等需要一个好的词表,而基于字标注的中文分词方法又需要人工加工好的分词语料库。所以想研究中文分词,第一步需要解决的就是资源问题,这里曾经介绍过“LDC上免费的中文信息处理资源”,其中包括一个有频率统计的词表,共计44405条,就可以作为一个不错的中文分词词表使用。而一个好的人工分词语料库,需要很大的人力物力投入,所以无论研究还是商用往往需要一定的费用购买,
  3. 所属分类:深度学习

    • 发布日期:2017-12-14
    • 文件大小:251904
    • 提供者:u011563494
  1. 顺序表字典二分法逐级检索 源码

  2. 问题重述:有一个内含有大约40万条常用词汇的词库。现给定一篇文章,使用这个词库分析出常用词汇的出现次数,并按出现次数由高到低排序这些词语。 改进算法的思路: 1. 通常一篇文章所包含的词语远少于词库中40万的数量; 2. 数据库建立索引之后,可采用“二分法”对词语进行快速定位; 3. 逐字缩小查询范围,如果查询到某个字符时范围已经为0,那么可以预测其后的词一定也不存在,(例如查询到forest时已经没有匹配的词了,就可以到此结束)。 以下是算法的实现:
  3. 所属分类:其它

    • 发布日期:2009-02-01
    • 文件大小:915456
    • 提供者:comceo
  1. 词汇之沙 是一款专门用于单词记忆学习的背单词软件,通过高效的动态重复循环记忆法以及各种单词助记法,帮助用户以最短的时间突破长期困扰我们的单词量问题

  2. 是一款专门用于单词记忆学习的背单词软件,通过高效的动态重复循环记忆法以及各种单词助记法,帮助用户以最短的时间突破长期困扰我们的单词量问题。 动态调整:根据对单词的熟悉程度,动态调整词频;越陌生的单词,越会频繁出现,而已经掌握的,出现的频率越小。 真人美音:标准真人美音(需单独下载语音库)。 自动联想:可自动按词形或发音进行相似词,同音词联想。 自助助记:随时添加,修改单词助记法。(详见:单词辅助记忆法) 助记法共享和下载:用户可以共享自己的助记法,也可下载其他沙友的助记法
  3. 所属分类:专业指导

    • 发布日期:2009-04-24
    • 文件大小:1018880
    • 提供者:id_ck
  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:2097152
    • 提供者:weixin_39841365
  1. 考研英语高频词记忆法

  2. 英语单词的记忆方法,是word文档,这个也可以当成高频词的词库看,很方便
  3. 所属分类:专业指导

    • 发布日期:2009-09-02
    • 文件大小:3145728
    • 提供者:bianjing1122
  1. 基于跨语言语料库的汉语和老挝语单词分布

  2. 单词表示是自然语言处理的基础研究内容。目前,单语言单词的分布式表示在一些神经概率语言(NPL)研究中显示出令人满意的应用效果,而对于跨语言单词的分布式表示,研究很少。在国内外。 针对这两种语言中名词和动词的分布相似性的问题,我们通过弱监督学习扩展法等方法将互译的单词,同义词,上位词嵌入中文语料库中,从而在跨语言环境中实现了老挝单词分布。学中文和老挝。 我们利用之前学习的跨语言单词的分布式表示来计算双语文本的相似度,并对汉语和老挝的混合文本语料库进行分类,实验结果表明该建议对这两个任务具有令人满意
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:442368
    • 提供者:weixin_38719643
  1. ask-answer-system:简单的问答系统实现,利用TF-IDF,词向量,倒排表等方法-源码

  2. 问-答系统 简单的问答系统实现,利用TF-IDF,词向量,倒排表等方法 数据集 综合类中文词库.xlsx:包含了中文词,当做字典来用(用作PART1) dev-v2.0.json:这个数据包含了问题和答案的对,但是以JSON格式存在,需要编写parser来提取出里面的问题和答案。 手套。6B:这个文件需要从网上下载,下载地址为: ://nlp.stanford.edu/projects/glove/,请使用d = 100的单词向量(用于PART3) 环境: Python 3(必须要使用P
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:18874368
    • 提供者:weixin_42134094
  1. HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理-源码

  2. HanLP:汉语言处理 || || 面向生产环境的多语种自然语言处理工具包,基于PyTorch和TensorFlow 2.x双引擎,目标是普及落地最前沿的NLP技术。HanLP实现功能完善,性能高效,架构清晰,语料时新,可自定义的特点。 穿越世界上最大的多语言种语料库,HanLP2.1支持包括简繁中英日俄法德内部的104种语言上的10种联合任务:分词(粗分,细分2个标准,强制,合并,校正3种),词性标注(PKU,863,CTB,UD四套词性规范),命名实体识别(PKU,MSRA,OntoNot
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:775168
    • 提供者:weixin_42134054
  1. python中文分词库jieba使用方法详解

  2. 安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1、分词 1.1、CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = '我爱自然语言处理' # 创建【Tokenizer.cut 生成器
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:107520
    • 提供者:weixin_38707356
« 12 3 4 5 »