您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 我收集的中文分词辞典(人工过滤,准确率86.8%)

  2. 花费了10天时间,进行过滤的中文分词。并对分词进行排序
  3. 所属分类:专业指导

    • 发布日期:2010-01-06
    • 文件大小:7340032
    • 提供者:wanglei6711
  1. 点讯分词点讯十六万词库

  2. 点讯十六万词库 :原作者是wulishui 特点: 1.16万,1.5M左右。 2.词组与第一版相差不大。 3.多音字大部分经过辞典校对。 4.完全不采用官方的词频,而是来源于网络,首选准确率更加准确。 5.经过优化排序,速度要比第一版快一点。使用上经过对比跟官方6万没有很明显减慢,除非同时打开3个以上程序才会有感觉。 6.词组量集中在两字与三字词(达14万左右),使用上建议双字、三字连打
  3. 所属分类:网络基础

    • 发布日期:2010-03-09
    • 文件大小:1048576
    • 提供者:w303972870
  1. linux stardic 字典文件

  2. 下载该文件后,将其解压到/usr/share/stardict/dic下,重启星际译王即可看到字典。 三个字典分别是牛津现代英汉字典(3万多词),计算机词汇(6千多),牛津简明英汉辞典(14万多词)
  3. 所属分类:Linux

    • 发布日期:2010-03-21
    • 文件大小:15728640
    • 提供者:gpstrive
  1. Paoding中文分词包-附带实例,参考手册,Lucene实例

  2. 效果体验 使用者第一步最有可能的是想要体验了解庖丁的分词效果。考虑到这样的需求,庖丁提供了一个shell文件,使用者不必写任何代码就可以获得这样的信息。进入Paoding-Analysis分发包,在命令行模式下执行analyzer.bat(windows)或analyzer.sh(linux)即可。下以windows为例: u 显示帮助 E:\Paoding-Analysis>analyzer.bat ? u 分词对话 当没有在命令行参数种输入分词内容或待分词的文章时,analyzer.
  3. 所属分类:Linux

    • 发布日期:2010-06-08
    • 文件大小:5242880
    • 提供者:hpf911
  1. SCWS简体中文分词辞典txt格式

  2. 这是我在研究中文分词时找到的一个辞典。感谢hightman的基础工作。==============================================SCWS-1.x.x 自述文件 (Written by hightman)HomePage: http://www.hightman.cn...[SCWS 简介]SCWS 是 Simple Chinese Words Segmentation 的缩写(简易中文分词系统)。它是一套基于词频词典的机械中文分词引擎,它能将一整段的汉字基本正
  3. 所属分类:专业指导

    • 发布日期:2008-03-15
    • 文件大小:5242880
    • 提供者:oldfox126
  1. SCWS繁体中文分词辞典txt格式

  2. 这是我在研究中文分词时找到的一个辞典。感谢hightman的基础工作。==============================================SCWS-1.x.x 自述文件 (Written by hightman)HomePage: http://www.hightman.cn...[SCWS 简介]SCWS 是 Simple Chinese Words Segmentation 的缩写(简易中文分词系统)。它是一套基于词频词典的机械中文分词引擎,它能将一整段的汉字基本正
  3. 所属分类:专业指导

    • 发布日期:2008-03-15
    • 文件大小:2097152
    • 提供者:oldfox126
  1. 中文处理资料

  2. 这个压缩包中是本人收集到的有关中文处理的资料,C#实现不过分词算法是通用的,可以帮助您轻松实现类似中文整句翻译的功能。ps:对于苦于寻找词库的朋友,其中还有意外惊喜
  3. 所属分类:其它

    • 发布日期:2008-07-12
    • 文件大小:3145728
    • 提供者:ak47boyl
  1. 中日词典——lingose,屏幕取词,即时翻译

  2. 中日词典 英和辞典界に新風を吹き込んだ大修館がおくる、まったく新しい国語辞典。今までの国語辞典では説明しきれなかった日本語の微妙なニュアンスにまで踏み込み、意味の分類と解説を行った。書き言葉・話し言葉から語を広く収集、誤用情報を充実させ、さらに、広く通用している誤用については積極的に解説、現代日本語の姿を反映させた。他の国語辞典を圧倒する懇切丁寧な語釈と表記情報で、日本語の達人になれる最新最良の一冊。
  3. 所属分类:专业指导

    • 发布日期:2008-11-02
    • 文件大小:3145728
    • 提供者:bhbhsu
  1. 双数组辞典生成程序

  2. 双数组辞典生成程序。利用双数组实现trie算法,对于不定长度共同前缀查询情况,比哈希方法更为有效。经常用于分词辞典的制作
  3. 所属分类:C++

    • 发布日期:2015-10-08
    • 文件大小:237568
    • 提供者:qq_31853929
  1. 中文分词字典,整理242764个词语

  2. 中文分词字典,整理242764个词语,由网上众多辞典拼合并过滤重复词语而来,需要的朋友可以下载去看看。
  3. 所属分类:专业指导

    • 发布日期:2009-04-16
    • 文件大小:1048576
    • 提供者:matrixbbs
  1. 全新整理中文分词字典,242764个中文词语

  2. 全新整理中文分词字典,242764个中文词语。均由网上搜集中文辞典整理合并而来,过滤掉了重复的词语。有需要的朋友可以下载去看看。
  3. 所属分类:专业指导

    • 发布日期:2009-04-16
    • 文件大小:1048576
    • 提供者:tuweifus
  1. 统计自然语言处理

  2. 统计自然语言处理是一本很好的书籍,是一本很基础的书籍目录 序二 第2版前宣 第1版前言 第1章绪论 11基本概念 1.1.1语言学与语音学 2自然语言处理 11.3关于“理解”的标准 1,2自然语言处理研究的内容和面临的困难 1,2,1自然语言处理研宄的内容 1,22自然语言处理涉及的几个层次 1.2.3自然语言处理面临的困难 13自然语言处理的基本方法及其发展 13,1自然语言处理的基本方汏 3,2自然语言处理的发展 14自然语言处理的研究现状 本书的内容安挂 第2章顸备知识 2,1概率论基本
  3. 所属分类:Python

    • 发布日期:2019-03-04
    • 文件大小:25165824
    • 提供者:weixin_34749051
  1. 搜索引擎 中文分词 源代码+实验报告.rar

  2. 本次实验中,我们的研究要将给定的一个输入文件与辞典做比较,并且按照给定格式对于该文件完成最终的分词工作。主要算法:最大匹配算法、基于统计的分词法。实验报告中包括:实验目的、背景、工具、相关模型、流程图、源代码、结果与性能分析以及总结等
  3. 所属分类:C++

    • 发布日期:2020-09-02
    • 文件大小:964608
    • 提供者:Zlionheart