您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. lucene2.9.1所有最新开发包及源码及文档

  2. 开源全文搜索工具包Lucene2.9.1的使用。 1. 搭建Lucene的开发环境:在classpath中添加lucene-core-2.9.1.jar包 2. 全文搜索的两个工作: 建立索引文件,搜索索引. 3. Lucene的索引文件逻辑结构 1) 索引(Index)由若干块(片段)(Segment)组成 ★2) 块由若干文档(Document)组成: 一个文件映射成一个文档。数据库表中的一条记录映射成一个文档。 ★3) 文档由若干域(Field)组成:文件的属性(文件路径,文件的内容)映
  3. 所属分类:C

    • 发布日期:2009-11-25
    • 文件大小:26214400
    • 提供者:wenweijing
  1. UCC编译器,编程人员必备

  2. 带说明文档,对于编译原理的学习者很有用。 ucc是一款遵从ANSI C89标准的编译器,大约15,000行C代码。目前支持x86平台上的Linux和Windows系统,能正确编译自身并成功运行。 它有下面一些特点: 代码结构清晰直观,有比较详细的中文文档讲述它的实现 使用三地址码作为中间码,构建了由基本块组成的控制流图,适合很多优化算法 编译速度快。词法分析,语法分析和目标代码生成器都是手写的(其中的代码生成器本想用burg这样的工具自动生成,但这样可能会给代码的理解带来难度,最后手写了一个简
  3. 所属分类:C

    • 发布日期:2012-12-12
    • 文件大小:376832
    • 提供者:awxqpalzm
  1. 开源中文词法文本分析程序整理

  2. 开源中文词法文本分析程序整理,有开发软件及其作用
  3. 所属分类:网络监控

    • 发布日期:2015-04-10
    • 文件大小:18432
    • 提供者:qq_27285461
  1. 哈工大语言技术平台LTP.zip

  2. 语言技术平台(Language Technology Platform,LTP)是哈工大社会计算与信息检索研究中心历 时十年开发的一整套中文语言处理系统。LTP制定了基于XML的语言处理结果表示,并在此基础上提供了一整套自底向上的丰富而且高效的中文语言处理模块 (包括词法、句法、语义等6项中文处理核心技术),以及基于动态链接库(Dynamic Link Library, DLL)的应用程序接口,可视化工具,并且能够以网络服务(Web Service)的形式进行使用。从2006年9月5日开始该平
  3. 所属分类:其它

    • 发布日期:2019-07-17
    • 文件大小:6291456
    • 提供者:weixin_39840914
  1. Python-百度的中文开源词法分析工具LAC

  2. 中文分词(Word Segmentation)是将连续的自然语言文本,切分出具有语义合理性和完整性的词汇序列的过程。因为在汉语中,词是承担语义的最基本单位,切词是文本分类、情感分析、信息检索等众多自然语言处理任务的基础。
  3. 所属分类:其它

    • 发布日期:2019-08-11
    • 文件大小:87040
    • 提供者:weixin_39840387
  1. salyut:这是蜘蛛标记语言的引擎,称为trico。 (蜘蛛框架)-源码

  2. 中文| 礼炮 基于标记语言的开源爬虫框架。 礼炮是TRICO脚本的的解析执行引擎,通过简单的调用礼炮中方法,即可以运行TRICO脚本并得到相应的结果。礼炮是一个开源项目,您可以自行修改目录下的类定制自己语法表达式,也可以通过修改或增加目录下的类来扩展Salyut的能力。 Salyut基于的技术 通过来对词法进行解析,如果您对Yaml有一定的了解,可以更好的帮助您提升trico scr ipt的一些语言特性。 主要通过来获取浏览器的校正和解析能力,如果您对Selenium有一定的了解可以更好
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:1048576
    • 提供者:weixin_42133899
  1. MiNLP:小米自然语言处理工具包-源码

  2. MiNLP 小米自然语言处理平台(MiNLP)具有词法,句法,语义分析等数十个功能模块,已经在公司业务中得到了广泛的应用。 MiNLP-Tokenizer中文分词工具经过不断优化和实战打磨,已于2020年11月正式对外开放。 我们计划在2021年Q2完成所有词法工具(词性标注和命名实体识别)的开源,从2021年Q3开始,我们将开始使用开源句法分析和部分语义分析工具,并且开发者一起打造功能强大,效果领先的NLP平台。 模块 中文分词:MiNLP-Tokenizer() 词性标注:施工中,敬请期待
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:36700160
    • 提供者:weixin_42128393
  1. HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理-源码

  2. HanLP:汉语言处理 || || 面向生产环境的多语种自然语言处理工具包,基于PyTorch和TensorFlow 2.x双引擎,目标是普及落地最前沿的NLP技术。HanLP实现功能完善,性能高效,架构清晰,语料时新,可自定义的特点。 穿越世界上最大的多语言种语料库,HanLP2.1支持包括简繁中英日俄法德内部的104种语言上的10种联合任务:分词(粗分,细分2个标准,强制,合并,校正3种),词性标注(PKU,863,CTB,UD四套词性规范),命名实体识别(PKU,MSRA,OntoNot
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:775168
    • 提供者:weixin_42134054
  1. luge-ai-源码

  2. 索引 本页面按照自然语言处理任务进行分类,索引了开源的中文数据集信息,旨在帮助新人快速发现和浏览每个任务已有的开源数据集。 GitHub”,欢迎更多的贡献者共同编辑中文自然语言处理数据集信息的索引。 词法分析 句法分析 语义解析 文本分类 文本相似度 情感分析 信息抽取 文本生成 问答系统 对话系统 机器翻译 多模态 知识图谱 添加数据集 如何添加:点击顶部Github入口,即可在Github上浏览,添加新数据集,或创建新的任务,并为新任务添加数据集。 详情:使用表格形式添加新数据集的名称,作者
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:1048576
    • 提供者:weixin_42165508