您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. SPEECH and LANGUAGE PROCESSING

  2. SPEECH and LANGUAGE PROCESSING An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition Second Edition by Daniel Jurafsky and James H. Martin Last Update January 6, 2009 The 2nd edition is now avaiable. A mil
  3. 所属分类:C++

    • 发布日期:2010-07-05
    • 文件大小:14680064
    • 提供者:wx90wx
  1. bigram frequency

  2. 使用说明http://www.umiacs.umd.edu/~jimmylin/cloud9/docs/exercises/bigrams-solutions.html
  3. 所属分类:Java

    • 发布日期:2011-05-10
    • 文件大小:18432
    • 提供者:chp910315
  1. [lry]人体运动捕获数据的向量空间建模与检索

  2. 为了精确、高效地检索人体运动数据库,将三维人体运动捕获数据表示成类似于文本的形式,提出一种基于内容的运动检索方法.首先对人体上/下半身两部分数据分别提取关键帧,并进行相似传播聚类分析,获得数据中最具代表性的一组人体姿势,称之为运动词汇;然后将运动片段的每一帧都替换成运动词汇中与其最相近的姿势来构建运动文档,利用Bigram向量空间模型对人体运动进行检索.整个算法流程不需要人为干预,能够自动完成对已分割运动数据片段的索引.实验结果表明,与现有方法相比,文中方法具有更高的检索精度和召回率.
  3. 所属分类:专业指导

    • 发布日期:2012-01-12
    • 文件大小:2097152
    • 提供者:brianlan
  1. 采用bigram语言模型实现的拼音串智能转换汉字串

  2. 采用bigram语言模型实现的拼音串智能转换汉字串
  3. 所属分类:Python

    • 发布日期:2017-08-12
    • 文件大小:10485760
    • 提供者:ninghaofeng
  1. NLP分词算法,源码

  2. 最大概率分词算法,带详细源码 基于最大概率的汉语切分 目标:采用最大概率法进行汉语切分。 其中:n-gram用bigram,平滑方法至少用Laplace平滑。 输入:接收一个文本,文本名称为:corpus_for_test.txt 输出:切分结果文本, 其中:切分表示:用一个字节的空格“ ”分隔,如:我们 在 学习 。 每个标点符号都单算一个切分单元。 输出文件名为:学号.txt
  3. 所属分类:C/C++

    • 发布日期:2017-11-12
    • 文件大小:225280
    • 提供者:mays_changzhi
  1. 基于无指导学习策略的无词表条件下的汉语自动分词

  2. 基于无指导学习策略和无词表条件下的汉语自动分词方法,以期对研制开放环境下健壮的分词系统.全部分词知识源自从生语料库中自动获得的汉字Bigram
  3. 所属分类:Java

    • 发布日期:2018-05-24
    • 文件大小:178176
    • 提供者:m0_37350070
  1. 千万级词库-Bigram

  2. 因工作需要,最近在做自然语言处理方面的研究,第一步需要实现中文分词,市面上有许多开源的分词组件,本人使用的是word分词,但这些开源组件中的词库都比较小,因此这段时间主要是在网上爬了各种词库,并通过XX词典校验,挑选在XX词典中收录的(耗费相当多的精力)。此份Bigram
  3. 所属分类:机器学习

    • 发布日期:2018-07-06
    • 文件大小:47185920
    • 提供者:qengland
  1. 手写CRF 语言模板

  2. 手写的java crf模板,支持unigram与bigram两种模板输入,其中train集需要两列(在材料中也有),test集需要一列文字
  3. 所属分类:机器学习

    • 发布日期:2018-12-11
    • 文件大小:2097152
    • 提供者:qq_40730004
  1. java通过括特征选取、特征降维、分类模型学习三个步骤完成自动智能分类

  2. THUCTC(THU Chinese Text Classification)是由清华大学自然语言处理实验室推出的中文文本分类工具包,能够自动高效地实现用户自定义的文本分类语料的训练、评测、分类功能。文本分类通常包括特征选取、特征降维、分类模型学习三个步骤。如何选取合适的文本特征并进行降维,是中文文本分类的挑战性问题。我组根据多年在中文文本分类的研究经验,在THUCTC中选取二字串bigram作为特征单元,特征降维方法为Chi-square,权重计算方法为tfidf,分类模型使用的是LibSV
  3. 所属分类:Java

    • 发布日期:2019-05-20
    • 文件大小:801792
    • 提供者:weixin_41900160
  1. 智能问答算法原理及实践之路

  2. 高清版,智能问答算法原理及实践之路CONTENTS 01 智能问答算法原理 02 实践:小知客服机器人电话机器人 03 总结和挑战 腾讯小知 总览 query 中控逻辑 response 任务机器人 知识图谱机器人 FAQ机器人 闲聊机器人 阅读理解机器人 KNOWLEDGE GRAPH AQ豆豆 腾讯小知 腾讯小知 FAQ机器人 Preprocess:对 query进行预处理,抽取NLP特征 社保余额 怎么查询? 纠错 标准化文本特征提取 FAQ问题集 Retrieval:从问题索引中召回
  3. 所属分类:机器学习

    • 发布日期:2019-07-15
    • 文件大小:3145728
    • 提供者:weixin_45246409
  1. Android代码-Java 实现的自然语言处理中文分词

  2. HanLP: Han Language Processing 汉语言处理包 HanLP是一系列模型与算法组成的NLP工具包,由大快搜索主导并完全开源,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 HanLP提供下列功能: 中文分词 HMM-Bigram(速度与精度最佳平衡;一百兆内存) 最短路分词、N-最短路分词 由字构词(侧重精度,全世界最大语料库,可识别新词;适合NLP任务) 感知机分词、CRF分词 词典分词(侧重速度,每
  3. 所属分类:其它

    • 发布日期:2019-08-06
    • 文件大小:22020096
    • 提供者:weixin_39840924
  1. 该资源为英文单词unigram bigram 的词库统计:以单词-词频的方式保存。

  2. 该资源为英文单词unigram bigram 的词库统计:以单词-词频的方式保存。该资源为英文单词unigram bigram 的词库统计:以单词-词频的方式保存。该资源为英文单词unigram bigram 的词库统计:以单词-词频的方式保存。
  3. 所属分类:深度学习

    • 发布日期:2020-04-29
    • 文件大小:4194304
    • 提供者:code_fighter
  1. sgns.sogounews.bigram-char.pt

  2. sgns.sogounews.bigram-char.pt sgns.sogounews.bigram-char.pt
  3. 所属分类:深度学习

    • 发布日期:2020-08-02
    • 文件大小:447741952
    • 提供者:qq_34405401
  1. sgns.sogounews.bigram-char

  2. sgns.sogounews.bigram-char sgns.sogounews.bigram-char
  3. 所属分类:深度学习

    • 发布日期:2020-08-02
    • 文件大小:1044381696
    • 提供者:qq_34405401
  1. metadata.txt

  2. 写一个Python程序,使用给定的语料库(metadata.txt的第三列文本),构建二元语法模型,用MLE(最大似然估计)去估计bigram的概率,可以不使用数据平滑技术。
  3. 所属分类:Python

    • 发布日期:2020-11-25
    • 文件大小:2097152
    • 提供者:qq_40061206
  1. Python构建二元语法模型.zip

  2. 问题:写一个Python程序,使用给定的语料库(metadata.txt的第三列文本),构建二元语法模型,用MLE(最大似然估计)去估计bigram的概率,可以不使用数据平滑技术。需要使用控制台输入法演示该语言模型:当输入一个单词后,程序自动推荐接下来最可能输入的5个单词,如果用户根据推荐或自主输入下一个单词,程序以同样的方式推荐接下来最可能输入的5个单词,以此使用户循环输入。
  3. 所属分类:机器学习

    • 发布日期:2020-12-08
    • 文件大小:1048576
    • 提供者:qq_40061206
  1. exercise-源码

  2. 用bisgram列表计算tf-idf值 使用tfidf文件夹中的语料库计算一个bigram列表,并将此列表用作术语列表以计算tf-idf值并将结果输出到excel文件tfidf_result 识别具有相似性的相似文件 使用tfidf文件夹中的语料库来识别与doc_0.txt最相似的5个文档(尝试点积和余弦相似度)并显示这两种方法的文档ID 爬虫收集数据 使用《星球大战八号》的链接( )来爬行电影说明,海报和提取电影链接。 提取前100部电影 一种。 从找到的100部流行电影中提取以下各项:i)
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:5242880
    • 提供者:weixin_42125770
  1. 维吾尔文Bigram文本特征提取

  2. 维吾尔文Bigram文本特征提取
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:1048576
    • 提供者:weixin_38699726
  1. n-gram-probabilities:使用NLTK库生成的Unigram和Bigram令牌。 计算的Unigram和Bigram概率。 并显示前15个常用词-源码

  2. n-gram概率 使用NLTK库生成的Unigram和Bigram令牌。 计算的Unigram和Bigram概率。 并显示前15个常用词。
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:53248
    • 提供者:weixin_42117032
  1. Natural-LanguageProcessing-App-Review-Classifier:使用Python NLTK构建的应用程序评论分类器(使用一揽子单词,bigram,停用词,词形化,元数据等); 计算精度,召回率和F1分数-源

  2. 自然语言处理-应用程序审查分类器 工具:Python nltk,nltk.classify,textblob.classifiers 使用Python NLTK库构建的应用程序评论分类器(使用单词,双字母组,停用词,词义化,元数据等),将评论分为错误,功能,用户体验或评分 将NLP分类器结果与手动标签进行比较,计算出精度,召回率和F1分数参考: :
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:955392
    • 提供者:weixin_42106299
« 12 »