您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. emv支付标记化技术框架

  2. 本文档旨在提供一个详细的为了行业一致化和可交互操作的付款标记化方案 而制定的技术规范,此方案将有惠于收购者、商家、发行商、持卡人。 本规范描述了付款标记化的概况,定义了支持付款标记化的必要实体的关键角色定位,确认了这个规范的重要影响,指定了和令牌请求、发行和供应还有交易处理相关联的必须和可选的数据字段,并确认了必要的API
  3. 所属分类:金融

    • 发布日期:2017-10-12
    • 文件大小:1048576
    • 提供者:victory71
  1. 中国银联支付标记化技术指引

  2. 中国银联支付标记化技术指引中国银联支付标记化技术指引中国银联支付标记化技术指引中国银联支付标记化技术指引中国银联支付标记化技术指引
  3. 所属分类:金融

    • 发布日期:2017-10-12
    • 文件大小:1048576
    • 提供者:victory71
  1. 中国银联支付标记化技术框架

  2. 中国银联支付标记化技术框架 , 详细介绍了银联推出的支付标记服务平台架构和实现原理。
  3. 所属分类:互联网

    • 发布日期:2017-12-06
    • 文件大小:1048576
    • 提供者:liubanxian1
  1. 《中国金融移动支付 支付标记化技术规范》-标准版.pdf

  2. 《中国金融移动支付 支付标记化技术规范》-标准版.pdf
  3. 所属分类:网络安全

    • 发布日期:2020-08-11
    • 文件大小:587776
    • 提供者:weixin_46137328
  1. Source-Code-Analyzer:这是我尝试标记化Python代码内容的各种方法的集合-Source code collection

  2. 源代码分析器 这是我尝试标记化Python代码内容的不同方法的集合。
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:5120
    • 提供者:weixin_42157556
  1. simple-nlp-examples:使用节,spacy和NLTK的几个简单的NLP标记化示例-源码

  2. 简单的NLP示例 此存储库提供了几个使用spacy,节和NLTK的简单python NLP标记化示例。 要使用,请先执行以下操作: pip install --user -U stanza nltk spacy python -m spacy download es_core_news_sm 概念验证命令行程序,可以下载文本文件,在本地加载它们或使用字符串作为文本,并使用spacy对文本进行标记化,提供几个命令来打印文本,列出实体以及列出和过滤标记。 有点混乱。 按类型过滤和打印令牌的
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:7168
    • 提供者:weixin_42131618
  1. deepcut:使用深度神经网络的泰语单词标记化库-源码

  2. 深切 使用深度神经网络的泰语单词标记化库。 什么是新的 v0.7.0从keras迁移到TensorFlow 2.0 v0.6.0允许排除停用词和自定义词典,通过半监督学习更新权重 v0.5.2更好的预训练权重矩阵 v0.5.1通过代码重构实现更快的标记化 examples文件夹提供了泰语文本分类问题的入门脚本 DeepcutJS ,您可以在尝试在网络浏览器上标记泰语文本 性能 卷积神经网络由NECTEC的BEST语料库(包括文章,新闻,小说和百科全书4个部分)的90%进行训练,其余10%进行
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:3145728
    • 提供者:weixin_42140710
  1. isobase:标记化的设计开发框架工具包入门版,其中代码为真相-源码

  2. Isobase是我们决定自行构建的内部工具的概念证明,以简化我们的设计和开发过程。 早期版本用于启动一些项目,因为我们提炼了如何以及为什么要构建事物。 随着时间的流逝,我们采用了这些基本概念,并将其纳入了每个项目评估工具的过程。 等基 一个标记化的设计/开发框架工具包入门版,其中代码为真相。 固执己见,仅够入门,不足以不知所措。 Isobase受到Ether(我们的风景)的极大启发。 Ether是一个自以为是的设计系统,其核心是排版。 大小和间距是从字体本身的示意图中数学得出的。 我们将基于
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:234496
    • 提供者:weixin_42110070
  1. tokenizer:一个小型库,用于将标记化PHP源代码转换为XML(以及其他可能的格式)-源码

  2. 分词器 一个小型库,用于将标记化PHP源代码转换为XML。 安装 您可以使用将该库作为本地的,基于项目的依赖项添加到您的项目中: composer require theseer/tokenizer 如果仅在开发过程中需要此库(例如,运行项目的测试套件),则应将其添加为开发时依赖项: composer require --dev theseer/tokenizer 用法示例 $ tokenizer = new TheSeer \ Tokenizer \ Tokenizer (); $ tok
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:10240
    • 提供者:weixin_42113552
  1. ngram:快速n-Gram标记化-源码

  2. ngram:快速n-Gram标记化
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:189440
    • 提供者:weixin_42157567
  1. megamark:具有轻松标记化功能,快速荧光笔和精益HTML清理程序的Markdown-源码

  2. 兆标记 具有轻松的标记化,快速的荧光笔和精益HTML清理程序 Megamark是加上一些合理的出厂默认值。 通过Markdown解析 HTML是通过清理的,并且可以配置 用代码(在!) 标记化变得容易:立即将那些提及变成链接! 就像您习惯使用一样,使文本 您甚至可以在代码块内部使用标记突出显示有趣的内容 标题具有唯一的id ,可帮助您在Markdown文档中实现导航 仍然设法产生很小的足迹 安装 npm install megamark --save bower install mega
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:300032
    • 提供者:weixin_42140710
  1. tokenizr:JavaScript的字符串标记化库-源码

  2. 代币化 Javascr ipt的灵活字符串标记化库 关于 Tokenizr是一个小Javascr ipt库,提供强大而灵活的字符串标记化功能。 它打算在基于递归下降的“语法解析器”中用作基础的“词法扫描器”,但也可以用于其他解析目的。 其独特的功能是: 高效迭代: 它以只读且无复制的方式遍历输入字符串。 堆叠状态: 其标记化基于用于确定可应用规则的堆叠状态。 每个规则只能针对一个或多个特定状态启用。 正则表达式匹配: 它的标记化基于强大的正则表达式来匹配输入字符串。 重复比赛: 规则操作
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:23552
    • 提供者:weixin_42131861
  1. pikkr:JSON解析器,可直接获取值,而无需在Rust中执行标记化-源码

  2. pikkr:JSON解析器,可直接获取值,而无需在Rust中执行标记化
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:67584
    • 提供者:weixin_42132354
  1. awesome-bert-japanese::memo:日语预训练的BERT模型列表,带有单词双词标记化+词汇构造算法信息-源码

  2. awesome-bert-japanese::memo:日语预训练的BERT模型列表,带有单词双词标记化+词汇构造算法信息
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:2048
    • 提供者:weixin_42144201
  1. fugashi:Cython MeCab包装器,用于快速,Python式的日语标记化和形态分析-源码

  2. 古史 fugashi是的Cython包装器, 是日本的分词器和形态分析工具。 提供了适用于Linux,OSX和Win64的滚轮,UniDic。 问题を英语で书く必要はありません。 查看,查看有关fugashi为何存在的背景以及一些设计决策的信息,或参阅以获取日语标记化的基本介绍。 如果您使用的平台不受支持(例如PowerPC),则需要先安装MeCab。 建议您安装。 用法 from fugashi import Tagger tagger = Tagger ( '-Owakati' )
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:338944
    • 提供者:weixin_42121905
  1. syntok:文本标记化和句子分段(segtok v2)-源码

  2. syntok:文本标记化和句子分段(segtok v2)
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:23552
    • 提供者:weixin_42131439
  1. udpipe:基于UDPipe自然语言处理工具包的R软件包,用于标记化,语音标记,词法化和依存性分析-源码

  2. udpipe-基于UDPipe的用于标记化,标记,合法化和依赖性解析的R包 该存储库包含的R包是绕UDPipe C ++库的RCPP包装物( , )。 UDPipe提供了与语言无关的标记,标记,词条化以及原始文本的依赖项解析,这是自然语言处理中必不可少的部分。 所使用的技术在论文中进行了详细说明:“使用UDPipe进行令牌化,POS标记,解密和解析UD 2.0”,可从以下网址获得: //ufal.mff.cuni.cz/~straka/papers/2017-conll_udpipe.
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:4194304
    • 提供者:weixin_42162216
  1. prose:用于文本处理的Golang库,包括标记化,词性标记和命名实体提取-源码

  2. 散文 prose是纯Go语言中的自然语言处理库(目前仅英语)。 它支持标记化,分段,词性标记和命名实体提取。 你可以在这里找到在图书馆的表现更详细的摘要: 。 安装 $ go get github.com/jdkato/prose/v2 用法 内容 总览 package main import ( "fmt" "log" "github.com/jdkato/prose/v2" ) func main () { // Create a new documen
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:11534336
    • 提供者:weixin_42133329
  1. PHP_CodeSniffer:PHP_CodeSniffer标记化PHP文件并检测是否违反了一组已定义的编码标准-源码

  2. 关于 PHP_CodeSniffer是两个PHP脚本的集合; 主要的phpcs脚本可对PHP,Javascr ipt和CSS文件进行标记化,以检测对已定义的编码标准的违反,而第二个phpcbf脚本可自动纠正对编码标准的违反。 PHP_CodeSniffer是必不可少的开发工具,可确保您的代码保持干净和一致。 要求 PHP_CodeSniffer需要PHP 5.4.0或更高版本,尽管单个嗅探可能还有其他要求,例如外部应用程序和脚本。 有关这些要求的列表,请参见“。 如果您将PHP_CodeSni
  3. 所属分类:其它

    • 发布日期:2021-01-29
    • 文件大小:1048576
    • 提供者:weixin_42168750
  1. sql-metadata:使用python-sqlparse返回的标记化查询并生成查询元数据-源码

  2. sql元数据 使用返回的标记化查询并生成查询元数据。 提取查询使用的列名和表。 提供用于标准化SQL查询和表别名解析的帮助器。 支持的查询语法: MySQL PostgreSQL 用法 pip install sql_metadata >> > import sql_metadata >> > sql_metadata . get_query_tokens ( "SELECT * FROM foo" ) [ , , , ] >> >
  3. 所属分类:其它

    • 发布日期:2021-01-28
    • 文件大小:21504
    • 提供者:weixin_38649315
« 12 3 4 5 6 7 8 9 10 ... 50 »