您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Advanced Data Analytics Using Python With Machine Learning, Deep 无水印原版pdf

  2. Advanced Data Analytics Using Python With Machine Learning, Deep Learning and NLP Examples 英文无水印原版pdf pdf所有页面使用FoxitReader、PDF-XChangeViewer、SumatraPDF和Firefox测试都可以打开 本资源转载自网络,如有侵权,请联系上传者或csdn删除 查看此书详细信息请在美国亚马逊官网搜索此书
  3. 所属分类:Python

    • 发布日期:2018-04-12
    • 文件大小:2097152
    • 提供者:u011433684
  1. 【最新】2018斯坦福cs224n深度学习与自然语言处理NLP课程课件、代码、国内观看视频链接

  2. 2018最新Stanford大学CS224n: Natural Language Processing with Deep Learning。新版“用深度学习进行自然语言处理”以深度学习为中心,包含更多的传统自然语言处理的内容。丰富的学习资源,比如PPT, 讲义,代码和课程报告,是非常好的自然语言入门课程,分享给下载积分少的朋友!
  3. 所属分类:深度学习

    • 发布日期:2018-01-14
    • 文件大小:486
    • 提供者:zhuf14
  1. 自然语言处理中的神经网络方法

  2. 文件为Yoav Goldberg-Neural Network Methods in Natural Language Processing-Morgan & Claypool (2017).pdf
  3. 所属分类:深度学习

    • 发布日期:2018-01-31
    • 文件大小:3145728
    • 提供者:qq_27075947
  1. Pro Deep Learning with TensorFlow A Mathematical Approach to AI in Python

  2. 如果你想从事机器学习或深度学习,TensorFlow几乎是最好的工具。这本书从从数学的角度开始介绍机器学习中的一些算法,给出python代码实例,直观,易理解,并且有丰富的图进行展示。从基本的数学基础,矩阵、概率深度学习基本单元、全连接网络,各种卷积网络、NLP中多种模型如RNN到到最近最火的GAN模型都有讲解,非常棒的一本书
  3. 所属分类:深度学习

    • 发布日期:2018-09-17
    • 文件大小:14680064
    • 提供者:xiezi136206008
  1. BERT_Pre-training of Deep Bidirectional Transformers for Language Understanding

  2. BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。项目地址:https://github.com/google-research/bert#fine-tuning-with-bert
  3. 所属分类:机器学习

    • 发布日期:2018-11-02
    • 文件大小:591872
    • 提供者:hanjushi2
  1. Deep Learning in Natural Language Processing

  2. 邓力、刘洋教授等人在编写一本 NLP 领域的书籍《Deep Learning in Natural Language Processing》。
  3. 所属分类:深度学习

    • 发布日期:2018-11-15
    • 文件大小:7340032
    • 提供者:bjdream1987
  1. 智能问答算法原理及实践之路

  2. 高清版,智能问答算法原理及实践之路CONTENTS 01 智能问答算法原理 02 实践:小知客服机器人电话机器人 03 总结和挑战 腾讯小知 总览 query 中控逻辑 response 任务机器人 知识图谱机器人 FAQ机器人 闲聊机器人 阅读理解机器人 KNOWLEDGE GRAPH AQ豆豆 腾讯小知 腾讯小知 FAQ机器人 Preprocess:对 query进行预处理,抽取NLP特征 社保余额 怎么查询? 纠错 标准化文本特征提取 FAQ问题集 Retrieval:从问题索引中召回
  3. 所属分类:机器学习

    • 发布日期:2019-07-15
    • 文件大小:3145728
    • 提供者:weixin_45246409
  1. Siamese Recurrent Architectures for Learning Sentence Similarity.pdf

  2. 用最简单的模型、最简单的特征工程做出好效果,追求的就是极致性价比。如果有需要,可以在此基础上做一些模型更改和特征工程,提高表现效果。ture for face verification developed by Chopra, Hadsell, and This forces the LSTm to entirely capture the semantic dif- LeCun(2005), which utilizes symmetric Conv Nets where ferences d
  3. 所属分类:深度学习

    • 发布日期:2019-10-14
    • 文件大小:1048576
    • 提供者:wolegequya
  1. Deep Learning for NLP with TensorFlow2.0.zip

  2. 最新基于TensorFlow 2.0的NLP实操介绍,重点介绍Embeddings,seq2seq,attention和神经机器翻译等经典的NLP主题,以及Transformer、BERT和XLNet等现代深度学习架构.
  3. 所属分类:深度学习

    • 发布日期:2020-07-10
    • 文件大小:9437184
    • 提供者:demm868
  1. BERT介绍

  2. 简介 BERT模型来自谷歌团队的paper——BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,它在11个NLP任务中刷新了成绩,效果非常好,非常惊人。但是,这项工作不是很好复现,如果没有足够的资源就不要想了 。之前,利用预训练的语言表征来完成下游NLP任务的研究,可以概括为两类:feature-based和fine-tuning。feature-based类别比如ELMo,fine-
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:131072
    • 提供者:weixin_38642897
  1. 理解情感—从Keras移植到pyTorch

  2. 情感情绪检测是自然语言理解的关键要素。最近,我们将原来的项目迁移到了新的集成系统上,该系统基于麻省理工学院媒体实验室推出的NLP模型搭建而成。代码已经开源了!(详见GitHub:https://github.com/huggingface/torchMoji)该模型最初的设计使用了TensorFlow、Theano和Keras,接着我们将其移植到了pyTorch上。与Keras相比,pyTorch能让我们更自由地开发和测试各种定制化的神经网络模块,并使用易于阅读的numpy风格来编写代码。在这篇
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:181248
    • 提供者:weixin_38644233