您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Tensorflow-BiLSTM分类

  2. 该段Tensorflow代码可用于文本分类,和情感分类。其主要特点是,在同一份代码中,同时实现两张张量图,一张用于训练,另一张用于测试。并做交叉验证。
  3. 所属分类:深度学习

    • 发布日期:2018-07-23
    • 文件大小:11264
    • 提供者:zhoukaiyin_hzau
  1. TextRNN的TensorFlow实现

  2. TextCNN擅长捕获更短的序列信息,但是TextRNN擅长捕获更长的序列信息。具体到文本分类任务中,BiLSTM从某种意义上可以理解为可以捕获变长且双向的N-Gram信息。
  3. 所属分类:深度学习

    • 发布日期:2019-01-24
    • 文件大小:50331648
    • 提供者:shengshengwang
  1. Pytorch 实现文本分类

  2. 文本分类的标准代码,Pytorch实现 数据集Dataset - IMDB - SST - Trec ### 模型 - FastText - BasicCNN (KimCNN,MultiLayerCNN, Multi-perspective CNN) - InceptionCNN - LSTM (BILSTM, StackLSTM) - LSTM with Attention (Self Attention / Quantum Attention) - Hybrids between CNN
  3. 所属分类:机器学习

    • 发布日期:2019-06-11
    • 文件大小:56320
    • 提供者:u010138055
  1. 【自然语言处理】BiLSTM+Attention_TensorFlow—数据集.zip

  2. 【自然语言处理】文本分类模型_BiLSTM+Attention_TensorFlow实现,是该博客https://blog.csdn.net/bqw18744018044/article/details/89334729的数据集,可能有点错误,请谨慎使用
  3. 所属分类:机器学习

    • 发布日期:2019-12-31
    • 文件大小:26214400
    • 提供者:weixin_44033210
  1. pytorch_ECG_CCDD_ATTENTIONLSTM.rar

  2. 在pytorch环境搭建Attention_biLSTM模型,python版本3.7,实现CCDD二分类,单层biLSTM训练集准确率85%,测试集准确率67%
  3. 所属分类:桌面系统

    • 发布日期:2020-06-11
    • 文件大小:4096
    • 提供者:weixin_43125467
  1. BERT-BiLSTM-CRF-NER-master.zip

  2. BERT只是一个预训练的语言模型,在各大任务上都刷新了榜单。我们本次实验的任务也是一个序列标注问题,简而言之,就是是基于BERT预训练模型,在中文NER(Named Entity Recognition,命名实体识别)任务上进行fine-tune。 Fine-tune是什么意思,中文译为微调。在transfer learning中,对事先训练好的特征抽取网络,直接拿来用在下游任务上。固定其特征抽取层的网络参数,只在原有的网络上增加少量神经元,做最后的分类任务,而且只更新分类参数。
  3. 所属分类:深度学习

    • 发布日期:2020-08-09
    • 文件大小:490496
    • 提供者:u010177412
  1. BiLSTM-Attention文本分类

  2. 概述 上一篇中使用BiLSTM-Attention模型进行关系抽取,因为只放出了较为核心的代码,所以看上去比较混乱。这篇以简单的文本分类为demo,基于pytorch,全面解读BiLSTM-Attention。 文本分类实战 整体构建 首先,我们导入需要的包,包括模型,优化器,梯度求导等,将数据类型全部转化成tensor类型 import numpy as np import torch import torch.nn as nn import torch.optim as optim from
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:206848
    • 提供者:weixin_38683488
  1. qpnet-源码

  2. 象限感知网络(QPNet) 一个基于实例分割的简单而优雅的模型被设计用于文档和自然图像中的文本检测。 由卷积和双向长期短期记忆(BiLSTM)网络组成,它专注于分割近距离文本实例并检测长文本以提高在实际应用中的实用性。 输入图像通过它们与对象和背景的四个象限有关的网格位置进行编码。 具有转置操作的BiLSTM用于组合左右和上下上下文。 在没有边界框回归的情况下,仅设计一个输出分类分支来预测每个像素的准确位置,即象限感知。 因此,很容易训练。 最后,采用简单的后处理自然地找到文本位置。 安装 克
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:806912
    • 提供者:weixin_42132352
  1. NLP在IEST 2018上:通过情感分类中的软投票获得BiLSTM-Attention和LSTM-Attention

  2. 本文介绍了我们在WASSA2018隐式情感共享任务中竞争的方法。 此任务的目标是将推文中被排除词的情感分为六类:悲伤,喜悦,厌恶,惊奇,愤怒和恐惧。 为此,我们研究了具有注意力机制的BiLSTM体系结构(BiLSTM-Attention)和具有注意力机制的LSTM体系结构(LSTM-Attention),并基于这两种模型尝试了不同的辍学率。 然后,我们利用这些方法的整体来给出最终预测,与基线模型相比,该最终预测显着提高了模型性能。 所提出的方法在30个团队中排名第七,在宏观F1方面比基线方法高出
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:338944
    • 提供者:weixin_38503233
  1. Criminal-Intelligence-QA-System:Canghong Jin 18-19 1的一个高级Java最终项目的演示-源码

  2. 提示:您可以在问题上提问。 在测试自然语言查询 刑事情报问答系统 Neo4j用于存储。 Flask,用于显示子图的cytoscape.js。 Pytorch Stacked BiLSTM模型每个都有一层用于查询分类和分析。 作者:陈达,张卓(Drogo Zhang)。 分词方法 词嵌入链接 模型训练 服务器设定 展示: 基本问题|| 简单搜索 进阶问题 参考
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:17825792
    • 提供者:weixin_42123296
  1. TextClassification:使用不同神经网络的文本分类-源码

  2. 文字分类 使用不同的神经网络进行文本分类。中文文本分类,使用TensorFlow 2.x实现TextCNN,TextRNN,TextRCNN,BiLSTM Attention,HAN等类型的深度学习模型。 数据 数据收集数据只取新闻中的五个类别:汽车,娱乐,军事,体育,科技将五个类别分词后保存到数据文件目录,作为分类模型构造与验证数据。 数据集 数据量 总数据 87747 训练集 65810 测试集 21973 环境 的Python 3.7 TensorFlow 2.0+ 使用说明 进入到相关模
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:7340032
    • 提供者:weixin_42148975
  1. crash_tweets:使用SVM,LSTM和BERT提交Kaggle竞赛“真实与否?NLP与灾难性推文”(排名前25%)的提交-源码

  2. 提交Kaggle竞赛“真实与否?NLP与灾难鸣叫”(排名前25%) 挑战链接: : 链接到公共Kaggle笔记本(SVM): : 在此存储库中,您将找到3个笔记本: 一种使用spaCy字向量和SVM的 一种使用BiLSTM的 一种将预训练的BERT用于序列分类 在测试集上,SVM的f1得分达到0.81152,BiLSTM达到0.80,而BERT达到〜0.83 f1得分。
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:1025024
    • 提供者:weixin_42107561
  1. NLP_disaster_tweets:使用SVM提交Kaggle竞赛“真实与否?NLP与灾难性推文”的提交(排名前25%)-源码

  2. 提交Kaggle竞赛“真实与否?NLP与灾难鸣叫”(排名前25%) 挑战链接: : 链接到公共Kaggle笔记本(SVM): : 在此存储库中,您将找到3个笔记本: 一种使用spaCy字向量和SVM的 一种使用BiLSTM的 一种将预训练的BERT用于序列分类 在测试集上,SVM的f1得分达到0.81152,BiLSTM达到0.80,而BERT达到〜0.83 f1得分。
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:1013760
    • 提供者:weixin_42119281
  1. BERT灾难分类胶囊路由:探索具有层聚合(基于注意力和基于胶囊路由)和隐藏状态聚合(基于注意力和基于胶囊路由)的BERT-BiLSTM模型-源码

  2. 与BERT相关的灾难相关推文分类 探索基于注意和基于胶囊路由的层聚合和隐藏状态聚合 看到项目报告和演示幻灯片 主要要求 脾气暴躁的 火炬1.3 HuggingFace的v2.2.2 学分 除了HuggingFace的库外,我们还使用作为参考。 帮助培训了一些模型,准备了项目报告和幻灯片中的表格,并准备了 相关工作 看到和。 使用的数据集 我们从各种来源收集了数据: InProceedings{imran2016lrec, author = {Imran, Muhammad and Mi
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:1048576
    • 提供者:weixin_42104906
  1. nlp_xiaojiang:自然语言处理(nlp),小姜机器人(闲聊检索式chatbot),BERT语法向量-相似度(句子相似度),XLNET语法向量-相似度(文本xlnet嵌入),文本分类(文本分类),实体提取(ner,bert + bi

  2. nlp_xiaojiang AugmentText - 回译(效果比较好) - EDA(同义词替换、插入、交换和删除)(效果还行) - HMM-marko(质量较差) - syntax(依存句法、句法、语法书)(简单句还可) - seq2seq(深度学习同义句生成,效果不理想,seq2seq代码大都是 [https://github.com/qhduan/just_another_seq2seq] 的,效果不理想) 聊天宝 - 检索式ChatBot - 像ES那样直接检索(如使用fuz
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:2097152
    • 提供者:weixin_42117082
  1. bert_distill:BERT蒸馏(基于BERT的蒸馏实验)-源码

  2. 基于BERT的蒸馏实验 参考论文《从BERT提取任务特定的知识到简单神经网络》 分别采用keras和pytorch基于textcnn和bilstm(gru)进行了实验 实验数据分割成1(有标签训练):8(无标签训练):1(测试) 在情感2分类服装的数据集上初步结果如下: 小模型(textcnn&bilstm)准确率在0.80〜0.81 BERT模型准确率在0.90〜0.91 蒸馏模型准确率在0.87〜0.88 实验结果与论文某些基本一致,与预期相符 后续将尝试其他更有效的蒸馏方案 使用方法 首
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:31457280
    • 提供者:weixin_42146086
  1. "情感分析"是我接的毕业设计, 把它发出来供大家交流 *

  2. * 用FastText在语料库上训练并生成词向量, 该任务语料库较小, 用fastText可以增加n-gram特征, 比传统word2vec要好 * 训练集10000条语料, 测试集500条语料 * 分别用SVM, Bayes, DNN, LSTM, Attention+BiLSTM, XGBoost等多种模型搭建并训练`正负情感二分类器`
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:42991616
    • 提供者:weixin_54707168
  1. 信息安全领域内实体共指消解技术研究

  2. 针对信息安全领域内的共指消解问题,提出了一个混合型方法。该方法在原来BiLSTM-attention-CRF模型的基础上引入领域词典匹配机制,将其与文档层面的注意力机制相结合,作为一种新的基于字典的注意力机制,来解决从文本中提取候选词时对稀有实体以及长度较长的实体识别能力稍弱的问题,并通过总结领域文本特征,将提取出的待消解候选词根据词性分别采用规则与机器学习的方式进行消解,以提高准确性。通过在安全领域数据集的实验,分别从共指消解以及提取候选词并分类2个方面证明了方法的优越性。
  3. 所属分类:其它

    • 发布日期:2021-01-13
    • 文件大小:763904
    • 提供者:weixin_38693524
  1. 基于注意力机制BiLSTM的事件抽取方法

  2. 事件抽取是自然语言处理中一项具有挑战性的任务,对于后续的信息处理有重要作用。本文采用BiLSTM模型与Attention层结合,完成了事件触发词检测,实现了事件类别的分类。与以往的事件检测方法相比,本文将两类任务视作同一个任务,避免了上游任务对下游任务的影响,使用神经网络学习特征,引入注意力机制突出重点信息。在MELL语料上进行生物事件抽取实验,结果表明准确率和召回率较高,F1值为81.66%,优于以往的方法。
  3. 所属分类:其它

    • 发布日期:2021-01-12
    • 文件大小:1048576
    • 提供者:weixin_38717579
  1. AI-for-Text-Classification:该资源是人工智能代码,采用机器学习和深度学习实现文本自动分类。希望对您有所帮助〜-源码

  2. 文字分类AI 该资源是人工智能代码,采用机器学习和深度学习实现文本自动分类。希望对您有所帮助〜 该资源主要针对不同数据集进行文本分类代码分析,包括: 机器学习 左心室 DTC 支持向量机 知识网络 射频 深度学习 有线电视新闻网 RNN LSTM 双线性STM TextCNN 注意力 BiLSTM神经网络 BiLSTM-CNN +注意 作者的文章:
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:33554432
    • 提供者:weixin_42131705