您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. cifar-10 官方数据集(Binary版-part01)

  2. 由于文件上传大小的限制,故将该数据集拆分成两个压缩包part01 和part02,请将这两个压缩包一并下载,之后解压其中一个,即可获得完整的数据集。
  3. 所属分类:深度学习

    • 发布日期:2017-11-01
    • 文件大小:94371840
    • 提供者:tmac2016
  1. cifar-10 官方数据集(Binary版-part02)

  2. 由于文件上传大小的限制,故将该数据集拆分成两个压缩包part01 和part02,请将这两个压缩包一并下载,之后解压其中一个,即可获得完整的数据集。
  3. 所属分类:深度学习

    • 发布日期:2017-11-01
    • 文件大小:71303168
    • 提供者:tmac2016
  1. iris数据集(UCI)

  2. 源自UCI的iris数据集,并进行了整理,按照Iris-setosa、Iris-versicolor、Iris-virginica属性分成三类,每一类有四个属性:花萼长、花萼宽、花瓣长、花瓣宽四个属性,每一类50个样本,一共150个样本。并按照OVO策略拆分成三组数据。
  3. 所属分类:机器学习

    • 发布日期:2018-07-27
    • 文件大小:29696
    • 提供者:u013569930
  1. FME模板-按区域分离数据集

  2. 基于FME制定的模板工具,可以按照给定的多个区域,从一个数据集分离出各自区域内的数据,数据结构不变
  3. 所属分类:算法与数据结构

    • 发布日期:2018-10-09
    • 文件大小:187392
    • 提供者:weixin_42257847
  1. mnist手写数字识别数据集npz文件.zip

  2. mnist.npz文件是手写数字的离线数据集,可以直接本地导入而且无需人工拆分为训练数据和测试数据,以及对应的数字标签,作为深度学习入门项目的数据集,可在python中打印出所有数字图像。
  3. 所属分类:深度学习

    • 发布日期:2020-08-02
    • 文件大小:10485760
    • 提供者:Charzous
  1. 对sklearn的使用之数据集的拆分与训练详解(python3.6)

  2. 今天小编就为大家分享一篇对sklearn的使用之数据集的拆分与训练详解(python3.6),具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:50176
    • 提供者:weixin_38676058
  1. 使用KNN分类器对sklearn中自带的make_blobs数据进行分类

  2. 1.使用make_blobs生成样本为200,分类为2的数据集,并绘制成散点图。 import matplotlib.pyplot as plt # 导入数据集 from sklearn.datasets import make_blobs # 导入KNN分类器 from sklearn.neighbors import KNeighborsClassifier # 导入数据集拆分工具 from sklearn.model_selection import train_test_split #
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:118784
    • 提供者:weixin_38522636
  1. 深度学习 基本介绍+数据集及其拆分

  2. 机器学习 (Machine Learning) 定义: 是对研究问题进行模型假设,利用计算机从训练数据中学习得到模型参数。并最终对数据进行预测和分析的一门学科。 二分类问题的基本解决思路: (1)建立假设模型(可理解为函数)。即建立一条直线,表达式为y=f(x)=W1x + W0。 则通过确定模型参数W1与W0的取值,就可以确定函数的具体位置。 (2)训练模型。利用已明确分类结果的样本数据集(称为训练集)进行训练,即函数参数的求解过程。得到参数W1与W0的最终取值,则得到最终的训练模型。 (3
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:208896
    • 提供者:weixin_38587924
  1. great:可变滥用任务的数据集,在ICLR 2020年论文“源代码的全球关系模型”中使用[https-Forum source code

  2. 伟大的 在ICLR 2020年论文“源代码的全局关系模型”中描述了变量滥用任务的数据集[ ] 这是该论文中使用的数据集的公开版本。 由于许可问题,用于生成纸上图表的原始文档无法开源。 有关从该数据集产生的结果,请参见公共关联的代码存储库[ ]。 该数据集是从ETH Py150 Open数据集[ ]中的Python代码库综合生成的。 数据集分为3个部分:训练数据集train ,验证数据集dev和评估(测试)数据集eval 。 这些中的每一个均来自相应的ETH Py150 Open拆分。
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:2147483648
    • 提供者:weixin_42140625
  1. kangaroo-dataset 袋鼠数据集-数据集

  2. 这是在不同环境中具有520个袋鼠注释的数据集。存储库包含XML格式的注释,图像和2个CSV,其中包含已经在训练和测试中拆分的数据(80%-20%)。 kangaroo-dataset_datasets.txt requirements.txt test_labels.csv train_labels.csv kangaroo-dataset_datasets.zip
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:75497472
    • 提供者:weixin_38687218
  1. DeepLearningDatasetSplits:将图像数据集分为训练集和测试集的脚本-源码

  2. DeepLearningDatasetSplits 将图像数据集分为训练集和测试集的脚本 加州大学圣地亚哥分校鸟200 设置的层次结构: 将脚本与图像( )和训练/测试文本拆分文件()放在同一目录中 | |--ucsd_birds_test_train_split.py |--images (downloaded images) |--train (will be created by scr ipt itself) |--test (will be created
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:2048
    • 提供者:weixin_42137539
  1. Disney-Movies-Wiki-WebScraper:Disney Movies的Web Scraping Wikipedia,以创建Disney Movies数据集,然后清理数据以使用清理后的JSON进行进一步的数据分析-源码

  2. 迪士尼电影Wikipedia WebScraper 目录 关于该项目 在此 Jupyter笔记本中,我们为迪士尼电影抓取了Wikipedia页面,以创建迪士尼电影数据集。 任务 任务1:从Toy Story 3 Wiki页面中抓取信息框,并保存在python词典中。 任务2:为所有迪士尼电影刮取信息框,并保存在python词典列表中。 任务3:清除数据! 删除所有引用([1],[2]等) 拆分长字符串 将“运行时间”字段转换为整数 将“预算”和“票房”字段转换为浮点数 将日期转换为日期时
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:2097152
    • 提供者:weixin_42181545
  1. sasquatch:适用于Java的SAS数据集库-源码

  2. Sasquatch-适用于Java的SAS数据集库 该为SAS数据集提供了阅读器。 它还提供了和。 关键点: 设计为轻型图书馆 Java 8最低要求 有一个模块信息,使其与兼容 特征: 从SAS数据集中读取元数据和数据(* .sas7bdat) 使用3种游标浏览数据:仅前进,可滚动和可拆分 与Java Stream API兼容 提供一个简单的外观,允许在部署时插入任何实现 意味着增加了一个强制性依赖 Java库 API概述 Sasquatch由工厂实例化: Sasquatch sas
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:286720
    • 提供者:weixin_42138780
  1. dgp:TRI-ML数据集治理策略-源码

  2. TRI数据集治理政策 为了确保在TRI内生成和使用的所有ML数据集和模型的可追溯性,可重复性和标准化,我们开发了数据集管理政策(DGP),该数据集对所有TRI的自动驾驶汽车(AV)数据集的架构和维护进行了编码。 成分 :基于的模式,用于原始数据,注释和数据集管理。 :通用PyTorch DatasetClass,用于加载所有符合DGP的数据集。 :基于Web的简单可视化工具,用于查看注释。 :用于处理DGP数据集的主CLI。 入门 入门非常简单,只需使用相关的数据集JSON,原始数据传
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:13631488
    • 提供者:weixin_42128963
  1. Data_curation:处理数据管理的Python代码:问题分子的微笑,数据集选择,训练和测试拆分-源码

  2. 数据处理 用于建模的数据准备的Python代码: 处理有问题的分子的微笑:有机金属,混合物,肽。 资料取样 数据选择 安装: git clone https://github.com/phi-grib/Data_curation.git conda activate cd Data_curation python setup.py install 现在,您可以使用该代码从其结构中自动对化合物进行分类和分类。 仍在建设中。 将来添加的功能: 混合物检查 优化过滤功能。 现在有点
  3. 所属分类:其它

    • 发布日期:2021-02-10
    • 文件大小:26624
    • 提供者:weixin_42129005
  1. ogb:用于图机器学习的基准数据集,数据加载器和评估器-源码

  2. 总览 开放式图形基准(OGB)是用于图形机器学习的基准数据集,数据加载器和评估器的集合。 数据集涵盖各种图形机器学习任务和实际应用程序。 OGB数据加载器与流行的图深度学习框架完全兼容,包括和 。 它们提供自动数据集下载,标准化的数据集拆分以及统一的性能评估。 OGB旨在提供涵盖重要图机学习任务,不同数据集规模和丰富域的图数据集。 图ML任务:我们涵盖了三个基本的图机器学习任务:在节点,链接和图级别的预测。 多样规模:小型图形数据集可以在单个GPU中处理,而中大型图形可能需要多个GPU或聪
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:200704
    • 提供者:weixin_42110362
  1. proteinnet:用于蛋白质结构机器学习的标准化数据集-源码

  2. 蛋白质网 ProteinNet是用于机器学习蛋白质结构的标准化数据集。 它提供蛋白质序列,结构(和),多个序列比对( ),位置特定的评分矩阵( ),以及标准化的拆分。 ProteinNet建立在两年期评估的基础上,该评估对最近解决但尚未公开获得的蛋白质结构进行盲目预测,以提供推动计算方法学前沿的测试集。 它被组织为一系列数据集,涵盖了CASP 7至12(涵盖十年),以提供一系列数据集大小,从而可以在相对数据贫乏和数据丰富的体制中评估新方法。 请注意,这是一个初步版本。 用于构建数据集的原始
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:74752
    • 提供者:weixin_42131424
  1. MLDataUtils.jl:用于生成,加载,拆分和处理机器学习数据集的实用程序包-源码

  2. MLDataUtils.jl:用于生成,加载,拆分和处理机器学习数据集的实用程序包
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:58368
    • 提供者:weixin_42116681
  1. 来自论文“人们在问什么关于COVID-19?问题分类数据集”的论文中的COVID-Q:COVID-19问题数据集-源码

  2. COVID-Q:关于COVID-19的1,690个问题 论文“”的完整数据 数据集CSV文件可在找到。 该数据集由已注释为广泛类别(例如,传播,预防)和更具体类别的COVID-19问题组成,因此同一类别中的问题都在问同一件事。 注意:可以在找到我们类别的正式定义。 此存储库中包含的文件夹: code -将数据集拆分为训练/测试数据集并运行基本BERT基线所需的所有代码。 data -包含原始数据(TSV,CSV,PDF)以记录所有问题源 dataset_categories包含用于问题类
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:22020096
    • 提供者:weixin_42097189
  1. 对sklearn的使用之数据集的拆分与训练详解(python3.6)

  2. 研修课上讲了两个例子,融合一下。 主要演示大致的过程: 导入->拆分->训练->模型报告 以及几个重要问题: ①标签二值化 ②网格搜索法调参 ③k折交叉验证 ④增加噪声特征(之前涉及) from sklearn import datasets #从cross_validation导入会出现warning,说已弃用 from sklearn.model_selection import train-test_split from sklearn.grid_search im
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:51200
    • 提供者:weixin_38500117
« 12 3 4 5 6 7 8 9 10 ... 15 »