您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. bohemia:波西米亚项目的数据管道-源码

  2. 波西米亚数据管道 该存储库包含由DataBrew创建的实用程序和指南,供波西米亚研究团队使用。为了重现性和透明性,它是公开可用的。 导游 波西米亚的不同团队成员可以使用几种“操作方法”指南: 这是一个分步演练,显示了如何从头开始设置Bohemia数据系统。这包括从域配置和安全证书到服务器端软件先决条件和数据库配置的所有内容。 波西米亚数据系统建立在ODK框架上,允许创建和修改针对波西米亚项目不同研究组成部分的调查表。本指南显示了如何创建和部署表单。 本指南适用于特定于站点的数据管理器。它假设一个
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:146800640
    • 提供者:weixin_42097533
  1. pipeline-profiles:加拿大主要管道系统的前端数据可视化-源码

  2. 管道配置文件 实时版本: : CER的网页正在开发新的交互式内容。 该项目使用三种主要技术来创建基于Web的交互式仪表板和动态文本,这些文本专门针对CER监管的25条最大管道。内容是针对英语和法语开发的。以下是使用的主要前端框架的摘要: 高图:用于创建基本的交互式图表和地图。 Leaflet :用于更高级的地图功能。 Web Expreience Toolkit :用于创建通用外观的GoC Web框架。用于添加过滤器,按钮和结构,以将上述两种技术绑定到可用的仪表板中。也用于设置动态数据嵌入
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:3145728
    • 提供者:weixin_42131541
  1. Data-Warehouse-with-Amazon-Redshift-and-S3:项目03-源码

  2. 项目描述 音乐流应用启动公司Sparkify希望通过分析和查找相关模式来利用他们从应用中收集的歌曲和用户数据。特别是,分析团队希望知道用户正在听的歌曲。但是,在当前设置中,很难理解数据。最近,该应用程序的用户基础以及歌曲数据库不断增长,并希望将其流程和数据转移到云中。到目前为止,他们的数据位于Amazon s3存储桶中,位于应用程序上有关用户活动的JSON日志目录中,以及位于应用程序中的歌曲上具有JSON元数据的目录中,根本不适合进行查询。该项目的目标是创建一个ETL管道,该管道从S3提取数据,
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:241664
    • 提供者:weixin_42131618
  1. Data-Modeling-With-PostgreSQL:PostgreSQL进行数据建模和ETL管道以实现Udacity数据工程纳米级-源码

  2. 目标: 将以下概念付诸实践: 数据建模(应用概念建模,然后构造事实表和维度表) 数据库模式(将特定的模式应用于事实和维度表,适合我们的数据大小和结构=>星型模式) ETL管道(构造ETL管道以将数据从日志文件传输到数据库表) 项目描述: 该项目的目的是为一个名为Sparkify的虚构音乐流服务创建SQL分析数据库。 Sparkify的分析团队致力于了解用户在公司音乐应用上播放歌曲的内容,时间和方式。 分析师需要一种简单的方法来查询和分析数据,这些数据当前存储在应用程序上用户活动的
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:491520
    • 提供者:weixin_42128270
  1. Azure项目交易:数据工程项目,使用天蓝色的资源来分阶段财务数据,可能会进行清理并建模以用于进一步的下游分析-源码

  2. 概括 该项目的目的是建立从各种财务数据源中提取的数据管道。 来源很可能是股票交易数据,并且该数据将被存储和建模以进行分析。 技术 该项目将基于使用Microsoft Azure资源,特别是: ARM模板 这用于部署资源。 Deploy_StartUp_Resource.json文件将用于创建所有启动资源,例如密钥库,存储和资源组。 可在[此处]找到创建ARM模板的教程( )。 Azure数据工厂编排和管理源数据。 Azure数据湖存储 电源外壳 用于启动某些资源的部署。 数据源 以下是
  3. 所属分类:其它

    • 发布日期:2021-02-27
    • 文件大小:6144
    • 提供者:weixin_42134878
  1. pipeline_data_traitement_data:项目数据的最终目的-源码

  2. pipeline_data_traitement_data 计划数据管道的最终当事人
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:2048
    • 提供者:weixin_42181319
  1. txpipe重新分析:重新分析前体调查-源码

  2. 管道再分析 简要描述;简介: 这是WLPipe纸(1808.07335)的扩展。 我们将从DES Y1,HSC-Y1和KV450提供公共数据到TXPipe,并尝试重现测量结果和系统测试。 如果在项目进行期间有一些更新的数据(例如DES Y3,KiDS-1000),我们将考虑切换到最新目录。 然后,我们将测量结果输入到推理代码中,例如CosmoSIS或firecrown,并将输出结果与发布的结果进行比较。 我们将评估不同的分析选择如何改变最终约束。 该项目有望通过分析管道中的真实数据来帮助TX
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:38797312
    • 提供者:weixin_42137022
  1. Project_Diabetes:Programmierung项目1-源码

  2. Project_Diabetes 大学项目1-Angewandte Programmierung 糖尿病(有时称为“糖糖尿病”)是身体无法正常使用葡萄糖(一种糖)时发生的疾病。 数据集的目的是预测患者是否患有糖尿病。 出于项目目的,将五种不同的机器学习分类算法应用于数据集以预测患者的疾病状态。 比较了所应用算法的性能和准确性。 这些结果也使用ROC曲线进行了验证。 管道 一般进口 功能说明 数据探索 功能清洁 正则化/功能重要性 模型训练 超参数优化 ROC曲线 概括
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:1048576
    • 提供者:weixin_42099087
  1. Redshift_Data_Warehouse:这是来自数据工程Udacity课程的项目3-源码

  2. 项目描述 音乐流媒体创业公司Sparkify已经扩大了用户群和歌曲数据库,并希望将其流程和数据转移到云中。 他们的数据位于S3中,位于应用程序上有关用户活动的JSON日志目录中,以及其应用程序中的歌曲上具有JSON元数据的目录中。 Sparkify希望数据工程师构建执行以下操作的ETL管道: - Extracts their data from S3 - Stages them in Redshift - Transforms data into a set of dimensional ta
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:189440
    • 提供者:weixin_42104366
  1. reddit-project:Reddit到电报机器人-源码

  2. 这是一个Reddit数据项目。 电报机器人 发送带有r/subreddit命令进行抓取 将数据存储在csv中 向机器人用户返回数据 返回r/subreddit Reddit数据分析 数据图 情绪分析 使用Praw进行Reddit数据提取 使用reddit api python wrapper抓取reddit数据 Apache Airflow数据管道 任务之间的数据共享 将数据存储在Postgresql数据库中
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:19456
    • 提供者:weixin_42176612
  1. 灾难响应管道:Udacity纳米度的第二个项目-Datascience-源码

  2. 灾害响应管道项目 Github仓库 指示: 在项目的根目录中运行以下命令来设置数据库和模型。 运行ETL管道以清理数据并将其存储在数据库中python data/process_data.py data/disaster_messages.csv data/disaster_categories.csv data/DisasterResponse.db 运行用于训练分类器并保存python models/train_classifier.py data/DisasterResponse.d
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:23068672
    • 提供者:weixin_42143806
  1. 灾难响应管道:这是我的第二个数据科学家研究项目,Udacity的纳米度-源码

  2. 灾害响应管道 项目概况: 在项目工作区中,您将找到一个数据集,其中包含灾难事件期间发送的真实消息。 您将创建一个机器学习管道来对这些事件进行分类,以便您可以将消息发送给适当的救灾机构。 您的项目将包括一个Web应用程序,应急人员可以在该应用程序中输入新消息并获得多个类别的分类结果。 该网络应用程序还将显示数据的可视化。 项目组件此项目需要完成三个组件。 1. ETL管道 在Python脚本process_data.py中,编写一个数据清理管道,该管道包括: 加载消息和类别数据集合并两个数据
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:7340032
    • 提供者:weixin_42114041
  1. NLP体系结构:Metis数据科学训练营,NLP项目4-源码

  2. 了解建筑语言 1.提示 这项工作的目的是双重的。 1.创建一个“基线”领域特定的word2vec模型,该模型可用于通过编写体系结构的方式在体系结构概念之间绘制潜在的关系,以及2.作为案例研究,尝试查找特定概念的含义和方式建筑概念随着时间的推移发生了变化 2.数据 该项目使用的数据是从1960年代中期开始的大约50年的161篇建筑历史/理论/批评论文。 我显示这些图像是出于一个重要目的。 每个文档的格式不一致。 因此,必须以这样的方式推广预处理技术,以最大程度地减少花在每个文档上的时间,同时最大化
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:10485760
    • 提供者:weixin_42117116
  1. idseq-web:传染病测序平台-源码

  2. · 传染病测序平台 IDseq是一个无假设的全球软件平台,可帮助科学家识别宏基因组测序数据中的病原体。 发现-确定病原体状况 检测-监视和审查潜在爆发 解密-在大型数据集中查找潜在的感染生物 和合作开放项目。 查看我们的存储库: 前端门户(此处) 生物信息学工作流程 命令行上传界面 管道基准测试工具 查阅我们的以开始在此存储库中以及一般在IDseq中进行开发。
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:3145728
    • 提供者:weixin_42103128
  1. springboot_kotlin:使用Kotlin运行Springboot-源码

  2. Springboot(Kotlin)和Mysql 一个用于大型文件上传和搜索的SpringBoot示例 快速开始 设置需要安装Docker 运行以下命令: docker-compose up -d Api定义 邮递员文件 邮递员json位于docs/postman_collection.json 招摇UI 该项目大张旗鼓地成立。 要打开招摇: OpenApi 3.0规范 该项目实施了OpenApi 3.0规范在注意:Postman支持导入OpenApi 3.0规范JSON 单元测试 该应
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:241664
    • 提供者:weixin_42109178
  1. 灾害响应管道项目-源码

  2. 灾害响应管道项目 项目动机 在这个项目中,我将运用在数据工程部分学到的技能来分析图8中的灾难数据,以建立用于对灾难消息进行分类的API模型。 指示: 在项目的根目录中运行以下命令来设置数据库和模型。 运行ETL管道以清理数据并将其存储在数据库中python data/process_data.py data/disaster_messages.csv data/disaster_categories.csv data/DisasterResponse.db 运行用于训练分类器并保存pyth
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:5242880
    • 提供者:weixin_42114041
  1. argo工作流程:Argo工作流程:使用Kubernetes完成工作-源码

  2. 什么是Argo工作流程? Argo Workflows是一个开源容器原生工作流引擎,用于在Kubernetes上协调并行作业。 Argo Workflows被实现为Kubernetes CRD(自定义资源定义)。 定义工作流,其中工作流中的每个步骤都是一个容器。 将多步骤工作流建模为一系列任务,或者使用有向无环图(DAG)捕获任务之间的依赖关系。 使用Kubernetes上的Argo Workflow,可以在短时间内轻松运行用于计算机学习或数据处理的计算密集型作业。 无需配置复杂的软件
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:3145728
    • 提供者:weixin_42112894
  1. 灾害响应管道项目-源码

  2. 灾害响应管道项目 该项目实现了一个分类器模型,以对自然灾害期间人们发送的消息进行分类。 分类后,可以将消息定向到适当的救灾机构。 图八提供的培训数据是使用ETL和自然语言处理管道挖掘的。 项目描述 该项目分为以下几节: 1.数据处理,ETL管道从源中提取数据,清理数据并将其保存在适当的数据库结构中。 Python脚本process_data.py包含数据清理管道,该管道具有: 加载messages和categories数据集 合并两个数据集 清理数据 将其存储在SQLite数据库中 2.机器
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:6291456
    • 提供者:weixin_42151772
  1. st-3d-card-carousel:该示例项目显示了使用Stencil构建的实验性3D卡轮播Web组件-源码

  2. 模具3D卡轮播 如果这个项目对您有用,并且您想帮助我继续通过项目,示例,插件,...为开源做贡献,请协作并为我买一杯咖啡。 示例项目显示了使用Stencil构建的实验性3D卡轮播Web组件。 与框架无关的Web组件,可在Ionic,Angular,React,Vue,... 模板也非常适合构建整个应用程序。 为此,请改用 。 模版 Stencil是用于使用Web组件构建快速Web应用程序的编译器。 Stencil将最受欢迎的前端框架的最佳概念结合到了编译时而非运行时工具中。 Stenci
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:19922944
    • 提供者:weixin_42104947
  1. 数据管道项目:数据管道项目-源码

  2. 数据管道项目 (我正在维护该项目,并添加有关Hadoop分布式模式,在云上部署Hadoop,Spark高性能,Spark流应用程序演示,Spark分布式集群等的更多演示。请给我一些支持。) 架构师大数据应用 数据输入:Apache Sqoop,Apache Flume Hadoop 工具:猪,蜂巢, Hadoop流 处理HTTP服务器日志脚本 流MapReduce作业 Linux Shell实用程序作为Mapper和Reducer Hadoop自定义指标 火花 建筑 集群经理:YARN,M
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:59768832
    • 提供者:weixin_42105570
« 12 3 4 5 6 7 8 9 10 ... 19 »