您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 手机号码归属地数据库.mdb格式 有20多万条记录!并有最新移动182号码段的部分数据

  2. 手机号码归属地数据库.mdb格式 有20多万条记录!并有最新移动182号码段的部分数据
  3. 所属分类:数据库

    • 发布日期:2011-03-13
    • 文件大小:1048576
    • 提供者:diyuheixue
  1. 手机号码归属地2011版,20多万条数据

  2. 手机号码归属地2011版,20多万条数据,吐血奉献
  3. 所属分类:Oracle

    • 发布日期:2011-07-05
    • 文件大小:5242880
    • 提供者:zhiyuzhe
  1. 多用户搜索引擎 v1.5(自带五万条数据)

  2. 功能介绍: 1、多级目录,每个目录下面可以有更深一级目录,并列出属于该目录的网站 管理:选择分类管理,添加需要的分类,或者选择下一级目录,同时可以选择删除(删)修改(修)制作(制)某一个目录 2、静态页面,所有目录页面均使用程序生成了html页,不用读取数据库,大大节省了服务器资源 管理:选择制作下属页面,系统会列出搜索的类别,请选择需要生成的类别 3、目录模版,在数据库中存放了大量的页面模版,每一个目录都可以订制自己的网面 管理:选择模板管理,系统会列出目前已经存在的模板,你可以修改,添加,
  3. 所属分类:Web开发

    • 发布日期:2012-03-02
    • 文件大小:1048576
    • 提供者:ss_geng
  1. 手机号码归属地数据库 20多万条数据

  2. MDB格式 二十多万条数据库。可access打卡查询
  3. 所属分类:Access

    • 发布日期:2012-12-25
    • 文件大小:662528
    • 提供者:ghbyou
  1. 用100多行python代码写一个数据库

  2. 数据库的名字叫WawaDB,是用python实现的。由此可见python是灰常强大啊! 简介 记录日志的需求一般是这样的: 只追加,不修改,写入按时间顺序写入; 大量写,少量读,查询一般查询一个时间段的数据; MongoDB的固定集合很好的满足了这个需求,但是MongoDB占内存比较大,有点儿火穿蚊子,小题大做的感觉。 WawaDB的思路是每写入1000条日志,在一个索引文件里记录下当前的时间和日志文件的偏移量。 然后按时间询日志时,先把索引加载到内存中,用二分法查出时间点的偏移量,再打开日志
  3. 所属分类:Python

    • 发布日期:2015-03-17
    • 文件大小:6144
    • 提供者:wxmiy
  1. *大数据竞赛

  2. AliDMCompetition *大数据竞赛(http://102.alibaba.com/competition/addDiscovery/index.htm ) 数据说明 提供的原始文件有大约4M左右,涉及1千多天猫用户,几千个天猫品牌,总共10万多条的行为记录。 用户4种行为类型(Type)对应代码分别为: 点击:0 购买:1 收藏:2 购物车:3 提交格式 参赛者将预测的用户存入文本文件中,格式如下: user_id \t brand_id , brand_id , brand
  3. 所属分类:专业指导

    • 发布日期:2016-01-05
    • 文件大小:550912
    • 提供者:huangyueranbbc
  1. EnableQ v8.20免费版

  2. 作为一款通用的调查问卷管理平台,EnableQ提供极为简洁的方法实现对在线调查问卷创建、设计、预览、执行、结束、分析、归档整理全过程管理。但提供对于调查问卷的全功能管理并不是它的全部,为保障系统安全可靠运行,EnableQ更提供众多强劲的系统管理内核动力。 EnableQ提供的问卷设计功能包含最为全面的20多种调查问卷问题题型,不仅包含基础的单选、多选、填空、多行填空问题题型,更囊括矩阵单选、评分、比重、排序、文件上传等高阶问题类型。多个不同或相同的问题题型可在同一调查问卷中随意组合,更有通过
  3. 所属分类:咨询

    • 发布日期:2018-10-23
    • 文件大小:10485760
    • 提供者:jiangkij
  1. 富翁多用户搜索引擎 v1.5(自带五万条数据).rar

  2. 功能介绍: 1、多级目录,每个目录下面可以有更深一级目录,并列出属于该目录的网站 管理:选择分类管理,添加需要的分类,或者选择下一级目录,同时可以选择删除(删)修改(修)制作(制)某一个目录 2、静态页面,所有目录页面均使用程序生成了html页,不用读取数据库,大大节省了服务器资源 管理:选择制作下属页面,系统会列出搜索的类别,请选择需要生成的类别 3、目录模版,在数据库中存放了大量的页面模版,每一个目录都可以订制自己的网面 管理:选择模板管理,系统会列出目前已经存在的模板,你可以修改,添加,
  3. 所属分类:其它

    • 发布日期:2019-07-05
    • 文件大小:1048576
    • 提供者:weixin_39840515
  1. 多线程面试题

  2. 详细讲解的多线程中遇到或者存在的问题,对各类多线程问题进行分析解读,为求职者提供了良好的资源ConcutrentHash Map 采用分段锁技术、同步容器中,是一个容晷一个嶺,但在 Concurrenthushm中,会将hush麦的数组部分分成干段,每段维 护一个钡,以达到高效的并发访 13.什么是多线程的上下文切换? 1、多线程:是从软件或者硬件上实现多个线程的并发技术。 2、多线程的好处 便用多线程可以把程序中占据时间长的任务放到后台去处理,如图片、视屏的下载 ⅱ.发挥多核处珪器的优势,并发
  3. 所属分类:Java

    • 发布日期:2019-10-12
    • 文件大小:2097152
    • 提供者:weixin_45208264
  1. 中国电力大数据发展白皮书.pdf

  2. 《中国电力大数据发展白皮书》是我国首个行业大数据白皮书,首次提出了电力大数据的定义和特征。电力信息化专委会作为我国唯一的电力行业信息化专业协会,充分听取了行业内外专家意见,完善了白皮书编制思路,学以致用,用以提升,对推动中国电力大数据事业发展,实现中国电力科学跨越具有极大的现实意义。图表目录 图表1全球数据量预测 ·.···· 图表2中国电力装机容量预测 图表3大数据的发展历程 图表4传统数据与大数据的区别及联系∴ 2368 图表5传统电力价值链与新兴电力价值链 图表6电力大数据的“3V3E 1
  3. 所属分类:互联网

    • 发布日期:2019-10-11
    • 文件大小:5242880
    • 提供者:weixin_40976083
  1. 飞飞影视导航系统 v4.1.190209.zip

  2. 飞飞影视导航系统简介 飞飞影视导航系统FeiFeiCms是一套专为不同需求的站长而设计的视频点播系统,灵活,方便是最大的特色,为初学者快速架设网站首选,只需5分钟即可建立一个海量的视频讯息的行业网站。 FeiFeiCms采用PHP MYSQL架构,国内优秀TP的框架为开发基础,其卓越的访问速度和负载能力免去您的后顾之优。 本着免费开源的宗旨、将 FeiFeiCms 努力打造成为您身边最贴近的建站程序!不需要庞大的空间与高带宽;一个普通的虚拟空间就可以迅速搭建起一个内容丰富的视频、资讯网站,
  3. 所属分类:其它

    • 发布日期:2019-07-07
    • 文件大小:1048576
    • 提供者:weixin_39840515
  1. 将MySQL去重操作优化到极致的操作方法

  2. •问题提出 源表t_source结构如下: item_id int, created_time datetime, modified_time datetime, item_name varchar(20), other varchar(20) 要求: 1.源表中有100万条数据,其中有50万created_time和item_name重复。 2.要把去重后的50万数据写入到目标表。 3.重复created_time和item_name的多条数据,可以保留任意一条,不做规则限制。
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:131072
    • 提供者:weixin_38516956
  1. SQL优化基础 使用索引(一个小例子)

  2. 按照本文操作和体会,会对sql优化有个基本最简单的了解,其他深入还需要更多资料和实践的学习: 1. 建表: 代码如下: create table site_user ( id int IDENTITY(1,1) PRIMARY KEY, [name] varchar(20), code varchar(20), date datetime ) 2. 插入8万条数据 代码如下: declare m int set m=1 while m<80000 begin INSERT INTO
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:112640
    • 提供者:weixin_38619207
  1. SQL Server 海量数据导入的最快方法

  2. 最近做某项目的数据库分析,要实现对海量数据的导入问题,就是最多把200万条数据一次导入sqlserver中,如果使用普通的insert语句进行写出的话,恐怕没个把小时完不成任务,先是考虑使用bcp,但这是基于命令行的,对用户来说友好性太差,实际不大可能使用;最后决定使用BULK INSERT语句实现,BULK INSERT也可以实现大数据量的导入,而且可以通过编程实现,界面可以做的非常友好,它的速度也很高:导入100万条数据不到20秒中,在速度上恐怕无出其右者。 但是使用这种方式也有它的几个缺点
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:43008
    • 提供者:weixin_38682279
  1. C#如何读取Txt大数据并更新到数据库详解

  2. 环境 Sqlserver 2016  .net 4.5.2  目前测试数据1300万 大约3-4分钟.(限制一次读取条数 和 线程数是 要节省服务器资源,如果调太大服务器其它应用可能就跑不了了), SqlServerDBHelper为数据库帮助类.没有什么特别的处理. 配置连接串时记录把连接池开起来 另外.以下代码中每次写都创建了连接 .之前试过一个连接反复用. 130次大约有20多次 数据库会出问题.并且需要的时间是7-8分钟 左右. 配置文件: xxx.json [ { /*连接
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:98304
    • 提供者:weixin_38605801
  1. 使用python进行广告点击率的预测的实现

  2. 当前在线广告服务中,广告的点击率(CTR)是评估广告效果的一个非常重要的指标。 因此,点击率预测系统是必不可少的,并广泛用于赞助搜索和实时出价。那么如何计算广告的点击率呢? 广告的点击率 = 广告点击量/广告的展现量 如果一个广告被展现了100次,其中被点击了20次,那么点击率就是20%。 今天我们就来动手开发一个移动广告点击率的预测系统,我们数据来自于kaggle,数据包含了10天的Avazu的广告点击数据。 数据 你可以在这里下载移动广告点击数据,由于总数据量达到了4千多万条,数据量过于庞大
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:704512
    • 提供者:weixin_38692100
  1. Yelp_Recommendations:华盛顿大学数据科学课程DATA 515软件设计的最终项目-源码

  2. Yelp_推荐 华盛顿大学数据科学课程DATA 515软件设计的最终项目 介绍 随着生活节奏的加快和对健康生活方式的需求激增,越来越多的人需要附近的健康餐厅。 但是,很少有工具将此维度纳入餐厅搜索中。 我们项目的目标是为用户提供一种在现有Yelp目录中发现健康餐厅的方式。 使用Yelp数据,我们的平台将根据我们的机器学习模型的结果为食客提供餐厅健康等级。 我们项目中的相关数据包括业务数据和照片元数据,包括标题。 我们将应用自然语言处理,文本分类和机器学习技术来分析食物照片标题中的描述性文本,以确
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:25165824
    • 提供者:weixin_42141437
  1. ApacheKylin在4399大数据平台的应用

  2. 在开始案例分享前,先简单介绍一下4399以及4399的大数据团队1.4399是中国最早的和领先的在线休闲小游戏平台,日活跃达2000多万2.4399游戏盒是4399旗下的手游分发平台,日活过350w3.4399的大数据团队规模在15人左右,主要工作内容为游戏推荐、游戏搜索、竞价广告,多维分析、大数据平台等等4399从Kylinv1.5版本开始使用,使用版本也随着官方版本的升级在升级,现生产系统两个版本同时在运行:Kylinv2.0.0、Kylinv2.3.0,共有20个Cube为我们的大数据平台
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:440320
    • 提供者:weixin_38670529
  1. Node使用Selenium进行前端自动化操作的代码实现

  2. 前言: 最近项目中有类似的需求:需要对前端项目中某一个用户下的产品数据进行批量的处理。手动处理的流程大概是首先登录系统,获取到当前用户下的产品列表,点击产品列表的中产品项进入详情页,对该产品进行一系列的操作,然后保存退出。因为当前有20多万条数据,手动一条一条的处理不太现实,所以希望通过写脚本的方式来进行处理。 需求分析 其实这个需求还算比较简单,需要实现的点主要有三个,一是如何进行登录,获取登录信息,查询当前用户下的产品数据;二是如何知道当前数据是否处理完,然后退出当前的处理流程;三是如何异
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:385024
    • 提供者:weixin_38595606
  1. Oracle批量导入文本文件快速的方法(sqlldr实现)

  2. 前言 最近做项目的时候需要导入一批3000多万条的POI数据到Oracle数据库,简单的插入导入速度太慢,使用sqlldr 批量导入3000多万条数据花了20分钟左右,速度还可以,现在分享给大家,具体方法如下: 1.新建导入控制文件 input.ctl,文件内容如下: Load data Characterset UTF8 Infile 'H:\POI\baidu.txt' Append into table tbl_poi_baidu fields terminated by , Opt
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:48128
    • 提供者:weixin_38677234
« 12 3 4 5 »