您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 通讯知识普及华为3g讲解有图有真相讲解3G技术

  2. 讲述3G基本知识 通讯知识。有图有真相。 第1章 WCDMA系统概述 1-1移动通信,通信工程师的家园,通信人才,求职招聘,网络优化,通信工程,出差住宿,通信企业黑名单7p*^-D3`5{8g5J3J u#z 1.1 移动通信的发展 1-1 $t)C'g*A._*Y!c-bMSCBSC 移动通信论坛1.1.1 标准组织 1-2 | 国内领先的通信技术论坛4u8|3C/T7n @/P m 1.1.2 3G演进策略 1-3 +O%L;F;\(d5T#U | 国内领 先的通信技术论坛1.2 3G的体
  3. 所属分类:C

    • 发布日期:2009-07-23
    • 文件大小:890880
    • 提供者:dongmenzi
  1. Flexsim CT 培训 教程

  2. FLEXSIM CT 仿真软件特色: " R" K0 N/ K7 a/ L7 s4 Y* J) ^最大的系统仿真与系统优化交流社区仿真,仿真论坛,仿真软件,物流仿真,供应链仿真,生产仿真,系统仿真,流程仿真,arena,anylogic,automod,extend,em-plant,flexsim,promodel,witness,乐龙,swarm,netlogo,repast# W4 q. Z: s6 f8 N FLEXSIM CT是由FLEXSIM公司独家研发生产的软件,主要用于制作计算
  3. 所属分类:嵌入式

    • 发布日期:2009-11-11
    • 文件大小:7340032
    • 提供者:superhacker
  1. 解决局域网网络共享打印机问题

  2. Q: 我的电脑连接网络打印机时,用户名自动出来***/GUEST,我输入连接方的用户密码不对,应该输入什么密码 A:先设置打印服务器(就是直接用USB线或LTP线连接打印机的那台电脑): 开始菜单 → 运行 → gpedit.msc (打开组策略)→ 计算机配置 → windows设置 → 本地策略 → 安全选项 → 双击右边窗口的“网络访问:本地账户的共享和安全模式”→ 改为 “经典 - 本地用户以自己的身份验证” 然后,客户端电脑连接打印服务器,登陆框用户名和密码就是 打印服务器 上的用户
  3. 所属分类:网络设备

    • 发布日期:2012-10-12
    • 文件大小:34816
    • 提供者:comeandgo201205
  1. MySQL优化笔记-整理版.doc

  2. Q: 为什么别人问你MySQL优化的知识 总是没有底气. A: 因为你只是回答一些大而化之的调优原则, 比如:”建立合理索引”(什么样的索引合理?) “分表分库”(用什么策略分表分库?) “主从分离”(用什么中间件?) 并没有从细化到定量的层面去分析. 如qps提高了%N? 有没有减少文件排序?语句的扫描行数减少了多少? 没有大量的数据供测试,一般在学习环境中,只是手工添加几百上万条数据, 数据量小,看不出语句之间的明确区别. Q: 如何提高MySQL的性能? A: 需要优化,则说明效率不够理
  3. 所属分类:MySQL

    • 发布日期:2017-10-13
    • 文件大小:5242880
    • 提供者:zhaomeng000
  1. QCon 全球软件开发大会 2018 北京 PPT合集 第三部分

  2. 第三部分,列表: QCon北京2018--《移动开发者触手可得的AI对话技术》--陈雨强.pdf QCon北京2018--《跳一跳的前世今生—.pdf QCon北京2018-Go高效并发编程蔡超.pdf QCon北京2018-《万台集群性能优化方法—.pdf QCon北京2018-《以Null的处理、回调地狱的应对为例,看C#背后的问题解决思路》-Mads Torgersen.pdf QCon北京2018-《唯快不破—.pdf QCon北京2018-《小Q机
  3. 所属分类:讲义

    • 发布日期:2018-04-24
    • 文件大小:290455552
    • 提供者:u011698258
  1. 王守崑:对话机器人的算法、产品与商业实践

  2. 王守崑:对话机器人的算法、产品与商业实践 状态追踪 Dialogue State Tracking (DST) • 对话状态应该包含持续对话所需要的各种信息 • DST问题:依据最新的系统和用户动作,更新对话状态 • Q:如何表示对话状态 状态追踪 旧状态 (DST) 用户动作 系统动作 新状态 策略优化 Dialogue Policy Optimization (DPO) • 系统如何做出反馈动作 • 作为序列决策过程进行优化:增强学习
  3. 所属分类:深度学习

    • 发布日期:2018-08-18
    • 文件大小:18874368
    • 提供者:zeng56723
  1. MySQL优化笔记

  2. Q: 为什么别人问你MySQL优化的知识 总是没有底气. A: 因为你只是回答一些大而化之的调优原则, 比如:”建立合理索引”(什么样的索引合理?) “分表分库”(用什么策略分表分库?) “主从分离”(用什么中间件?) 并没有从细化到定量的层面去分析. 如qps提高了%N? 有没有减少文件排序?语句的扫描行数减少了多少?
  3. 所属分类:MySQL

    • 发布日期:2018-10-22
    • 文件大小:5242880
    • 提供者:xmw1352
  1. CSS选择器Q.js.zip

  2. 1, 和Sizzle的兼容Q(expr, context, result, seed)Q.matches支持Sizzle特别的setFilter伪类如:even,:first,:last,:lt...支持复杂的:not和:has选择器(和sizzle一样)2, 结果的正确性Sizzle在某些选择器上由于查询策略的原因,会返回错误的结果考虑在这样的html上查询""查询 div~div : 应返回1个节点查询 h1~div: 应返回1个节点查询 div h1~div: 应返回一个节点,但是Siz
  3. 所属分类:其它

    • 发布日期:2019-07-19
    • 文件大小:191488
    • 提供者:weixin_39841882
  1. 水,能源,食品的联系:耦合的仿真和优化框架

  2. 开发了水,能源和食品(WEF)关系系统,以建模和分析WEF各部门之间以及各部门之间的相互作用。 WEF关联仿真模型可以根据技术和/或需求的变化评估直接和间接WEF定量相互作用的影响。 优化模型可以帮助找到导致系统最佳性能的WEF关联系统策略选项和参数的最佳组合。 本文介绍了一个框架,用于将定量WEF链接模拟模型(Q-Nexus模型)与优化工具集成在一起,这将使决策者能够基于WEF链接模拟器来折衷最佳策略选项。 然后将所开发的方法应用于数值实验并讨论了结果。 最后,提出了结论和进一步的发展。
  3. 所属分类:其它

    • 发布日期:2020-06-05
    • 文件大小:738304
    • 提供者:weixin_38739101
  1. 基于值函数和策略梯度的深度强化学习综述_刘建伟.pdf

  2. 作为人工智能领域的热门研究问题,深度强化学习自提出以来,就受到人们越来越多的关注。目前,深度强化学 习能够解决很多以前难以解决的问题,比如直接从原始像素中学习如何玩视频游戏和针对机器人问题学习控制策略,深度强 化学习通过不断优化控制策略,建立一个对视觉世界有更高层次理解的自治系统。其中,基于值函数和策略梯度的深度强化 学习是核心的基础方法和研究重点。本文对这两类深度强化学习方法进行了系统的阐述和总结,包括用到的求解算法和网络 结构。首先,概述了基于值函数的深度强化学习方法,包括开山鼻祖深度Q 网
  3. 所属分类:机器学习

    • 发布日期:2020-09-01
    • 文件大小:1048576
    • 提供者:SparkQiang
  1. LTE毫微微小区容量优化的基于Q学习的下行资源调度方法

  2. 毫微微小区的部署对用户和运营商都是有益的。 一方面,它可以用来改善室内覆盖范围,但另一方面,它不可避免地会在由毫微微小区和宏小区组成的异构网络中产生干扰问题。 本文提出了一种基于Q学习的Round Robin资源调度策略。 从吞吐量,丢包率,公平性等方面与常规调度方法进行了比较。 仿真结果表明,该方法可以提高小区边缘用户的吞吐量,并满足服务质量(QoS)的要求。 它还可以实现宏小区和毫微微小区之间的吞吐量的折衷。
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:1048576
    • 提供者:weixin_38656741
  1. MineRL-Project-源码

  2. MineRL项目-Minecraft中的深度强化学习 我们测试了DQN和PPO算法。 该代理的目标是在视频游戏环境中导航。 给定摄像机数据作为输入,座席必须走到指定位置。 动作很简单:向前,向后,向左,向右,平移等。 QLearning 针对MineRLNavigateDense-v0环境的深度Q学习。 用法 要测试预训练的网络:运行test.py 训练新网络:运行train.py 依存关系 经过以下培训和测试: Python 3.6 PyTorch 1.0 NumPy 1.15.3 gy
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:3145728
    • 提供者:weixin_42105570
  1. 图数据中Top-k属性差异q-clique查询

  2. 紧密子图发现在许多现实世界网络应用中具有重要的研究意义.提出一种新的紧密子图发现问题——Top-k属性差异q-clique查询,找出图中k个节点间属性具有最大差异的q-clique.属性差异q-clique是一种结合图的结构特征和节点属性的紧密子图,在作者合作关系图数据中,该查询可以发现属性(如研究领域或所属单位)上不同的具有紧密合作关系的团队.给出了q-clique的属性差异度量,证明了该问题为NP难问题.采用分支限界策略,提出一种有效求解问题的算法AD-Qclique
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:1048576
    • 提供者:weixin_38688745
  1. 考虑库容与订货批量约束的(R,Q)策略优化

  2. 受订货批量和库容限制的购买商向单供应商采购单种产品, 以其相邻两次订货间单位时间期望总成本最小 为目标建立(,) 策略优化模型. 针对均匀分布需求给出求解方法, 结合算例从资源约束、成本参数及需求特征3 个 方面进行敏感性分析. 将随机需求与资源约束下的安全库存与订货批量进行联合优化, 克服已有(,) 策略研究将 一定时期随机需求期望值默认为最优采购总量, 并由此计算订货费、货物成本及缺货成本的不足, 可为供应商的选 择提供依据.
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:403456
    • 提供者:weixin_38680625
  1. 面向车辆多址接入边缘计算网络的任务协同计算迁移策略

  2. 为了解决传统移动边缘计算网络无法很好地支持车辆的高速移动性和动态网络拓扑,设计了车辆多址接入边缘计算网络,实现路边单元和智能车辆的协同计算迁移。在该网络架构下,提出了多址接入模式选择和任务分配的联合优化问题,旨在最大化系统的长期收益,同时满足多样化的车联网应用需求,兼顾系统的能量消耗。针对该复杂的联合优化问题,设计了基于深度增强学习的多址接入协同计算迁移策略,该策略能够很好地克服传统Q-learning算法因网络规模增加带来的维度灾难挑战。仿真结果验证了所提算法具有良好的计算性能。
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:3145728
    • 提供者:weixin_38707061
  1. 基于DQN的列车节能驾驶控制方法

  2. 随着轨道交通网络规模的扩大和列车运营间隔的缩短,列车牵引能耗在快速增加。因此,通过优化列车的驾驶策略降低牵引能耗,对于轨道交通系统的节能减排具有重大意义。针对列车的驾驶策略优化问题,提出一种基于深度 Q 网络(DQN)的列车节能驾驶控制方法。首先介绍了传统的列车节能驾驶问题并构造其反问题,即通过分配最少的能耗达到规定运行时分。进一步将该问题转化为有限马尔可夫决策过程(MDP),通过设计状态动作值函数、定义动作策略选取方法等,构建基于 DQN 方法的列车节能驾驶控制方法。通过实际驾驶数据对DQN
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:2097152
    • 提供者:weixin_38540782
  1. 微电网改进负荷功率分配策略与并网稳定性分析

  2. 由于低压微电网孤岛运行受线路阻抗特性等因素的影响,采用传统下垂控制无法按分布式电源(DG)单元容量合理分配功率,且孤岛微电网的电压和频率与大电网不同,并网前需进行同步控制。在分析并联逆变器功率分配机理的基础上,提出了改进的负荷功率分配控制策略。重新设计了Q-U下垂控制环,增加无功误差积分修正项,优化了微电网内部的功率分配。对微电网进行了并网同步控制,并建立了控制系统小信号模型,对改进负荷功率分配策略与并网同步控制的系统稳定性进行了分析。仿真结果表明采用所提控制策略后,无功功率可被合理分配,并网暂
  3. 所属分类:其它

    • 发布日期:2021-01-13
    • 文件大小:1048576
    • 提供者:weixin_38733367
  1. 参数未知的离散系统Q-学习优化状态估计与控制

  2. 控制系统的应用中存在状态不能直接测量或测量成本高的实际问题,给模型参数未知的系统完全利用状态数据学习最优控制器带来挑战性难题.为解决这一问题,首先构建具有状态观测器且系统矩阵中存在未知参数的离散线性增广系统,定义性能优化指标;然后基于分离定理、动态规划以及Q-学习方法,给出一种具有未知模型参数的非策略Q-学习算法,并设计近似最优观测器,得到完全利用可测量的系统输出和控制输入数据的非策略Q-学习算法,实现基于观测器状态反馈的系统优化控制策略,该算法的优点在于不要求系统模型参数全部已知,不要求系统状
  3. 所属分类:其它

    • 发布日期:2021-01-12
    • 文件大小:437248
    • 提供者:weixin_38614268
  1. DRL:深度强化学习-源码

  2. 深度强化学习 概述。 强化学习[] [] []。 基于价值的学习[] []。 基于策略的学习[] []。 演员批评方法[] []。 AlphaGo [] []。 TD学习。 Sarsa [] []。 Q学习[] []。 多步TD目标[] []。 基于价值的学习的高级主题。 体验重播(ER)和优先级ER [] []。 高估,目标网络和双重DQN [] []。 决斗网络[] []。 具有基线的策略梯度。 具有基线的政策梯度[] []。 带有基线的REINFORCE [
  3. 所属分类:其它

    • 发布日期:2021-03-31
    • 文件大小:18874368
    • 提供者:weixin_42138780
  1. JAX-RL:各种强化学习算法的JAX实现-源码

  2. JAX-RL 各种深度强化学习算法的JAX实现。 使用的主要库: JAX-主要框架 ku句-神经网络 Optax-基于梯度的优化 算法: | 近端策略优化(PPO)| 1 | | 深度Q网络(DQN)| 1 | | 双深度Q网络(DDQN)| 1 | | 深度递归Q网络(DRQN)| 1 | | 深度确定性策略梯度(DDPG)| 1 | 政策: psi贪婪 玻尔兹曼 去做: 每种算法的完整测试 其他基于PPO的算法? 优先体验重播 多代理DQN和DDPG
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:14336
    • 提供者:weixin_42138525
« 12 3 »