您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. fortran标准函数库

  2. fortran标准函数库,包含字符运算、矩阵计算等fortran编译器自带算法。
  3. 所属分类:其它

    • 发布日期:2011-11-21
    • 文件大小:106496
    • 提供者:lengyeshanren
  1. book code C语言名题精选百则

  2. 冼镜光 C语言名题精选百则 随书代码 \book_code>tree 卷 dat 的文件夹 PATH 列表 卷序列号为 66A6-68F9 D:. ├─COMBINAT ├─EPILOG ├─GAMES ├─NUMBERS ├─OTHERS ├─PROLOGUE ├─SEARCH ├─SORTING └─STRING \book_code>dir /s /b \book_code\COMBINAT \book_code\EPILOG \book_code\GAMES \book_c
  3. 所属分类:C

    • 发布日期:2015-12-16
    • 文件大小:123904
    • 提供者:lostspeed
  1. MNIST_data

  2. #http://www.tensorfly.cn/tfdoc/tutorials/mnist_beginners.html import tensorflow as tf import tensorflow.examples.tutorials.mnist.input_data as input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) x = tf.placeholder("float&qu ot;
  3. 所属分类:机器学习

    • 发布日期:2018-01-03
    • 文件大小:11534336
    • 提供者:chenxiezhi
  1. jdk-8u161-windows-x64

  2. 我分析的目标分类随时间的变化各参数的系数会产生变化,比如,用softmax对孩子的健康水平进行分类。随时间的变化,同龄孩子的体重会逐渐偏高,需要用强化学习把体重情况和孩子的健康情况的系数进行更新。 目前,我是随着时间的变化每次测试中重建机器学习框架,重新生成一套系数,但是这样系数变化会比较大,我需要利用强化学习把这个系数变化做得更平滑一些,求大神指教(请根据以下代码进行添加和修改,我看了很多强化学习的案例,还是不知道怎么应用在这里)。 w=[] u=[] for lenth in range
  3. 所属分类:SQLServer

    • 发布日期:2018-04-17
    • 文件大小:976
    • 提供者:wangyisha
  1. 5-3tensorboard 网络运行

  2. 载入数据集 mnist=input_data.read_data_sets("MNIST_data",one_hot=True) #设定训练批次的大小 batch_size=50 #计算多少个批次 n_batch=mnist.train.num_examples//batch_size def variable_summaries(var): with tf.name_scope(summaries): mean=tf.reduce_mean(var) tf.summary.scalar(
  3. 所属分类:深度学习

    • 发布日期:2019-04-21
    • 文件大小:10240
    • 提供者:liliancheng868
  1. TensorFlow.js Machine Learning for the Web and Beyond.pdf

  2. TensorFlow.js, Google 提供的基于TensorFlow的Javascr ipt库。方便使用JS的开发者使用,并且可以为未来的边缘计算提供支持。TensorFlow. js: Machine Learning for the Web and beyond acceleration, notably TensorFire(Kwok et al., 2017), Propel Layers APl, which provides higher-level model buildin
  3. 所属分类:机器学习

    • 发布日期:2019-07-15
    • 文件大小:581632
    • 提供者:nicholaskong
  1. 数字识别参数模型,model.pb

  2. mnist手写数字识别model,pb格式。inputs Variable Variable/read Variable_1 Variable_1/read Conv2D add Relu MaxPool Variable_2 Variable_2/read Variable_3 Variable_3/read Conv2D_1 add_1 Relu_1 MaxPool_1 Variable_4 Variable_4/read Variable_5 Variable_5/read Reshap
  3. 所属分类:深度学习

    • 发布日期:2019-08-01
    • 文件大小:12582912
    • 提供者:dashi_lu
  1. CuPy Documentation

  2. CuPy is an implementation of NumPy-compatible multi-dimensional array on CUDA. CuPy consists of cupy. ndarray, the core multi-dimensional array class, and many functions on it. It supports a subset of numpy. ndarray interface. The following is a b
  3. 所属分类:深度学习

    • 发布日期:2020-04-15
    • 文件大小:1048576
    • 提供者:wang_quan
  1. FORTRAN 90标准函数.pdf

  2. FORTRAN 90标准函数 FORTRAN 90标准函数ATAN2D (y, x) 求x的反正切 arc tg(y/
  3. 所属分类:其它

    • 发布日期:2019-10-12
    • 文件大小:87040
    • 提供者:qq_17137355
  1. 结合知识图谱实现基于电影的推荐系统.pdf

  2. 在推荐算法中融入电影的知识图谱,能够将没有任何历史数据的新电影精准地推荐给目标用户。交叉特征矩阵 Cr 交叉单元 第层 el 7交叉压缩单元模型的结构 交叉压缩单元模型的具体处理过程如下 (1)将与进行矩阵相乘得到。 (2)将复制一份,并讲行转置得到。实现特征交叉融合 (3)将经过权重矩阵进行线性变化(与矩阵相乘) (4)将经过权重矩阵进行线性变化。 (5)将(3)与(4)的结果相加,再与偏置参数相加,得到。将用于推荐算法模型的后续计算。 (6)按照第(3)、(4)、(5)步的做法,同理可以得到
  3. 所属分类:机器学习

    • 发布日期:2019-09-02
    • 文件大小:867328
    • 提供者:zjxaut2008
  1. Batched Sparse Matrix Multiplication for Accelerating Graph Convolutional PPT

  2. Batched Sparse Matrix Multiplication for Accelerating Graph Convolutional Networks 对图卷积网络进行加速的批量稀疏矩阵乘法 作者的ppt的pdf版本Formulation of Graph Convolution GraphConvolution( A, X w, bias) Feature forb← o to batchsize do for ch←0 to channel y:=2a a,w Y=AXW do
  3. 所属分类:深度学习

    • 发布日期:2019-08-03
    • 文件大小:2097152
    • 提供者:yyl424525
  1. pytorch:torch.mm()和torch.matmul()的使用

  2. 今天小编就为大家分享一篇pytorch:torch.mm()和torch.matmul()的使用,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:26624
    • 提供者:weixin_38674223
  1. 关于tf.matmul() 和tf.multiply() 的区别说明

  2. 主要介绍了关于tf.matmul() 和tf.multiply() 的区别说明,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:40960
    • 提供者:weixin_38659646
  1. 浅谈keras中的batch_dot,dot方法和TensorFlow的matmul

  2. 主要介绍了浅谈keras中的batch_dot,dot方法和TensorFlow的matmul,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:54272
    • 提供者:weixin_38666753
  1. 将tf.batch_matmul替换成tf.matmul的实现

  2. 主要介绍了将tf.batch_matmul替换成tf.matmul的实现,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:125952
    • 提供者:weixin_38607864
  1. 浅谈keras中的batch_dot,dot方法和TensorFlow的matmul

  2. 概述 在使用keras中的keras.backend.batch_dot和tf.matmul实现功能其实是一样的智能矩阵乘法,比如A,B,C,D,E,F,G,H,I,J,K,L都是二维矩阵,中间点表示矩阵乘法,AG 表示矩阵A 和G 矩阵乘法(A 的列维度等于G 行维度),WX=Z import keras.backend as K import tensorflow as tf import numpy as np w = K.variable(np.random.randint(10,si
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:56320
    • 提供者:weixin_38609571
  1. 将tf.batch_matmul替换成tf.matmul的实现

  2. 我就废话不多说了,大家还是直接看代码吧~ import tensorflow as tf h_doc=tf.placeholder(tf.int32,[None,30,512]) h_query=tf.placeholder(tf.int32,[None,10,512]) temp = tf.matmul(h_doc, h_query, adjoint_b = True) # tf.batch_matmul(h_doc, h_query, adj_y=True) print(temp.get_
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:128000
    • 提供者:weixin_38650951
  1. 关于tf.matmul() 和tf.multiply() 的区别说明

  2. 我就废话不多说了,大家还是直接看代码吧~ flyfish # a # [[1, 2, 3], # [4, 5, 6]] a = tf.constant([1, 2, 3, 4, 5, 6], shape=[2, 3]) # b1 # [[ 7, 8], # [ 9, 10], # [11, 12]] b1 = tf.constant([7, 8, 9, 10, 11, 12], shape=[3, 2]) #b2 #[[ 7 8 9] # [10 11 12]] b2 = tf.constan
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:43008
    • 提供者:weixin_38707061
  1. pytorch:torch.mm()和torch.matmul()的使用

  2. 如下所示: torch.mm(mat1, mat2, out=None) → Tensor torch.matmul(mat1, mat2, out=None) → Tensor 对矩阵mat1和mat2进行相乘。 如果mat1 是一个n×m张量,mat2 是一个 m×p 张量,将会输出一个 n×p 张量out。 参数 : mat1 (Tensor) – 第一个相乘矩阵 mat2 (Tensor) – 第二个相乘矩阵 out (Tensor, optional) – 输出张量 代码示例: i
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:26624
    • 提供者:weixin_38569722
  1. 关于pytorch中部分矩阵乘法的总结(torch.mm,torch.mul,torch.matmul)

  2. 一、torch.mul 该乘法可简单理解为矩阵各位相乘,一个常见的例子为向量点乘,源码定义为torch.mul(input,other,out=None)。其中other可以为一个数也可以为一个张量,other为数即张量的数乘。 该函数可触发广播机制(broadcast)。 tensor1 = 2*torch.ones(1,4) tensor2 = 3*torch.ones(4,1) print(torch.mul(tensor1, tensor2)) #输出结果为: tensor([[6.,
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:38912
    • 提供者:weixin_38569515
« 12 3 »