Tensorflow学习实战之多层神经网络mnist手写识别数据准备构建模型训练模型评估结果可视化显示输出错误预测
激活函数:
sigmod函数为s型
relu为修正线性单元函数
tanh双曲正切
这里使用的relu激活函数,输出使用softmax多分类,中间使用了3层隐藏层,优化器使用AdamOptimizer,损失函数定义loss_function=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=forward,la