老师,我想问下就是一条样本的mse=a(y_pre-y_)嘛,a是权重嘛,因为y_pre-y_可能大于0也可能小于0,如果我更加看重他小于0的那部分,那么我应该增加他的权重还是减小他的权重呀
老师,我想问下之前讲线性回归的时候不是说要先做归一化然后在拼接恒为1的那一列吗?为什么在这里正好是相反的呀。
老师,我想问下为什么测试集的X直接就用transform函数,而训练集的数据就要先用fit函数呢
老师,为什么我那个CUDA.exe在我的电脑上无法解压 呀
请问一下,参数scope有什么用呀?
为什么第54行打印出来的是批的准确率,而不是整个轮次的准确率
老师,这里调整学习率0.01 -》0.001 为什么学习效果这么相差巨大呢??
为什么要在最后的交叉熵损失函数中,把前面正向传播网络的正则Loss再加上呢?
既然在前面的创建正向传播网络的时候,使用了
arg_scope([fully_connected]=tf.contrib.layers.l2_regularizer(=))
说明在每一层的全连接都有自己的正则损失。
最后在求交叉熵loss的时候,为什么要使用之前隐藏层网络的正则损失,而不是单独在输出的softmax层上单独加上只针对输出层的一个L2正则损失呢?
比如total_loss = tf.add_n([loss]+softmax_l2_reg)
没有笔记功能,就用问答功能当总结了。
模型训练注意:
(1)训练数据和测试数据使用同一分布的均值和方差,一定要一一对应,如果只对训练数据进行标准化处理,没有对测试数据进行和训练数据一样的同分布标准化处理,这样的测试数据喂给模型的是没有意义的,先fit(训练数据)再transform(训练数据和测试数据)
(2)使用placeholder()先占坑,后面进行batch迭代的时候再喂数据
(3)使用Tenserflow()的optimizer优化器,对损失函数进行训练
(4)分轮次和批次进行训练,每个批次训练的时候先进行shuffle()这样训练的样本更有随机性,防止每个Epoch批次学习的样本顺序一致
请教老师指教,我是升级tensorflow时出现的adaconda prompt中执行的Script file 'G:\installsoft\anaconda3\envs\py36\Scripts\pip-script.py' is not present.这个问题,我在网上说是使用 esay_install pip就能解决,但是执行了还是不能解决,请各位老师指教
网盘里面没有资料啊?
没有word文档,安装步骤没有
老师请问,这一行代码的作用是啥
scaler = StandardScaler().fit(X_train)
44行: best_theta = theta.eval()运行时会对应执行24行还是31行,为什么?因为这两句都涉及theta的运算。
24行:theta = tf.Variable(tf.random_uniform([n + 1, 1], -1.0, 1.0), name='theta')
31行:training_op = tf.assign(theta, theta - learning_rate * gradients)
第三章 反向传播推到 没有课程
没有课程
非常抱歉给您带来不好的体验!为了更深入的了解您的学习情况以及遇到的问题,您可以直接拨打投诉热线:
我们将在第一时间处理好您的问题!
关于
课程分类
百战程序员微信公众号
百战程序员微信小程序
©2014-2025百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园网站维护:百战汇智(北京)科技有限公司 京公网安备 11011402011233号 京ICP备18060230号-3 营业执照 经营许可证:京B2-20212637