请教老师指教,我是升级tensorflow时出现的adaconda prompt中执行的Script file 'G:\installsoft\anaconda3\envs\py36\Scripts\pip-script.py' is not present.这个问题,我在网上说是使用 esay_install pip就能解决,但是执行了还是不能解决,请各位老师指教
为什么要在最后的交叉熵损失函数中,把前面正向传播网络的正则Loss再加上呢?
既然在前面的创建正向传播网络的时候,使用了
arg_scope([fully_connected]=tf.contrib.layers.l2_regularizer(=))
说明在每一层的全连接都有自己的正则损失。
最后在求交叉熵loss的时候,为什么要使用之前隐藏层网络的正则损失,而不是单独在输出的softmax层上单独加上只针对输出层的一个L2正则损失呢?
比如total_loss = tf.add_n([loss]+softmax_l2_reg)
老师,我想问下之前讲线性回归的时候不是说要先做归一化然后在拼接恒为1的那一列吗?为什么在这里正好是相反的呀。
第三章 反向传播推到 没有课程
没有课程
为什么第54行打印出来的是批的准确率,而不是整个轮次的准确率
老师,我想问下就是一条样本的mse=a(y_pre-y_)嘛,a是权重嘛,因为y_pre-y_可能大于0也可能小于0,如果我更加看重他小于0的那部分,那么我应该增加他的权重还是减小他的权重呀
请问一下,参数scope有什么用呀?
44行: best_theta = theta.eval()运行时会对应执行24行还是31行,为什么?因为这两句都涉及theta的运算。
24行:theta = tf.Variable(tf.random_uniform([n + 1, 1], -1.0, 1.0), name='theta')
31行:training_op = tf.assign(theta, theta - learning_rate * gradients)
老师,利用tensorflow求多元线性回归的解析解得到的结果和利用梯度下降法以及tensorflow中带的自动求导,这三种方法得到解析解为啥都不一样,而且差距很大。
老师,在网页上下载的vs不能安装,电脑上原来有的vs在cuda安装时候出现了问题,应该如何解决?
老师,我想问下为什么测试集的X直接就用transform函数,而训练集的数据就要先用fit函数呢
老师,TensorFlow2.0版本的用不了session这个命令是嘛?这些代码都跑不了
老师,安装tensorflow-gpu=1.10.0,需要安装的cuda版本是9.0,安装是10.0不行,老师帮忙下载一下9.0吧
老师,为什么我那个CUDA.exe在我的电脑上无法解压 呀
老师 为什么自己实现线性回归使用测试集得到的预测结果完全是错误的,自己得到的结果是这样的
非常抱歉给您带来不好的体验!为了更深入的了解您的学习情况以及遇到的问题,您可以直接拨打投诉热线:
我们将在第一时间处理好您的问题!
关于
课程分类
百战程序员微信公众号
百战程序员微信小程序
©2014-2025百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园网站维护:百战汇智(北京)科技有限公司 京公网安备 11011402011233号 京ICP备18060230号-3 营业执照 经营许可证:京B2-20212637