下不了1.10.0了怎么办
老师,第一个框就可以运算出计算结果,为什么还需要第二个框运行。
老师,利用tensorflow求多元线性回归的解析解得到的结果和利用梯度下降法以及tensorflow中带的自动求导,这三种方法得到解析解为啥都不一样,而且差距很大。
老师,每个类别的概率值是怎样计算出来的,这个激活函数是Relu
老师,我想问下就是一条样本的mse=a(y_pre-y_)嘛,a是权重嘛,因为y_pre-y_可能大于0也可能小于0,如果我更加看重他小于0的那部分,那么我应该增加他的权重还是减小他的权重呀
老师,我想问下之前讲线性回归的时候不是说要先做归一化然后在拼接恒为1的那一列吗?为什么在这里正好是相反的呀。
在anaconda创建一个虚拟环境使用的是python3.6版本的,一直说渠道没有这个包,网上搜了方法也没有解决,这个怎么解决?
老师,我想问下为什么测试集的X直接就用transform函数,而训练集的数据就要先用fit函数呢
老师,为什么我那个CUDA.exe在我的电脑上无法解压 呀
我想问下这个参数coefs[]在哪更新的?这句话好像也没更新coefs_
请问老师,这里为什么要对x0求一下梯度,x0是原始输入,而w才是真正的要调整的变量?
请问一下,参数scope有什么用呀?
为什么第54行打印出来的是批的准确率,而不是整个轮次的准确率
老师,这里调整学习率0.01 -》0.001 为什么学习效果这么相差巨大呢??
为什么要在最后的交叉熵损失函数中,把前面正向传播网络的正则Loss再加上呢?
既然在前面的创建正向传播网络的时候,使用了
arg_scope([fully_connected]=tf.contrib.layers.l2_regularizer(=))
说明在每一层的全连接都有自己的正则损失。
最后在求交叉熵loss的时候,为什么要使用之前隐藏层网络的正则损失,而不是单独在输出的softmax层上单独加上只针对输出层的一个L2正则损失呢?
比如total_loss = tf.add_n([loss]+softmax_l2_reg)
非常抱歉给您带来不好的体验!为了更深入的了解您的学习情况以及遇到的问题,您可以直接拨打投诉热线:
我们将在第一时间处理好您的问题!
关于
课程分类
百战程序员微信公众号
百战程序员微信小程序
©2014-2023 百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园网站维护:百战汇智(北京)科技有限公司 京公网安备 11011402011233号 京ICP备18060230号-3 营业执照 经营许可证:京B2020212637