Conv Net训练完得到的特征存入磁盘,那么存入的特征是ConvNet卷积计算的中间结果,是Featuremap?
如图,每一次卷积,卷积核个数都是上一次的2倍?池化是因为面积变化,卷积核变小或者步长得原因,。卷积核变多,是为了保持卷积核的数据一致吗?
课程讲到,CNN模式下,神经元获取部分像素点,与后面的卷积核是什么关系?一个卷积核代表多个神经元吗?或者是卷积核为过滤器?
rpn网络对框进行2分类,终端网络进行k+1分类,在rpn中已经进行了背景的分类,在终端网络中为什么又进行了背景分类?
老师请教一下,fastercnn , 训练过程,是先训练rpn网络,训练完成之后再使用rpn网络生成poi框,
训练终端网络吗?还是整体训练?
做得是3*3的卷积,那不是有9个anchor么,那怎么会是2*9个结果呢,我感觉是1个anchor才对应2*9个结果吧?望告知,多谢!
不同ROI是拼接在一起后进行全连接么,还是各自做全连接?举个例子,如果有2000个ROI的话,是做了2000个全连接,还是只有一个全连接。还请告知
请问一下,feature map不是有很多个通道么?anchor boxes怎么扫描呢?每次是对所有通道一起扫描,还是只扫描一张feature map?还望告知,多谢
请问一下,此时只是判断这些区域是不是物体吧?应该还没有具体分类是什么物体吧?
还是不太懂为什么要把重合度在20%以下的负样本剔除。一是可以减少负样本数量,第二个原因没听懂,能告知么?
随机梯度下降不是采用一个样本么,怎么是batch?怎么不是BGD?
图像大小变大的话,那么经过同样的卷积池化操作,得到的全连接层前的feature map大小将大于7*7,此时用
7*7卷积核的话就达不到全连接的效果了呀,所以还是没懂为啥用conv代替全连接。望告知,多谢
能再为我解释一下为什么参数初始化的时候绝对值太大的话,更容易梯度爆炸或消失?多谢
是不是可以理解为:无论是黑白照片还是彩色照片,输入结点都是每个像素点,只不过区别是黑白照片每个输入结点是一层的,而彩色照片的每个输入结点是多层的。还请告知,多谢
感受野可大可小,最大的情况是整张图片的所有像素点。那么第一层卷积层感受野最小的情况就是感知一个像素点么?也就是三个维度(三个节点么)
非常抱歉给您带来不好的体验!为了更深入的了解您的学习情况以及遇到的问题,您可以直接拨打投诉热线:
我们将在第一时间处理好您的问题!
关于
课程分类
百战程序员微信公众号
百战程序员微信小程序
©2014-2025百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园网站维护:百战汇智(北京)科技有限公司 京公网安备 11011402011233号 京ICP备18060230号-3 营业执照 经营许可证:京B2-20212637