会员可以在此提问,百战程序员老师有问必答
对大家有帮助的问答会被标记为“推荐”
看完课程过来浏览一下别人提的问题,会帮你学得更全面
截止目前,同学们一共提了 133794个问题

老师,这个错误我在代码中找不出来,这个错误意味着哪里错了??
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data

tf.compat.v1.disable_eager_execution()
# 读数据
mnist = input_data.read_data_sets("MINST_DATA_Bak", one_hot=True)
# 创建上下文为了后面的sess。run()
sess = tf.compat.v1.InteractiveSession()


# 截断的正太分布噪声, 标准查设为0,1
# 同时我们使用relu, 也会给偏置项增加一些小的正值0.1用来避免死亡节点(dead neurons)
def weight_variable(shape):
    inital = tf.compat.v1.truncated_normal(shape, stddev=.1)
    return tf.Variable(inital)


def bias_variable(shape):
    inital = tf.constant(0.1, shape=shape)
    return tf.Variable(inital)


# tf.nn.conv2d 是tensorflow 的二位卷积函数, 参数x是输入,w是卷积的参数, 比如[5,5,1,32]
# 前面两个数字代表卷积核的尺寸,第三个数字代表有多少个channel,因为我们只有灰度单色,所以是1,如果是彩色的RGB,则是3
# 最后代表卷积核的数量,也就是卷积核会提取多少类的特征
# srides 代表卷积核的步长,都是1,代表不会漏划过图片的每一个点
# 边界加上Padding让卷积的输出和输入保持同样的SAME 的尺寸,仅当步长为1的时候


def conv2d(x, W):
    return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding="SAME")


# tf.nn.max_pool是tensflow 的最大池化函数,这里我们使用2*2的最大池化,即将2*2的像素降为1*1的像素
# 最大池化会保留原始像素块中灰度值最高的那一个像素,既保留原始像素最明显的特征,因为希望整体上的缩小图片尺寸,因此池化层
# strides 也设为横竖两个方向以2为步长,如果步长还是1,那么我们会得到一个尺寸不变的图片


def max_pool_2x2(x):
    return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding="SAME")


# 因为卷积神经网络会用到空间结构信息, 因此需要1D的输入向量转化为2D 的图片结构,即从1*764的象视转化原始的28*28的形式
x = tf.compat.v1.placeholder(tf.float32, [None, 704])
y_ = tf.compat.v1.placeholder(tf.float32, [None, 10])
x_iamge = tf.reshape(x, [-1, 28, 28, 1])

# 定义第一个卷积层,我们先使用前面写好的参数进行初始化, 包括weights和bias, 这里的[5,5,1,32]代表卷积层
# 赫尺寸为5*5 ,1个颜色通道,32个不同的卷积核,然后使用conv2d 函数进行卷积操作,并加上偏置项,接着再使用Relu 激活函数
# 非线性处理, 最后使用最大池化函数max_pool_2*2 对卷积的结果进行池化操作

w_conv1 = weight_variable([5, 5, 1, 32])  #通道必须是1
b_conv1 = bias_variable([32])
# 进行cov2d 进行卷积
h_conv1 = tf.nn.relu(conv2d(x_iamge, w_conv1) + b_conv1)
h_pool1 = max_pool_2x2(h_conv1)

# 第二层和第一层一样, 但是卷积核变成了64
w_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(x_iamge, w_conv1) + b_conv1)
h_pool2 = max_pool_2x2(h_conv2)

# 因为前面经历了两次步长为2*2的做大池化,所以边长已经为1/4了,图片尺寸由28*28变成了7*7
# 而第二个卷积层的卷积核数量是64,输出的tensor尺寸即为7*7*64
# 然后我们使用tf。reshape 函数对第二个卷积层的输出tensor进行变形,将其转成1D的向量
# 然后使用一个全连接层,隐含节点为1024,并使用reLu激活函数
w_fc1 = weight_variable([7 * 7 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, w_fc1) + b_fc1)

# 防止过拟合,使用Dropout 层
keep_prob = tf.compat.v1.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

# 多添加一个全连接,
# 初始化 w, b
w_fc_plus = weight_variable([1024, 256])
b_fc_plus = bias_variable([256])
h_fc_plus_drop = tf.nn.relu(tf.matmul(h_fc1_drop, w_fc_plus) + b_fc_plus)

# 接softmax 分类
w_fuc2 = weight_variable([256, 10])
b_fuc2 = bias_variable([10])
y_conv = tf.nn.softmax(tf.matmul(h_fc_plus_drop, w_fuc2) + b_fuc2)


cross_entropy = tf.compat.v1.reduce_mean(-tf.compat.v1.reduce_sum(y_ * tf.compat.v1.log(y_conv),
                                              reduction_indices=[1]))
train_step = tf.compat.v1.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1))
accuacy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

# 训练
tf.compat.v1.global_variables_initializer().run()
for i in range(20000):
    batch = mnist.train.next_batch(50)
    if i % 100 == 0:
        train_accuracy = accuacy.eval(feed_dict={x: batch[0], y_: batch[1],
                                                  keep_prob: 1.0})
        print("step %d , train accuacy %g" % (i, train_accuracy))
    train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})

x_test, y_test = mnist.train.next_batch(5000)
print("test accuracy %g" % accuacy.eval(feed_dict={
    x: x_test, y_: y_test, keep_prob: 1.0
}))

dfac8bb424ce637489e2a70bd98b8bb.png

Python 全系列/第二十四阶段:人工智能基础_深度学习理论和实战(旧)/卷积神经网络实战 31562楼
JAVA 全系列/第七阶段:项目管理与SSM框架/Mybatis 31563楼
JAVA 全系列/第六阶段:项目管理与SSM框架/SpringMVC 31564楼

4CBCC817-A332-4D8D-9C4B-1B0488D54FC1.jpeg

JAVA 全系列/第二阶段:JAVA 基础深化和提高/多线程技术 31567楼
Python 全系列/ 第十五阶段:自动化操作办公软件、邮件、定时任务等/自动化操作办公软件、邮件、定时任务等 31568楼
JAVA 全系列/第一阶段:AI驱动的JAVA编程/JAVA入门和背景知识 31570楼
JAVA 全系列/第七阶段:项目管理与SSM框架/Mybatis 31571楼

老师我有两个问题:

问题1:我看每个方法中都new了Menu和TelNoteRegex对象,那我能不能在Operate类中直接创建两个成员变量

Menu menu = new Menu();  TelNoteRegex telNoteRegex = TelNoteRegex,然后在方法直接使用menu和telNoteRegex调用他们的相关方法


问题2:我对retuen有点不太理解,代码如下:

public class Operate {


   private List<Person> list;
   
   public Operate() {
     
      this.list = new ArrayList<>();
   }
// 用户添加记录业务逻辑控制
   public void addLogic() {
    
      Menu menu = new Menu();
   
      TelNoteRegex telNoteRegex = new TelNoteRegex();
     
      while (true) {
       
         menu.addMenu();
       
         int item = telNoteRegex.menuItemValidate(1, 3); 
        
         switch (item) {
            case 1:
               // 添加新纪录
               this.addOperation();
               break;
            case 2:
               // 查看全纪录
               this.showAll();
               break;
            case 3:
               return; 
         }

      }
   }
   
   // 修改记录业务逻辑控制
public void modifyLogic() {
   Menu menu = new Menu();
   TelNoteRegex telNoteRegex = new TelNoteRegex();
   while (true) {
      menu.modifyMenu();
      int item = telNoteRegex.menuItemValidate(1, 3);
      switch (item) {
         case 1:
            // 查看全纪录
            this.showAll();
            break;
         case 2:
            // 修改指定记录
            // 进入修改记录的三级子界面
            menu.subModifyMenu();
            
            int input = telNoteRegex.menuItemValidate(1, 6);
            // 根据选项进入相应操作
            switch(input){
               case 1:
                  break;
               case 2:
                  break;
               case 3:
                  break;
               case 4:
                  break;
               case 5:
                  break;
               case 6:
                  break;
               case 7:
                  return;
            }
            break;
         case 3:
            return;
      }
   }
} 
} 

public class App {

    /**
     * 启动电话本项目
     * @param args
     */
    public static void main(String[] args){

        App app = new App();
        app.start();

    }

    /**
     * 控制主菜单
     */
    public void start(){
     
        Menu menu = new Menu();
        
        TelNoteRegex telNoteRegex = new TelNoteRegex();
       
        Operate operate = new Operate();

       
        while(true) {
           
            menu.mainMenu();
          
            int item = telNoteRegex.menuItemValidate(1, 6);
          
            switch(item){
                case 1: // 添加
                    operate.addLogic(); 
                    break;
                case 2: // 查询
                    operate.searchLogic();
                    break;
                case 3: // 修改
                    operate.modifyLogic();
                    break;
                case 4: // 删除
                    operate.deleteLogic();
                    break;
                case 5: // 排序
                    operate.orderLogic();
                    break;
                case 6: 
                    System.exit(0); // 退出程序
            }

        }

    }
}

为什么modifyLogic()方法中内部的switch语句的case 7 : return是返回到了modifyLogic()方法中的while循环中,而外部的switch语句的 case 3: teturn 是返回到了App类中while循环?



运行结果:

image.png



image.png


image.png



JAVA 全系列/第二阶段:JAVA 基础深化和提高/智能电话本项目实战 31572楼
C++特训班/第一阶段:基础篇/基础篇 31573楼
人工智能/第十三阶段:深度学习-图像识别项目实战 /自然场景下的目标检测及源码分析 31574楼

generatordemo.zip

代码如上

JAVA 全系列/第六阶段:项目管理与SSM框架/Mybatis 31575楼

课程分类

百战程序员微信公众号

百战程序员微信小程序

©2014-2025百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园
网站维护:百战汇智(北京)科技有限公司
京公网安备 11011402011233号    京ICP备18060230号-3    营业执照    经营许可证:京B2-20212637