最赞回答 / niaiai
                                
                            
                                                            train_accuracy = accuracy.eval(feed_dict={x: batch[0], y_: batch[1], keep_prob: 1.0})
                        
                        2018-11-09
                
            
                                最新回答 / qq_深猫_04306026
                                
                                                            预测的时候不需要drop out 的操作。tf.nn.dropout里面的参数keep_prob的意思是:留下的神经元的概率,如果keep_prob为0的话, 就是让所有的神经元都失活。类似的函数是tf.layers.dropout,里面的参数是rate,是失活的概率。可以看https://stackoverflow.com/questions/44395547/tensorflow-whats-the-difference-between-tf-nn-dropout-and-tf-layers-drop...
                            
                        
                        2018-10-10
                
             
             
        











