Почему перекрестная энтропия набора цифровых тестов в нейронной сети, написанная от руки, правильная, скорость вывода всегда на 10% правильнее по сравнению с меткой?

1

Я запускаю свой код в spyder, тестовая кросс-энтропия верна, но точность тестового набора всегда очень низкая. Это мой код. Я использую mnist. Любые советы, как я могу улучшить производительность?

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import tensorflow as tf
import numpy as np
from tensorflow.contrib.layers import fully_connected
from tensorflow.examples.tutorials.mnist import input_data

x = tf.placeholder(dtype=tf.float32,shape=[None,784])
y = tf.placeholder(dtype=tf.float32,shape=[None,10])
test_x = tf.placeholder(dtype=tf.float32,shape=[None,784])
test_y = tf.placeholder(dtype=tf.float32,shape=[None,10])

mnist = input_data.read_data_sets("/home/xuenzhu/mnist_data", one_hot=True)

hidden1 = fully_connected(x,100,activation_fn=tf.nn.relu,weights_initializer=tf.random_normal_initializer())

hidden2 = fully_connected(hidden1,100,activation_fn=tf.nn.relu,weights_initializer=tf.random_normal_initializer())

outputs = fully_connected(hidden2,10,activation_fn=tf.nn.relu,weights_initializer=tf.random_normal_initializer())

loss = tf.nn.softmax_cross_entropy_with_logits(labels=y,logits=outputs)
reduce_mean_loss = tf.reduce_mean(loss)

equal_result = tf.equal(tf.argmax(outputs,1),tf.argmax(y,1))
cast_result = tf.cast(equal_result,dtype=tf.float32)
accuracy = tf.reduce_mean(cast_result)

train_op = tf.train.AdamOptimizer(0.001).minimize(reduce_mean_loss)

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}))
    for i in range(10000):
        xs,ys = mnist.train.next_batch(128)
        sess.run(train_op,feed_dict={x:xs,y:ys})
        if i%1000==0:
                print(sess.run(equal_result,feed_dict={x:mnist.test.images,y:mnist.test.labels}))
                print(sess.run(reduce_mean_loss,feed_dict={x:mnist.test.images,y:mnist.test.labels}))[enter image description here][1]
                print(sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}))
  • 0
    «Тест на перекрестную энтропию верен», что вы подразумеваете под этим? Откуда ты знаешь, что это правильно?
Теги:
tensorflow
deep-learning
neural-network
mnist

2 ответа

0
Лучший ответ

Нельзя использовать функцию активации ReLu перед применением softmax_cross_entropy. Измените функцию активации на последнем полностью подключенном слое на None и вы получите хорошую точность.

from tensorflow.examples.tutorials.mnist import input_data

import tensorflow as tf
from tensorflow.contrib.layers import fully_connected

x = tf.placeholder(dtype=tf.float32,shape=[None,784])
y = tf.placeholder(dtype=tf.float32,shape=[None,10])
test_x = tf.placeholder(dtype=tf.float32,shape=[None,784])
test_y = tf.placeholder(dtype=tf.float32,shape=[None,10])

mnist = input_data.read_data_sets("/home/xuenzhu/mnist_data", one_hot=True)

hidden1 = fully_connected(x,100,activation_fn=tf.nn.relu,weights_initializer=tf.random_normal_initializer())

hidden2 = fully_connected(hidden1,100,activation_fn=tf.nn.relu,weights_initializer=tf.random_normal_initializer())

outputs = fully_connected(hidden2,10,activation_fn=None,weights_initializer=tf.random_normal_initializer())







loss = tf.nn.softmax_cross_entropy_with_logits(labels=y,logits=outputs)
reduce_mean_loss = tf.reduce_mean(loss)

equal_result = tf.equal(tf.argmax(outputs,1),tf.argmax(y,1))
cast_result = tf.cast(equal_result,dtype=tf.float32)
accuracy = tf.reduce_mean(cast_result)

train_op = tf.train.AdamOptimizer(0.001).minimize(reduce_mean_loss)


with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}))
    for i in range(10000):
        xs,ys = mnist.train.next_batch(128)
        sess.run(train_op,feed_dict={x:xs,y:ys})
        if i%1000==0:
                print(sess.run(equal_result,feed_dict={x:mnist.test.images,y:mnist.test.labels}))
                print(sess.run(reduce_mean_loss,feed_dict={x:mnist.test.images,y:mnist.test.labels}))
                print(sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}))
  • 1
    Большое спасибо. Я принял ваше предложение, и точность стала 95%. Но я не знаю, почему изменение relu на none в последнем слое дает такой хороший результат. Не могли бы вы объяснить это мне?
  • 0
    Рад был помочь. ReLu устанавливает некоторые из своих входов на ноль. Это нормально в скрытом слое, но в выходном слое вы хотите сохранить то, что было передано предыдущими слоями.
-2

Попробуйте изменить это

для я в диапазоне (10000): # Попробуйте увеличить это значение до> 10k. Попробуйте 100k или выше

После этого вы сможете увидеть увеличение точности.

  • 1
    Спасибо за Ваш ответ. К сожалению, я не думаю, что это так. Я попытался запустить код OP с for i in range(100000) , но точность никогда не выходила for i in range(100000) .5.
  • 1
    Обновление: @marco_gorelli. Я попытался изменить функцию активации слоя (выходы) на activation_fn=tf.nn.sigmoid . Мне удалось достичь точности 90 +% с точно таким же кодом из OP.

Ещё вопросы

Сообщество Overcoder
Наверх
Меню