Tensorflow: визуализация обученных весов для линейного классификатора в наборе данных MNIST

Я обучил линейный классификатор на наборе данных MNIST с точностью 92%. Затем я зафиксировал веса и оптимизировал входное изображение таким образом, чтобы вероятность softmax для 8 была максимальной. Но потеря softmax не снижается ниже 2,302 (-log (1/10)), что означает, что мое обучение было бесполезным. Что я делаю не так?

Код для тренировки весов:

import tensorflow as tf
import numpy as np
from tensorflow.examples.tutorials.mnist import input_data

mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
trX, trY, teX, teY = mnist.train.images, mnist.train.labels,       
mnist.test.images, mnist.test.labels

X = tf.placeholder("float", [None, 784])
Y = tf.placeholder("float", [None, 10])

w = tf.Variable(tf.random_normal([784, 10], stddev=0.01))
b = tf.Variable(tf.zeros([10]))

o = tf.nn.sigmoid(tf.matmul(X, w)+b)

cost= tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=o, labels=Y))
train_op = tf.train.RMSPropOptimizer(0.001, 0.9).minimize(cost)
predict_op = tf.argmax(o, 1)

sess=tf.Session()
sess.run(tf.global_variables_initializer())
for i in range(100):
  for start, end in zip(range(0, len(trX), 256), range(256, len(trX)+1, 256)):
      sess.run(train_op, feed_dict={X: trX[start:end], Y: trY[start:end]})
  print(i, np.mean(np.argmax(teY, axis=1) == sess.run(predict_op, feed_dict={X: teX})))

Код для обучения изображения для фиксированных весов:

#Copy trained weights into W,B and pass them as placeholders to new model
W=sess.run(w)
B=sess.run(b)

X=tf.Variable(tf.random_normal([1, 784], stddev=0.01))
Y=tf.constant([0, 0, 0, 0, 0, 0, 0, 0, 1, 0])

w=tf.placeholder("float")
b=tf.placeholder("float")

o = tf.nn.sigmoid(tf.matmul(X, w)+b)

cost= tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=o, labels=Y))
train_op = tf.train.RMSPropOptimizer(0.001, 0.9).minimize(cost)
predict_op = tf.argmax(o, 1)

sess.run(tf.global_variables_initializer())
for i in range(1000):
  sess.run(train_op, feed_dict={w:W, b:B})
  if i%50==0:
    sess.run(cost, feed_dict={w:W, b:B})
    print(i, sess.run(predict_op, feed_dict={w:W, b:B}))

person Tejus Gupta    schedule 13.05.2017    source источник


Ответы (1)


Вы не должны вызывать tf.sigmoid на выходе вашей сети. softmax_cross_entropy_with_logits предполагает, что ваши входные данные являются логитами, то есть неограниченными действительными числами. С использованием

o = tf.matmul(X, w)+b

увеличивает вашу точность до 92,8%.

С этой модификацией работает ваша вторая тренировка. Стоимость достигает 0, хотя полученное изображение совсем не привлекательно.

введите здесь описание изображения

person P-Gn    schedule 13.05.2017
comment
Спасибо за помощь :). - person Tejus Gupta; 14.05.2017