Wo kommt next_batch im TensorFlow Tutorial batch_xs, batch_ys = mnist.train.next_batch (100) kommen aus?

Ich versuche das TensorFlow-Tutorial und verstehe nicht, woher kommt es in dieser Zeile?

batch_xs, batch_ys = mnist.train.next_batch(100) 

Ich sah mich an

 from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) 

Und nicht sehen, next_batch dort entweder.

Jetzt beim Ausprobieren von next_batch in meinem eigenen Code, bekomme ich

 AttributeError: 'numpy.ndarray' object has no attribute 'next_batch' 

Also würde ich gerne verstehen woher kommt next_batch?

2 Solutions collect form web for “Wo kommt next_batch im TensorFlow Tutorial batch_xs, batch_ys = mnist.train.next_batch (100) kommen aus?”

next_batch ist eine Methode der DataSet Klasse (siehe https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/learn/python/learn/datasets/mnist.py für weitere Informationen darüber, was in der Klasse ist) .

Wenn Sie die Mnistdaten laden und dem Variablen mnist mit:

 mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) 

Schau auf die Klasse von mnist.train . Sie können es sehen, indem Sie eingeben:

 print mnist.train.__class__ 

Sie sehen folgendes:

 <class 'tensorflow.contrib.learn.python.learn.datasets.mnist.Dataset'> 

Da mnist.train eine Instanz der Klasse DataSet , kannst du die Funktion der Klasse next_batch . Weitere Informationen zu Klassen finden Sie in der Dokumentation .

Nach dem Durchblick durch das Tensorflow-Repository scheint es hier zu entstehen:

https://github.com/tensorflow/tensorflow/blob/9230423668770036179a72414482d45ddde40a3b/tensorflow/contrib/training/python/training/sequence_queueing_state_saver.py#L905

Allerdings, wenn Sie schauen, um es in Ihrem eigenen Code (für Ihren eigenen Dataset) zu implementieren, wäre es wahrscheinlich viel einfacher, es selbst in einem Dataset-Objekt zu schreiben, wie ich es tat. Wie ich es verstehe, ist es eine Methode, um den gesamten Dataset zu mischen und die $ mini_batch_size Anzahl der Samples aus dem gemischten Dataset zurückzugeben.

Hier ist ein Pseudocode:

shuffle data.x and data.y while retaining relation return [data.x[:mb_n], data.y[:mb_n]]

  • Wie Gradient von tf.py_func übergeben wurde
  • Replizieren von Modellen in Keras und Tensorflow für eine Multi-Thread-Einstellung
  • Wie bekomme ich den Wert von jedem Output-Knoten während eval MNIST Testdaten in TensorFlow?
  • Tensorflow, wie man auf alle Mittelzustände eines RNN zugreifen kann, nicht nur den letzten Zustand
  • Ist es möglich, keras embeddings in tensorboard zu visualisieren?
  • In Tensorflow, was ist der Unterschied zwischen einem Variablen und einem Tensor?
  • Warum ist diese TensorFlow-Implementierung wesentlich weniger erfolgreich als Matlab's NN?
  • Feed_dict in TensorFlow werfen unerwarteten Fehler (Zusammenfassung Operationen)
  • Erhalt der zufälligen Kostenausgabe auf Tensorflow Regressionspython
  • Training wordvec in Tensorflow, importiert nach Gensim
  • Tensorflow-Slicing basierend auf Variable
  • Python ist die beste Programmiersprache der Welt.