[PYTHON] Fragen, die während der Studiensitzung im Februar geprüft wurden

Ich habe maschinelles Lernen (Scikit-Learn, Tensor Flow) bei Mooc (Udacity, Coursera) gemacht.

Mooc

Andrew Ng ist berühmt, aber Googles Deep Learning --Udacity ist gut für Scikit-Learn oder TensorFlow geeignet.

Neural Networks for Machine Learning

Deep Learning - Udacity

Deep Learning - Udacity

Setup

Scikit-learn

Scikit-learn

Python: Gemeinsame Elemente extrahieren

v = [1,2,3]
w = [2,3,4]
[x for x in v if x in w] # [2,3]

TensorFlow

Es ging darum, dieselbe Aufgabe in Tensorflow auszuführen.

UNADJUSTEDNONRAW_thumb_1c0e.jpg

Ich war zufrieden, weil ich so ein 3-Lagen-NN hergestellt und eine Genauigkeit von 94,2% erreicht habe. Wenn ich einen Teil des Codes extrahiere, sieht es so aus.

def weight_variable(shape):
  initial = tf.truncated_normal(shape, stddev=1.732/sum(shape))
  return tf.Variable(initial)

def bias_variable(shape):
  initial = tf.constant(0.1, shape=shape)
  return tf.Variable(initial)
  
batch_size = 128
hidden_layer_size = 1024
input_layer_size = 28*28
output_layer_size = 10

graph = tf.Graph()
with graph.as_default():
    # Input data. For the training data, we use a placeholder that will be fed
    # at run time with a training minibatch.
    tf_train_dataset = tf.placeholder(tf.float32, shape=(batch_size, image_size * image_size))
    tf_train_labels = tf.placeholder(tf.float32, shape=(batch_size, num_labels))
    tf_valid_dataset = tf.constant(valid_dataset)
    tf_test_dataset = tf.constant(test_dataset)
    
    # Variables
    weight1 = weight_variable( (input_layer_size, hidden_layer_size) )
    bias1 = bias_variable( [hidden_layer_size] )
    
    # Hidden Layer
    hidden_layer = tf.nn.relu(tf.matmul(tf_train_dataset, weight1) + bias1)
    
    # Variables
    weight2 = weight_variable( (hidden_layer_size, output_layer_size) )
    bias2 = bias_variable( [output_layer_size] )
    
    logits = tf.matmul(hidden_layer, weight2) + bias2
    loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=tf_train_labels))
    
    # optimizer
    optimizer = tf.train.AdamOptimizer(0.001).minimize(loss)
    # optimizer = tf.train.GradientDescentOptimizer(0.5).minimize(loss)
    
    # prediction
    train_prediction = tf.nn.softmax(logits)
    valid_prediction = tf.nn.softmax(tf.matmul(tf.nn.relu(tf.matmul(tf_valid_dataset, weight1) + bias1), weight2) + bias2)
    test_prediction = tf.nn.softmax(tf.matmul(tf.nn.relu(tf.matmul(tf_test_dataset, weight1) + bias1), weight2) + bias2)
    

Recommended Posts

Fragen, die während der Studiensitzung im Februar geprüft wurden
Fragen, die während der Studiensitzung im Mai geprüft wurden
Fragen, die auf der Studiensitzung im August 2017 geprüft wurden
Ein Beispiel für die Antwort auf die Referenzfrage der Studiensitzung. Mit Python.
Geben Sie das sudo-Passwort beim Start in Fabric ein
Schleifen Sie gleichzeitig Variablen in der Vorlage
Studiere in Zundoko
Ich habe versucht, auf der WEB-Serverseite bei einer internen Python-Lernsitzung zu lernen
Lesen Sie "Gewöhnliche Linux-Programmierung" in einer internen Lernsitzung