[PYTHON] AutoEncodder-Notizen mit Keras

Einführung

Ich habe auf den folgenden Blog über Keras 'Autoencoder verwiesen. http://blog.keras.io/building-autoencoders-in-keras.html Im Blog wird MNIST als Eingabedaten verwendet.

Es gibt viele Beispiele für die Merkmalsextraktion mit Bildern wie MNIST, aber in diesem Artikel werden ** andere Signale als Bilder ** behandelt.

Vorverarbeitung

Als Vorverarbeitung werden hier die Eingangsdaten von AutoEncoder als Messdaten des Beschleunigungssensors mit Werten von -8 bis +8 verwendet. Dann sei die Datenvariable window. Dann sei die Anzahl der Knoten in der verborgenen Ebene acht.

def SaveDicDataFromFileNPZ(PATH,name,data):
    if not ( os.path.exists(PATH) ): os.makedirs(PATH)

    np.savez(PATH+name, data=data)

#Stellen Sie PATH ein, um jeden Parameter zu speichern
SensorName='sensor1'

SaveFileNameEncord=SensorName+'_AccX_encoded'
SaveFileNameDecord=SensorName+'_AccX_decoded'
SaveFileNameNet=SensorName+'_AccX_net'
SaveFileNameTrain=SensorName+'_AccX_train'
SaveFileNameTest=SensorName+'_AccX_test'
SaveFileNameGlaph=GlaphDataPath+SensorName+'_AccX_loss_val_loss.png'

window_test=windoW
window_train=windoW

encoding_dim = 8  
shapeNum=windoW.shape[0]*windoW.shape[1]

# this is our input placeholder
input_img = Input(shape=(shapeNum,))
# "encoded" is the encoded representation of the input
encoded = Dense(encoding_dim, activation='tanh')(input_img)
# "decoded" is the lossy reconstruction of the input
decoded = Dense(shapeNum, activation='linear')(encoded)

# this model maps an input to its reconstruction
autoencoder = Model(input=input_img, output=decoded)

# this model maps an input to its encoded representation
encoder = Model(input=input_img, output=encoded)

# create a placeholder for an encoded (32-dimensional) input
encoded_input = Input(shape=(encoding_dim,))
# retrieve the last layer of the autoencoder model
decoder_layer = autoencoder.layers[-1]
# create the decoder model
decoder = Model(input=encoded_input, output=decoder_layer(encoded_input))

autoencoder.compile(optimizer='adadelta', loss='mse')
plot(autoencoder,  to_file=StudyDataModelPicPath+SaveFileNameNet+'.png')

hist = autoencoder.fit(window_train, window_train,
                nb_epoch=50,
                batch_size=shapeNum/4,
                shuffle=True,
                validation_data=(window_test, window_test))

#Speichern Sie die codierten und decodierten Objekte
encoded_imgs = encoder.predict(window_test)
decoded_imgs = decoder.predict(encoded_imgs)

processing.SaveDicDataFromFileNPZ(StudyDataPath,SaveFileNameEncord,encoded_imgs)
processing.SaveDicDataFromFileNPZ(StudyDataPath,SaveFileNameDecord,decoded_imgs)

#Speichern Sie Parameter wie Gewicht und Vorspannung für jede Schicht
json_string = encoder.to_json()
open(StudyDataPath+SaveFileNameEncord+'.json', 'w').write(json_string)
encoder.save_weights(StudyDataPath+SaveFileNameEncord+'_weights.h5')

json_string = decoder.to_json()
open(StudyDataPath+SaveFileNameDecord+'.json', 'w').write(json_string)
decoder.save_weights(StudyDataPath+SaveFileNameDecord+'_weights.h5')

json_string = autoencoder.to_json()
open(StudyDataPath+SaveFileNameNet+'.json', 'w').write(json_string)
autoencoder.save_weights(StudyDataPath+SaveFileNameNet+'_weights.h5')

#Verlust in der Grafik anzeigen
loss = hist.history['loss']
val_loss = hist.history['val_loss']

nb_epoch = len(loss)
plt.plot(range(nb_epoch), loss, marker='.', label='loss')
plt.plot(range(nb_epoch), val_loss, marker='.', label='val_loss')
plt.legend(loc='best', fontsize=10)
plt.grid()
plt.xlabel('epoch')
plt.ylabel('loss')
plt.savefig(SaveFileNameGlaph)
plt.show()

Die Ausgabe ist eine Grafik, wie in der folgenden Abbildung gezeigt.

image

Recommended Posts

AutoEncodder-Notizen mit Keras
Anmerkungen zu mit
Bilderkennung mit Keras
CIFAR-10-Tutorial mit Keras
Multivariates LSTM mit Keras
Keras-Installation (von Anaconda verwendet)
Multiple Regressionsanalyse mit Keras
Notizen, die mit symbolischen Links spielen
Word2vec mit Theano + Keras implementiert
Satzerzeugung mit GRU (Keras)
Optimieren von Keras-Parametern mit Keras Tuner
Erstellen Sie einfach CNNs mit Keras
Effizientes GAN mit Keras implementiert
Bilderkennung mit Keras + OpenCV
[Lesehinweis] Praktisches maschinelles Lernen mit Scikit-Learn, Keras und TensorFlow Kapitel 1
MNIST (DCNN) mit Keras (TensorFlow-Backend)
Hinweise zur Paketverwaltung mit conda
Vorhersage der Titanic von Kaggle mit Keras (kaggle ⑦)
Laplace-Eigenkarten mit Scikit-Learn (persönliche Notizen)
[TensorFlow] [Keras] Aufbau eines neuronalen Netzwerks mit Keras
Implementieren Sie Keras LSTM Feed Forward mit Numpy
Vergleichen Sie DCGAN und pix2pix mit Keras
Score-CAM-Implementierung mit Keras. Vergleich mit Grad-CAM
Vorhersage der Sinuswelle mit Keras
Hinweise zur Verwendung von rstrip mit Python.
Anfänger RNN (LSTM) | Versuchen Sie es mit Keras
Schreiben Sie Reversi AI mit Keras + DQN
4/22 Vorhersage der Sinuswelle mit Keras