Début des études: samedi 7 décembre
Matériel pédagogique, etc.: ・ Miyuki Oshige "Détails! Note d'introduction à Python3 »(Sotech, 2017): 12/7 (sam) -12/19 (jeu) lu ・ Progate Python course (5 cours au total): 12/19 (jeudi) -12/21 (samedi) fin ・ Andreas C. Müller, Sarah Guido "(titre japonais) Apprentissage automatique à partir de Python" (O'Reilly Japon, 2017): 21/12 (sam) -23 décembre (sam) ・ Kaggle: Real or Not? NLP with Disaster Tweets: Publié du samedi 28 décembre au vendredi 3 janvier Ajustement ・ Wes Mckinney "(titre japonais) Introduction à l'analyse de données par Python" (O'Reilly Japon, 2018): 1/4 (mercredi) à 1/13 (lundi) lire ・ Yasuki Saito "Deep Learning from Zero" (O'Reilly Japan, 2016): 1/15 (mer) -1/20 (lun) ・ ** François Chollet «Deep Learning avec Python et Keras» (Queep, 2018): 1/21 (mar.) ~ **
p.94 Chapitre 3 Lecture terminée jusqu'au réseau neuronal.
Modèle de retour par Keras
from keras import models
from keras import layers
def build_model():
#Vous pouvez ajouter un calque avec add. Cette fois, il se compose de deux couches
model = models.Sequential()
#contribution(input_shape)Créez une couche cachée avec 64 unités, la fonction d'activation est ReLU
model.add(layers.Dense(64, activation = 'relu',
input_shape=(train_data.shape[1],)))
#2ème couche
model.add(layers.Dense(64, activation = 'relu'))
#La fonction d'activation n'est pas appliquée car il s'agit d'un problème de régression scalaire de couche finale. (La largeur du nombre est fixe.)
model.add(layers.Dense(1))
#L'optimiseur de réglage du poids est rmsprop, la fonction de perte est mse, l'indice est mae
model.compile(optimizer='rmsprop', loss='mse', metrics=['mae'])
return model
Je n'ai aucune idée de ce que signifie la virgule ** après ** shape [1] du 3ème argument input_shape dans la 1ère couche, et si je supprime la virgule parce que je pense que c'est inutile, je lancerai une erreur et chercherai diverses choses. En me retournant, j'ai trouvé l'article suivant
What does TensorFlow shape (?,) mean? (stackoverflow)
Apparemment, la virgule est utilisée pour obtenir un tenseur qui prend n'importe quelle dimension.
Et après avoir fait si loin
python
train_data.shape[1] = 13
input_shape(13, )
J'ai remarqué ça. C'était comme trancher, et j'ai mal compris que c'était un processus spécial pour mettre une virgule en dehors de la liste [].
Si vous êtes bloqué, il est important de lire d'abord la structure sans vous précipiter, puis de la subdiviser et de la comprendre une par une.
Recommended Posts