[PYTHON] Lernrekord Nr. 26 (30. Tag)

Lernaufzeichnung (30. Tag)

Beginn des Studiums: Samstag, 7. Dezember

Unterrichtsmaterialien usw.: ・ Miyuki Oshige "Details! Python3 Introductory Note ”(Sotech, 2017): 12/7 (Sa) -12/19 (Do) gelesen ・ Progate Python-Kurs (insgesamt 5 Kurse): Ende 12/19 (Donnerstag) -12/21 (Samstag) ・ Andreas C. Müller, Sarah Guido "(japanischer Titel) Maschinelles Lernen ab Python" (O'Reilly Japan, 2017): 21.12. (Sa) - 23. Dezember (Sa) ・ Kaggle: Real or Not? NLP mit Katastrophen-Tweets: Veröffentlicht am Samstag, 28. Dezember, bis Freitag, 3. Januar Einstellung ・ Wes Mckinney "(japanischer Titel) Einführung in die Datenanalyse von Python" (O'Reilly Japan, 2018): 1/4 (Mittwoch) bis 1/13 (Montag) gelesen ・ Yasuki Saito "Tiefes Lernen von Null" (O'Reilly Japan, 2016): 1/15 (Mi) -1/20 (Mo) ・ ** François Chollet „Tiefes Lernen mit Python und Keras“ (Queep, 2018): 1/21 (Di) ~ **

"Deep Learning mit Python und Keras"

S.94 Kapitel 3 Lesen bis zum neuronalen Netz beendet.

Rückgabemodell von Keras


from keras import models
from keras import layers

def build_model():

    #Sie können mit add eine Ebene hinzufügen. Dieses Mal besteht es aus zwei Schichten
    model = models.Sequential() 

    #Eingang(input_shape)Erstellen Sie eine versteckte Ebene mit 64 Einheiten. Die Aktivierungsfunktion ist ReLU
    model.add(layers.Dense(64, activation = 'relu',
                           input_shape=(train_data.shape[1],)))

    #2. Schicht
    model.add(layers.Dense(64, activation = 'relu'))

    #Die Aktivierungsfunktion wird nicht angewendet, da es sich um ein skalares Regressionsproblem der letzten Schicht handelt. (Die Zahlenbreite ist fest.)
    model.add(layers.Dense(1))

    #Der Gewichtsanpassungsoptimierer ist rmsprop, die Verlustfunktion ist mse, der Index ist mae
    model.compile(optimizer='rmsprop', loss='mse', metrics=['mae'])

    return model

Ich habe keine Ahnung, was das Komma ** nach ** Form [1] des 3. Arguments input_shape in der 1. Ebene bedeutet, und wenn ich das Komma entferne, weil ich es für unnötig halte, werde ich einen Fehler auslösen und nach verschiedenen Dingen suchen. Während ich mich umdrehte, fand ich den folgenden Artikel

What does TensorFlow shape (?,) mean? (stackoverflow)

Anscheinend wird das Komma verwendet, um einen Tensor zu erhalten, der jede Dimension annimmt.

Und nachdem ich es bisher getan habe

python


train_data.shape[1] = 13

input_shape(13, )

Ich habe bemerkt, dass. Es war wie Schneiden, und ich habe ein Missverständnis gemacht, dass es ein besonderer Prozess war, ein Komma außerhalb der Liste zu setzen [].

Wenn Sie nicht weiterkommen, ist es wichtig, zuerst die Struktur zu lesen, ohne sich zu beeilen, und sie dann einzeln zu unterteilen und zu verstehen.

Recommended Posts

Lernrekord Nr. 21 (25. Tag)
Lernrekord Nr. 24 (28. Tag)
Lernrekord Nr. 23 (27. Tag)
Lernrekord Nr. 25 (29. Tag)
Lernrekord Nr. 26 (30. Tag)
Lernrekord Nr. 20 (24. Tag)
Lernrekord Nr. 14 (18. Tag) Kaggle4
Lernrekord Nr. 15 (19. Tag) Kaggle5
Lernrekord 4 (8. Tag)
Lernrekord 9 (13. Tag)
Lernrekord 3 (7. Tag)
Lernrekord 5 (9. Tag)
Lernrekord 6 (10. Tag)
Lernrekord 8 (12. Tag)
Lernrekord 1 (4. Tag)
Lernrekord 7 (11. Tag)
Lernrekord 2 (6. Tag)
Lernrekord 16 (20. Tag)
Lernrekord 22 (26. Tag)
Lernrekord 13 (17. Tag) Kaggle3
Lernrekord Nr. 17 (21. Tag)
Lernrekord Nr. 18 (22. Tag)
Lernrekord Nr. 19 (23. Tag)
Lernrekord Nr. 29 (33. Tag)
Lernrekord Nr. 28 (32. Tag)
Lernrekord Nr. 27 (31. Tag)
Lernrekord 11 (15. Tag) Kaggle-Teilnahme
Programmieren des Lernprotokolls 2. Tag
Lernaufzeichnung
Lernrekord Nr. 1
Lernrekord Nr. 2
Python-Lerntag 4
Lernaufzeichnung (2. Tag) Scraping von #BeautifulSoup
Lernaufzeichnung (4. Tag) #Wie man den absoluten Pfad vom relativen Pfad erhält
Bisherige Lernbilanz
Linux-Lernprotokoll ① Planen
Lernaufzeichnung (3. Tag) # CSS-Selektorbeschreibungsmethode #Scraping with BeautifulSoup
<Kurs> Tiefes Lernen: Tag 1 NN
Lerndatensatz (6. Tag) #Set-Typ #Dictionary-Typ #Mutuelle Konvertierung des Listen-Taple-Sets #ndarray-Typ #Pandas (DataFrame-Typ)
Themen> Deep Learning: Tag 3 RNN
Studiere gründlich Deep Learning [DW Tag 0]