Lua-Version Deep Learning von Grund auf neu 1 [Implementierung von Perceptron] Lua-Version Deep Learning von Grund auf neu 2 [Aktivierungsfunktion] Lua-Version Deep Learning von Grund auf neu Teil 3 [Implementierung eines 3-Schicht-Neuronalen Netzwerks] [Lua-Version Deep Learning von Grund auf neu 4 [Implementierung der Softmax-Funktion]] (http://qiita.com/Kazuki-Nakamae/items/20e53a02a8b759583d31) Lua-Version Deep Learning von Grund auf neu Teil 5 [MNIST-Bild anzeigen]
Sie können dies mit dem folgenden Skript tun.
pkl2npz.py
#!/usr/local/bin/python3
# coding: utf-8
"""
Geben Sie den Inhalt der pkl-Datei in die npz-Datei aus.
"""
__author__ = "Kazuki Nakamae <[email protected]>"
__version__ = "0.00"
__date__ = "22 Jun 2017"
import sys
import numpy as np
import pickle
def pkl2npz(infn, outfn):
"""
@function pkl2npz();
Geben Sie den Inhalt der pkl-Datei in die npz-Datei aus.
@param {string} infn :Geben Sie den Dateinamen ein
@param {string} outfn :Name der Ausgabedatei
"""
with open(infn, 'rb') as f:
ndarr = pickle.load(f)
np.savez(outfn, W1=ndarr['W1'],W2=ndarr['W2'],W3=ndarr['W3'],b1=ndarr['b1'],b2=ndarr['b2'],b3=ndarr['b3'])
if __name__ == '__main__':
argvs = sys.argv
argc = len(argvs)
if (argc != 3): # Checking input
print("USAGE : python3 pkl2npz.py <INPUT_PKLFILE> <OUTPUT_NPZFILE>")
quit()
pkl2npz(str(argvs[1]),str(argvs[2]))
quit()
pkl2npz.Führen Sie py aus
$ python3 pkl2npz.py sample_weight.pkl sample_weight.npz
Laden wir nun die erstellte sample_weight.npz auf Lua. Kein Stress. Die folgenden Personen haben zu diesem Zweck ein Paket (npy4th) erstellt. htwaijry/npy4th
npy4th Installation
$ git clone https://github.com/htwaijry/npy4th.git
$ cd npy4th
$ luarocks make
Es ist einfach zu bedienen und kann durch einfaches Einfügen von loadnpz ([Dateiname]) gelesen werden.
loadnpz()Wie benutzt man
npy4th = require 'npy4th'
-- read a .npz file into a table
tbl = npy4th.loadnpz('sample_weight.npz')
print(tbl["W1"])
Ausgabeergebnis
Columns 1 to 6
-7.4125e-03 -7.9044e-03 -1.3075e-02 1.8526e-02 -1.5346e-03 -8.7649e-03
-1.0297e-02 -1.6167e-02 -1.2284e-02 -1.7926e-02 3.3988e-03 -7.0708e-02
-1.3092e-02 -2.4475e-03 -1.7722e-02 -2.4240e-02 -2.2041e-02 -5.0149e-03
-1.0008e-02 1.9586e-02 -5.6170e-03 3.8307e-02 -5.2507e-02 -2.3568e-02
(Weggelassen)
1.1210e-02 1.0272e-02
-1.2299e-02 2.4070e-02
7.4309e-03 -4.0211e-02
[torch.FloatTensor of size 784x50]
Fackel ist in Japan nicht beliebt, aber ich denke, es wäre einfacher zu verwenden, wenn numpy Ressourcen auf diese Weise verwendet werden könnten. das ist alles. Vielen Dank.
Recommended Posts