OS: Windows10 Home CPU: Intel Core i7-4790 GPU: GTX1660 Super (jede NVIDIA-GPU) Python: 3.6.10 Keras: 2.2.4 Tensorflow: 1.14.0 Cuda: 10.0 numpy: 1.16.4 sklearn: 0.22.2
Installationsseite https://docs.microsoft.com/ja-jp/visualstudio/install/install-visual-studio?view=vs-2019 Installieren Sie von hier aus Visual Studio. Installieren Sie dieses Mal die Version 2019. Stellen Sie sicher, dass Sie während der Installation "Desktop-Entwicklung mit C ++ - Workloads" auswählen.
https://www.nvidia.co.jp/Download/index.aspx?lang=jp Wählen Sie Ihre GPU unter dieser URL aus und laden Sie den NVIDIA-Treiber herunter. Führen Sie die heruntergeladene exe-Datei aus, um sie zu installieren.
https://developer.nvidia.com/cuda-10.0-download-archive
https://developer.nvidia.com/rdp/cudnn-download Laden Sie "cuDNN v7.6.5 für CUDA 10.0" von dieser Site herunter Öffnen Sie dann "C: \ Programme \ NVIDIA GPU Computing Toolkit \ CUDA \ v.10.0" im Ordner. Der entpackte Ordner enthält drei Ordner, bin, include und lib. Speichern Sie die Dateien in bin im Ordner bin, die Dateien in include im Ordner include und die Dateien in lib im Ordner lib.
Erstens, wenn Sie einen regulären Tensorflow installiert haben Muss deinstalliert und dann installiert werden.
pip uninstall tensorflow
pip install numpy==1.16.4
pip install tensorflow-gpu==1.14.0
pip install keras==2.2.4
pip install sklearn
Installieren Sie diejenigen, die wahrscheinlich für das Zeichnen von Grafiken und die Datenverarbeitung verwendet werden. Unten müssen Sie es nicht installieren.
pip install matplotlib
pip install pandas
pip install pillow
pip install opencv-python
pip install opencv-contrib-python
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
Ich denke, ein langer Satz wird ausgegeben,
Es ist in Ordnung, wenn in einer Zeile Zeichen wie `Gerätetyp:" GPU "`
und Name: "/ Gerät: GPU: 0"
`stehen.
MNIST ist der Test. Geschwindigkeitsüberprüfung mit MNIST.
import time
import keras
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras.optimizers import RMSprop
(x_train, y_train), (x_test, y_test) = mnist.load_data()
model = Sequential()
model.add(Conv2D(32, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(10, activation='softmax'))
x_train = x_train.reshape(x_train.shape[0], 28, 28, 1)
x_test = x_test.reshape(x_test.shape[0], 28, 28, 1)
x_train = x_train.astype('float32')
x_test = x_test.astype('float32')
x_train /= 255
x_test /= 255
y_train = keras.utils.to_categorical(y_train, 10)
y_test = keras.utils.to_categorical(y_test, 10)
start_time = time.time()#Startzeitmessung
model.compile(loss='categorical_crossentropy',
optimizer=RMSprop(),
metrics=['accuracy'])
history = model.fit(x_train, y_train,
batch_size=128,
epochs=10,
verbose=1,
validation_data=(x_test, y_test))
score = model.evaluate(x_test, y_test, verbose=0)
print('loss:', score[0])
print('accuracy:', score[1])
end_time = time.time() - start_time#Messen Sie die Endzeit
print("Lernzeit:", str(round(end_time, 3)), "Es war eine Sekunde.")
Ausgabeergebnis bei GPU-Version: 48,13 Sekunden Ausgabeergebnis bei CPU-Version: 530,26 Sekunden
Die Geschwindigkeit war mehr als 10 Mal anders! !!
Ich habe eine KI-Maschine eingerichtet, indem ich Gravo in einen alten PC getaucht habe, weil ich Deep Learning individuell durchführen wollte. Wenn ich genug Geld habe, möchte ich auch eine GPU mit mehr Speicher oder zwei Stabs verwenden. wir sehen uns.
Recommended Posts