Letztes Jahr schrieb ich einen Artikel "Installieren des neuesten cuda + cudnn + cupy unter Ubuntu 18.04 @ Spring 2019", aber auch dieses Jahr Google Die Zusammenarbeit reichte nicht aus, daher haben wir eine Umgebung für die Verwendung eines vollwertigen GPU-Servers erstellt.
Bewahren Sie zu diesem Zeitpunkt ein Memorandum über die Arbeit auf.
--Erstellen Sie mit Ubuntu eine Umgebung, die Tensorflow 2.2 verwenden kann. ~~ (Chainer hat die Aktualisierung gestoppt, daher kann nicht geholfen werden) ~~ --Installationsziel ist Ubuntu 18.04. ~~ (Cuda scheint 20.04 noch nicht zu unterstützen, daher kann nicht geholfen werden) ~~
Außerdem wird auf GPU-Unterstützung von Tensorflown verwiesen. Bitte beachten Sie, dass Sie das gleiche Verfahren für andere Bibliotheken verwenden können.
Maschine: GCP Computer Engine (von Google bereitgestellte virtuelle Cloud-Maschine) CPU, Speicher: n1-Standard-2 (vCPU x 2, Speicher 7,5 GB) OS: Ubuntu 18.04 GPU: NVIDIA Tesla K80
Achten Sie auf die Cuda, den Treiber und verschiedene Bibliotheksversionen. Natürlich erhalten Sie eine Fehlermeldung, wenn sie nicht kompatibel sind. Zum Zeitpunkt der Veröffentlichung wurden die folgenden Befehle ausgeführt, aber bitte geben Sie die erforderliche Version und DL an.
#cuda bezogene Installation
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64/cuda-repo-ubuntu1804_10.2.89-1_amd64.deb
sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64/7fa2af80.pub
sudo dpkg -i cuda-repo-ubuntu1804_10.2.89-1_amd64.deb
sudo apt-get update
wget http://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu1804/x86_64/nvidia-machine-learning-repo-ubuntu1804_1.0.0-1_amd64.deb
sudo apt install ./nvidia-machine-learning-repo-ubuntu1804_1.0.0-1_amd64.deb
sudo apt-get update
#Treiberinstallation
sudo apt-get install --no-install-recommends nvidia-driver-430
#Cuda-bezogener Pfad hinzugefügt.Schreiben Sie in eine Konfigurationsdatei wie bashrc
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
Starten Sie an dieser Stelle einmal neu. Drücken Sie nach dem Neustart nvidia-smi
, um zu sehen, ob es richtig funktioniert
#Installation anderer von Tensorflow verwendeter Bibliotheken
sudo apt-get install --no-install-recommends cuda-10-2 libcudnn7 libcudnn7-dev
sudo apt-get install --no-install-recommends libnvinfer6 libnvinfer-dev libnvinfer-plugin6
#Tensorflow installieren
pip install tensorflow
import tensorflow as tf
tf.__version__
> '2.2.0'
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
> '''
[name: "/device:CPU:0"
device_type: "CPU"
memory_limit: 268435456
locality {
}
incarnation: 3998521659132627640,
name: "/device:XLA_CPU:0"
device_type: "XLA_CPU"
memory_limit: 17179869184
locality {
}
incarnation: 4355352578664011114
physical_device_desc: "device: XLA_CPU device",
name: "/device:XLA_GPU:0"
device_type: "XLA_GPU"
memory_limit: 17179869184
locality {
}
incarnation: 5803845507802816222
physical_device_desc: "device: XLA_GPU device"]
'''
Tensorflow hat die GPU erkannt. das Ende
Tatsächlich verfügt GCP über ein von Google vorbereitetes GPU-Setup. Wenn Sie es beim Erstellen einer virtuellen Maschine verwenden, müssen Sie die oben genannten mühsamen Schritte nicht ausführen. Es ist eine bequeme Welt geworden ~
Recommended Posts