Si vous étudiez l'apprentissage automatique et possédez un GPU, vous pouvez étudier à grande vitesse et étudier efficacement. Mais c'est trop cher à acheter ...
Il y a aussi un Google Colaboratory, mais je ne peux pas devenir un Jupyter Notebook et je veux travailler dans mon environnement habituel (un peu égoïste).
A cette époque, j'ai trouvé cet article!
Accédez à ngrok et ouvrez LOGIN-> Authentication-> Your Auth token. Ensuite, le jeton d'authentification s'affiche sur l'écran ci-dessous, alors copiez-le.
Ouvrez Google Colab, ouvrez Runtime-> Runtime Type Settings et définissez l'accélérateur matériel sur GPU.
Collez le code suivant dans un bloc de code et exécutez-le. À ce stade, collez le jeton d'authentification que vous avez copié précédemment dans le `VOTRE JETON D'AUTH 'sur la 13e ligne.
# Install useful stuff
! apt install --yes ssh screen nano htop ranger git > /dev/null
# SSH setting
! echo "root:password" | chpasswd
! echo "PasswordAuthentication yes" > /etc/ssh/sshd_config
! echo "PermitUserEnvironment yes" >> /etc/ssh/sshd_config
! echo "PermitRootLogin yes" >> /etc/ssh/sshd_config
! service ssh restart > /dev/null
# Download ngrok
! wget -q -c -nc https://bin.equinox.io/c/4VmDzA7iaHb/ngrok-stable-linux-amd64.zip
! unzip -qq -n ngrok-stable-linux-amd64.zip
# Run ngrok
authtoken = "YOUR AUTHTOKEN"
get_ipython().system_raw('./ngrok authtoken $authtoken && ./ngrok tcp 22 &')
! sleep 3
# Get the address for SSH
import requests
from re import sub
r = requests.get('http://localhost:4040/api/tunnels')
str_ssh = r.json()['tunnels'][0]['public_url']
str_ssh = sub("tcp://", "", str_ssh)
str_ssh = sub(":", " -p ", str_ssh)
str_ssh = "ssh root@" + str_ssh
print(str_ssh)
Si l'exécution réussit, ce qui suit sera affiché.
WARNING: apt does not have a stable CLI interface. Use with caution in scripts.
ssh [email protected] -p XXXXX
Essayez la connexion ssh à ssh [email protected] -p XXXXX
en utilisant la fonction Remote-SSH
de VS Code. On vous demandera un mot de passe, mais vous pouvez taper mot de passe
spécifié dans! Echo" root: mot de passe "| chpasswd
.
Faites main.py
etc. de manière appropriée et vérifiez que le GPU peut être utilisé avec le code suivant
import torch
print(torch.cuda.is_available())
# True
J'ai pu l'utiliser!
CIFAR10 Je l'ai vérifié avec la tâche d'apprendre. Le code que j'ai réellement utilisé est ici.
L'environnement suivant a été utilisé à des fins de comparaison et le nombre d'époques était de 5.
Avec GPU | Pas de GPU | |
---|---|---|
OS | Ubuntu 18.04.3 LTS | macOS Catalina v.10.15.5 |
torch | 1.4.0 | 1.5.1 |
C'était paresseux que je ne puisse pas correspondre à la version de la torche.
la vitesse | |
---|---|
Avec GPU | 256.162 |
Pas de GPU | 320.412 |
La vitesse est environ 20% plus rapide!
Colab a des environnements pré-construits tels que Pytorch et Keras, ce qui est également pratique!
Recommended Posts