** * Hinzugefügt am 12. Mai 2016 Dieser Artikel ist vollständig veraltet, da er in das offizielle Tensorflow-Repository integriert wurde. ** **. -> OSX-GPU wird von Tensorflow unterstützt Nun, die Installationsmethode ändert sich nicht viel.
** * Da es inoffiziell ist, können wir keine Verantwortung übernehmen, egal was passiert. ** **.
Ich erinnerte mich, dass mein Macbook Pro (Retina, 15 Zoll, Mitte 2014) zusätzlich zur Intel Iris Pro eine NVIDIA GeForce GT 750M hatte, also sagte ich: 3.0 in Cuda. Sie können in Tensorflow zur GPU gehen. Ich dachte, und als ich nach einem Weg suchte, gab es Leute, die es bereits in Übersee machten, also werde ich das Verfahren verlassen, wenn ich mich darauf bezog.
Es kehrt jedoch zu ver0.6.0
zurück
Da es bazel verwendet, möchten diejenigen, die "pip", "Virtualenv" und "docker" installiert haben, es möglicherweise zuerst von der Quelle installieren.
Vielleicht die Art, die Sie gehen können
Modellnummer | GPU |
---|---|
iMac (21-inch, Late 2012) | NVIDIA GeForce GT 640M |
iMac (21-inch, Late 2012) | NVIDIA GeForce GT 650M |
iMac (27-inch, Late 2012) | NVIDIA GeForce GTX 660MX |
iMac (27-inch, Late 2012) | NVIDIA GeForce GTX 675MX |
iMac (27-inch, Late 2012) | NVIDIA GeForce GT 680M |
iMac (21.5-inch, Late 2013) | NVIDIA Geforce GT 750M |
iMac (27-inch, Late 2013) | NVIDIA Geforce GT 755M |
iMac (27-inch, Late 2013) | NVIDIA Geforce GTX 775M |
iMac (27-inch, Late 2013) | NVIDIA Geforce GTX 780M |
MacBook Pro (15-inch, Mid 2012) MacBook Pro (Mid 2012) MacBook Pro (15-inch, Early 2013) |
NVIDIA GeForce GT 650M |
MacBook Pro (15-inch, Late 2013) MacBook Pro (15-inch, Mid 2014) |
NVIDIA GeForce GT 750M |
Referenzquelle: Fabrizio Milo @ How to compile tensorflow with CUDA support on OSX
Installieren Sie zuerst Cuda. Ich war "brauen".
$ brew upgrade
$ brew install coreutils
$ brew cask install cuda
Überprüfe die Version(7.5.Sollte 20 sein)
$ brew cask info cuda
Laden Sie die Bibliothek libCudnn
von NVIDIA herunter. (Registrierung benötigt)
https://developer.nvidia.com/cudnn.
Dies ist die Version, die ich heruntergeladen habe: cudnn-7.0-osx-x64-v4.0-prod.tgz
Verschieben Sie den Inhalt des heruntergeladenen Inhalts an die entsprechenden Speicherorte von "lib" und "include" in "/ usr / local / cuda /".
Fügen Sie den Pfad zu .bash_profile
hinzu
$ vim ~/.bash_profile
export DYLD_LIBRARY_PATH=/usr/local/cuda/lib:$DYLD_LIBRARY_PATH
Bringen Sie Pull Request # 644, um die GPU unter OSX zu aktivieren in das Tensorflow-Repository
$ cd tensorflow
$ git fetch origin pull/664/head:cuda_osx
$ git checkout cuda_osx
Tensorflow neu installieren
$ TF_UNOFFICIAL_SETTING=1 ./configure
WARNING: You are configuring unofficial settings in TensorFlow. Because some external libraries are not backward compatible, these setting
s are largely untested and unsupported.
Please specify the location of python. [Default is /usr/local/bin/python]:
Do you wish to build TensorFlow with GPU support? [y/N] Y
GPU support will be enabled for TensorFlow
Please specify the Cuda SDK version you want to use. [Default is 7.0]: 7.5
Please specify the location where CUDA 7.5 toolkit is installed. Refer to README.md for more details. [Default is /usr/local/cuda]:
Please specify the Cudnn version you want to use. [Default is 6.5]: 4
Please specify the location where cuDNN 4 library is installed. Refer to README.md for more details. [Default is /usr/local/cuda]:
Please specify a list of comma-separated Cuda compute capabilities you want to build with.
You can find the compute capability of your device at: https://developer.nvidia.com/cuda-gpus.
Please note that each additional compute capability significantly increases your build time and binary size.
[Default is: "3.5,5.2"]: 3.0
Setting up Cuda include
Setting up Cuda lib
Setting up Cuda bin
Setting up Cuda nvvm
Configuration finished
$ bazel build -c opt --config=cuda //tensorflow/cc:tutorials_example_trainer
$ bazel build -c opt --config=cuda //tensorflow/tools/pip_package:build_pip_package
$ bazel-bin/tensorflow/tools/pip_package/build_pip_package /tmp/tensorflow_pkg
$ pip install /tmp/tensorflow_pkg/tensorflow-In meinem tmp-whl
Bestätigungstest.py
import tensorflow as tf
# Creates a graph.
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print sess.run(c)
Wenn der Fehler "Grund: Bild nicht gefunden" lautet, scheint die Cuda-Bibliothek nicht gefunden zu werden. Überprüfen Sie daher den Pfad.
$ export DYLD_LIBRARY_PATH=/usr/local/cuda/lib:$DYLD_LIBRARY_PATH
Sie sollten in der Lage sein, damit zu gehen.
Versuchen wir, die Verarbeitungsgeschwindigkeit mit dem CNN von ["Hiranaga MAIST"] zu messen (http://qiita.com/tawago/items/931bea2ff6d56e32d693).
。。。
Das.
Ich habe das Bild mit der Idee von ** vorbereitet, aber es wurde schneller. ** **.
Ca. 52 Minuten mit CPU
CPU-MAIST.py
i 19900, training accuracy 1 cross_entropy 0.205204
test accuracy 0.943847
elapsed_time:3312.28295398[sec]
GPU-MAIST.py
i 19900, training accuracy 1 cross_entropy 0.0745807
test accuracy 0.945042
elapsed_time:1274.27083302[sec]
Ca. 21 Minuten mit GPU.
Wenn verschiedene andere Anwendungen ausgeführt werden, ist der GPU-Speicher im Teil "Freier Speicher:" des Protokolls, der während der Ausführung angezeigt wird, möglicherweise recht klein. Wenn es zu klein ist, tritt ein Fehler aufgrund unzureichenden Speichers auf. Es ist ein Laptop, also kann ich nichts dafür. Es wird wiederhergestellt, sobald Sie die Anwendung löschen oder neu starten.
Recommended Posts