Auf der Website hier finden Sie ein Tutorial zum Python-API-Code in OpenVINO mit Raspberry Pi und Neural Compute Stick. Wenn Sie dies jedoch in einer reinen PC-Umgebung tun möchten, Ich muss einige Änderungen und Ergänzungen vornehmen, damit ich eine Notiz darüber schreiben kann. Bildquelle: Deep Learning Inferenz von Grund auf mit OpenVINO ™ gelernt
Die folgenden drei Punkte sind erforderlich
-Zielgerät ändern
- FP16 auf FP32 geändert
- Bibliothek laden
Wechseln Sie einfach von "MYRAID", was "Neural Compute Stick" bedeutet, zu "CPU". Das ist einfach.
#Vorher ändern
plugin = IEPlugin(device="MYRIAD")
#Nach der veränderung
plugin = IEPlugin(device="CPU")
Ändern Sie das trainierte Modell (XML-Datei und Bin-Datei) von FP16 in FP32 Wenn es sich beispielsweise für OpenVINO 2019_R3.1 um "Face-Detection-Retail-0004" handelt, können Sie es von FP32 auf der folgenden Site herunterladen. Intel Open Source Technology Center
Übrigens funktioniert es möglicherweise so wie es ist mit FP16, aber FP32 wird empfohlen, daher ist es besser, es zu ändern. Bildquelle: Offizielle Website von Intel OpenVINO ™ TOOLKIT
Abhängig von dem von Ihnen verwendeten trainierten Modell können folgende Fehler auftreten (z. B. Gesichtserkennung):
Traceback (most recent call last):
File "XXXXXXXX.py", line XXX, in <module>
exec_net = plugin.load(network=net)
File "ie_api.pyx", line 547, in openvino.inference_engine.ie_api.IEPlugin.load
File "ie_api.pyx", line 557, in openvino.inference_engine.ie_api.IEPlugin.load
RuntimeError: Unsupported primitive of type: PriorBoxClustered name: fc7_mbox_priorbox
Als Antwort muss das Lesen der CPU-Erweiterungsbibliothek hinzugefügt werden. Der Pfad und der Dateiname unterscheiden sich je nach Betriebssystem und CPU. Probieren Sie daher verschiedene Dinge aus.
#Fügen Sie unter Zielgerätespezifikation hinzu
plugin.add_cpu_extension("C:/Program Files (x86)/IntelSWTools/openvino/deployment_tools/inference_engine/bin/intel64/Release/cpu_extension_avx2.dll")
#Fügen Sie unter Zielgerätespezifikation hinzu
plugin.add_cpu_extension('/opt/intel/openvino/deployment_tools/inference_engine/lib/intel64/libcpu_extension_sse4.so')
#Fügen Sie unter Zielgerätespezifikation hinzu
plugin.add_cpu_extension('/opt/intel/openvino/deployment_tools/inference_engine/lib/intel64/libcpu_extension.dylib')
Wenn Sie einen PC haben, können Sie damit kostenlos tiefgreifende Lernergebnisse ziehen! wir sehen uns.
Recommended Posts