Il existe un tutoriel sur le code API Python dans OpenVINO utilisant Raspberry Pi et Neural Compute Stick sur le site here, mais si vous souhaitez le faire dans un environnement PC uniquement, J'ai besoin de faire quelques changements et ajouts, je vais donc en écrire une note. Source de l'image: Inférence d'apprentissage en profondeur apprise à partir de zéro avec OpenVINO ™
Les trois éléments suivants sont obligatoires
-Changer de périphérique cible -Changé FP16 en FP32 -Ajouter la charge de la bibliothèque
Changez simplement de MYRAID
, qui signifie Neural Compute Stick, à CPU
. C'est facile.
#Changer avant
plugin = IEPlugin(device="MYRIAD")
#Après le changement
plugin = IEPlugin(device="CPU")
Changer le modèle entraîné (fichier xml et fichier bin) de FP16 à FP32
Par exemple, s'il s'agit de face-detection-retail-0004
pour OpenVINO 2019_R3.1, vous pouvez le télécharger à partir de FP32 sur le site suivant.
Intel Open Source Technology Center
À propos, cela peut fonctionner avec FP16 tel quel, mais FP32 est recommandé, il est donc préférable de le changer. Source de l'image: Site Web officiel d'Intel OpenVINO ™ TOOLKIT
Selon le modèle entraîné que vous utilisez, vous pouvez obtenir les erreurs suivantes (comme la reconnaissance faciale):
Traceback (most recent call last):
File "XXXXXXXX.py", line XXX, in <module>
exec_net = plugin.load(network=net)
File "ie_api.pyx", line 547, in openvino.inference_engine.ie_api.IEPlugin.load
File "ie_api.pyx", line 557, in openvino.inference_engine.ie_api.IEPlugin.load
RuntimeError: Unsupported primitive of type: PriorBoxClustered name: fc7_mbox_priorbox
En réponse, il est nécessaire d'ajouter la lecture de la bibliothèque d'extensions de processeur. Le chemin et le nom du fichier diffèrent selon le système d'exploitation et le processeur, veuillez donc essayer différentes choses.
#Ajouter sous la spécification de l'appareil cible
plugin.add_cpu_extension("C:/Program Files (x86)/IntelSWTools/openvino/deployment_tools/inference_engine/bin/intel64/Release/cpu_extension_avx2.dll")
cpu_extension.dll
et spécifiez le chemin complet.#Ajouter sous la spécification de l'appareil cible
plugin.add_cpu_extension('/opt/intel/openvino/deployment_tools/inference_engine/lib/intel64/libcpu_extension_sse4.so')
libcpu_extension_avx2.so
.#Ajouter sous la spécification de l'appareil cible
plugin.add_cpu_extension('/opt/intel/openvino/deployment_tools/inference_engine/lib/intel64/libcpu_extension.dylib')
Avec cela, si vous avez un PC, vous pouvez faire des inférences d'apprentissage en profondeur gratuitement! à plus.
Recommended Posts