Edge TPU ist nur mit TensorFlow Lite-Modellen kompatibel. Daher müssen Sie das TensorFlow-Modell trainieren, in TensorFlow Lite konvertieren und für die Edge-TPU kompilieren. Sie können das Modell dann auf der Edge-TPU mit einer der auf dieser Seite beschriebenen Optionen ausführen. (Weitere Informationen zum Erstellen von mit Edge TPU kompatiblen Modellen finden Sie unter Edge TPU TensorFlow-Modelle. Https://coral.ai/docs/edgetpu/models-intro/)
Wenn Sie Python verwenden, um Schlussfolgerungen zu ziehen, haben Sie zwei Möglichkeiten.
Dies ist der traditionelle Ansatz zum Ausführen des TensorFlow Lite-Modells. Durch die vollständige Kontrolle über die Eingabe und Ausgabe von Daten können Sie Inferenzen in einer Vielzahl von Modellarchitekturen durchführen. Wenn Sie TensorFlow Lite bereits verwendet haben, kann Ihr Interpreter-Code Ihr Modell mit sehr wenigen Änderungen auf einer Edge-TPU ausführen. (Weitere Informationen finden Sie unter Durchführen von Inferenzen mit TensorFlow Lite in Python. Https://coral.ai/docs/edgetpu/tflite-python/)
Dies ist eine Python-Bibliothek, die auf der TensorFlow Lite C ++ - API basiert. Sie können also das Bildklassifizierungsmodell und das Objekterkennungsmodell verwenden, um Rückschlüsse einfacher zu machen. Diese API ist nützlich, wenn Sie keine Erfahrung mit der TensorFlow Lite-API haben und nur eine Bildklassifizierung oder Objekterkennung durchführen möchten. Dies dient dazu, den Code zu abstrahieren, der zur Vorbereitung des Eingabetensors und zur Analyse der Ergebnisse erforderlich ist. Es bietet auch eine einzigartige API für das schnelle Transferlernen von Klassifizierungsmodellen auf der Edge-TPU. (Weitere Informationen finden Sie unter Übersicht über die Edge-TPU-Python-API. Https://coral.ai/docs/edgetpu/api-intro/)
Wenn Sie Code in C ++ schreiben möchten, müssen Sie die TensorFlow Lite C ++ API
verwenden, genau wie Sie TensorFlow Lite auf anderen Plattformen ausführen würden. Sie müssen jedoch einige Änderungen an Ihrem Code mithilfe der API in den Dateien "edgetpu.h" oder "edgetpu_c.h" vornehmen. Grundsätzlich müssen Sie nur das Edge-TPU-Gerät als externen Kontext des Interpreter-Objekts registrieren. (Weitere Informationen finden Sie unter Durchführen von Inferenzen mit TensorFlow Lite in C ++. Https://coral.ai/docs/edgetpu/tflite-cpp/)
Das Coral Accelerator-Modul wird Anfang 2020 auf der Coral-Website verfügbar sein. Wenn Sie an Details zu Google Coral-Produkten und Massenverkäufen oder Massenverkäufen (Mengenrabatt) interessiert sind, begrüßen Sie die Coral-Auslandsagentur Gravitylink: https://store.gravitylink.com/global