Ich habe versucht, Google Cloud Vision bei Kansai House Hack Try 2016 Vol.1 zu berühren, also ein Memorandum.
Die Umgebung stammt vom Mac im Terminal.
Grundsätzlich verwende ich Googles Getting Start. https://cloud.google.com/vision/docs/getting-started
Aktivieren Sie zunächst Cloud Vision über GCP
Anmeldeinformationen> Anmeldeinformationen erstellen> Dienstkontoschlüssel> JSON> Erstellen Befolgen Sie die Anweisungen in. Speichern Sie die hier heruntergeladene JSON-Datei.
Definieren Sie zunächst die Umgebungsvariablen vom Terminal aus.
export GOOGLE_APPLICATION_CREDENTIALS = '/ xxx / xxx / {JSON-Datei von früher} .json'
Dann klonen Sie die Quelle von Github. https://github.com/GoogleCloudPlatform/cloud-vision
Wechseln Sie aus dem geklonten Verzeichnis in python> face_detection. Führen Sie faces.py darin aus. Geben Sie im Argument die Bilddatei an, die Sie analysieren möchten.
python faces.py face-input.jpg
Es ist in Ordnung, wenn out.jpg in derselben Ebene ausgegeben wird.
Informationen finden Sie hier → https://cloud.google.com/vision/reference/rest/v1/images/annotate#FaceAnnotation
Auf der xyz-Achse können nicht nur der Gesichtsausdruck, sondern auch die Position des Mundes und die Koordinaten des Gesichts ermittelt werden. Es scheint, dass dies mehreren Gesichtern entspricht. Da es nur die API trifft, möchte ich mehr versuchen. Geben Sie bis zu 1000 Einheiten pro Monat frei. Wenn es sich nur um eine Gesichtserkennung handelt, kann sie 1000 Mal ausgeführt werden.
Recommended Posts