Hallo. Es tut mir Leid. Heute wird es als einer der Cognitive Services in Microsoft Azure [Emotion API](https: // azure) veröffentlicht. Ich würde gerne mit .microsoft.com / en-us / services / kognitive-services / emotions /) spielen.
Agenda --Was ist die Emotion API?
Es ist eine der von Microsoft bereitgestellten Analyse-APIs. Es wird als einer der kognitiven Dienste unter Microsoft Azure angeboten. Wenn Sie ein Foto an die Emotion-API senden,
Ich werde die Arbeit erledigen und sie zurückgeben. Wenn Sie nur die Gefühle der Person auf dem Bild kennenlernen möchten, können Sie sie ohne Analysekenntnisse verwenden.
Lassen Sie uns die Spezifikationen der Emotion-API unten aufgreifen.
――Die Anzahl der Gesichter, die erkannt werden können, beträgt bis zu 64 pro Bild ――Es scheint, dass Sie Fotos von der Abschlussfeier machen können! ―― Acht Arten von Emotionen können erworben werden --Zorn
Derzeit nur in der westlichen US-Region erhältlich. Es gibt 2 Typen verfügbar vom eingeschränkten Typ (Basisplan) und vom unbegrenzten Plan (Standard). ). Der Basisplan kann nur das angegebene Flächenrechteck erkennen. Wenn Sie andere Gesichter erkennen möchten (ein kleines Profil usw.), müssen Sie den Standardplan (* 1) abonnieren. Beide Pläne sind für bis zu 10 Lanzen / Sek. Verfügbar. Jeder kann zu den folgenden Preisen pro 1000 Transaktionen verwendet werden.
Die erstellten Funktionen sind wie folgt.
Eigentlich werden es so zwei Bildschirme sein. Wählen Sie ... ↓ Anzeige! ↓
Dieses Foto wurde übrigens zum 1. Jahrestag von PyLadies Tokyo im Oktober 2015 aufgenommen. Es ist ein Partyfoto, daher ist der Glückswert bei weitem der höchste.
Emotion API Der Service, der den Eckpfeiler dieser Kreation bildete. Wie oben erwähnt. API-Dokument und API-Testkonsole Es ist ermutigend, dass beide 563b31ea778daf121cc3a5fa / console) verfügbar sind. Wenn im Versuchssystem die Gesichtsdaten mehrerer Personen erfasst werden, wird jeder Emotionswert einfach SUMed.
Tornado Es ist ein WEB-Framework von Python und eine asynchrone Kommunikationsbibliothek (diesmal wird es einfach als WEB-Framework verwendet). Hergestellt von Facebook und leicht. Es funktioniert sowohl mit Python 2 als auch mit Python 3 (diesmal habe ich es mit Python 3 erstellt). Da die Vorlagen-Engine enthalten ist, können Sie einen Wert von Python an den Bildschirm übergeben und ihn unter Verwendung der angegebenen Notation anzeigen. Wenn Sie Python-Code in HTML schreiben möchten, können Sie ihn aufrufen. Persönlich bin ich froh, dass das Demosystem zusammen mit dem Quellcode (https://github.com/tornadoweb/tornado) verfügbar ist. Und dieses Demosystem ist ziemlich reichlich vorhanden. Es ist leicht zu referenzieren, da es alles wie Websocket und OAuth abdeckt. Aber ich denke nicht, dass es sehr beliebt ist. Ich mag es aber.
Pillow Es ist ein Fork-Projekt der Python Imaging Library (PIL) und es ist Python Image Processing Library, wie Sie links lesen.
pip install pillow
Es ist sehr praktisch, weil Sie es nur selbst verwenden können. Und ich persönlich mag es, weil es für die Bibliothek, die mit Bildern spielt, leicht zu verstehen ist. Dieses Mal habe ich nur die Funktion zur Größenänderung von Bildern verwendet, aber es ist eine vielseitige Bibliothek, die auch Farben invertieren, Bilder kombinieren und Text schreiben kann.
Chart.js Grafikzeichnung JS. Ich mag es, weil es niedliche Bewegungen hat, einfach zu bedienen ist und es so viele Arten von Grafiken gibt, die gezeichnet werden können. Sie können die Anzeige ein- und ausschalten, indem Sie auf die Beschriftung klicken.
Wenn alle angezeigt werden ↓
Wenn Glück und Neutralität verborgen sind ↓
Es ist sehr einfach zu bedienen. Befolgen Sie einfach die folgenden Schritte (weitere Informationen finden Sie unter hier).
Es ist einfach und leicht zu bedienen.
Nachdem ich verschiedene Dinge ausprobiert hatte, hatte ich das Gefühl, dass das Glück des Lächelns relativ hoch ist (* 2). Wenn Sie lachen, ist es leicht zu verstehen, dass Sie lachen, auch wenn Sie es normal betrachten. Irgendwie habe ich mich in sie verliebt. Im Gegenteil, für Dinge wie Angst und Verachtung, die schwer zu beurteilen scheinen, war es schwierig, dass das Urteilsergebnis ein bemerkenswertes Ergebnis wie Glück war. Ich glaube, ich habe oft gesehen, dass Angst und Verachtung ungefähr gleich groß sind (* 3).
Wenn die Emotionsdaten mehrerer Personen erfasst werden konnten, haben wir diesmal einfach die numerischen Werte für jede Emotion hinzugefügt, um das Ergebnis der Beurteilung zu erzielen. Wenn Sie jedoch diesmal wie diesmal eine "Beurteilung der Emotionen für das gesamte Foto" durchführen möchten, diesmal Als Anfänger in der Analyse konnte ich mich nicht entscheiden, ob es ausreichte, jede Emotion wie diese zu addieren, oder ob sie aus den erzielten Ergebnissen gewichtet oder erneut analysiert werden sollte. Es kann interessant sein, es durch den Bereich des Gesichts im Bild zu gewichten.
Zusätzlich zu der diesmal verwendeten Standbildversion der Emotion-API gibt es auch eine Videoversion der Emotion-API, daher möchte ich dies beim nächsten Mal versuchen.
――Emotion API ist einfach und benutzerfreundlich. ――Die Verwendung der aus der Emotion-API berechneten numerischen Werte (Verwendungsideen) ist der Schlüssel für eine unterhaltsame App-Entwicklung.
Das war alles.
Recommended Posts