Bonjour. Je suis désolé. Aujourd'hui, l '[API Emotion](https: // azure) est publiée en tant que l'un des Services cognitifs dans Microsoft Azure. J'aimerais jouer avec .microsoft.com / en-us / services / cognitifs-services / emotion /).
Agenda
Il s'agit de l'une des API d'analyse fournies par Microsoft. Il est proposé comme l'un des services cognitifs sur Microsoft Azure. Lorsque vous envoyez une photo à l'API Emotion,
Fera le travail et le rendra. Si vous voulez simplement connaître les sentiments de la personne sur la photo, vous pouvez l'utiliser sans aucune connaissance d'analyse.
Reprenons les spécifications de l'API Emotion ci-dessous.
――Le nombre de visages pouvant être détectés est jusqu'à 64 par image ――Il semble que vous puissiez prendre des photos de la cérémonie de remise des diplômes! ――Huit types d'émotions peuvent être acquis --colère
Actuellement disponible uniquement dans la région ouest des États-Unis. Il existe 2 types disponibles de type restreint (plan de base) et plan illimité (standard). ). Le plan de base ne peut détecter que le rectangle de face spécifié. Si vous souhaitez détecter d'autres visages (un petit profil etc.), vous devez souscrire au plan Standard (* 1). Les deux plans sont disponibles jusqu'à 10 lances / sec. Chacun peut être utilisé aux prix suivants pour 1000 transactions.
Les fonctions créées sont les suivantes.
En fait, ce seront ces deux écrans. Sélectionnez ... ↓ Afficher! ↓
D'ailleurs, cette photo a été prise lors du 1er anniversaire de PyLadies Tokyo en octobre 2015. C'est une photo de fête, donc la valeur du bonheur est de loin la plus élevée.
Emotion API Le service qui a été la pierre angulaire de cette création. Comme mentionné ci-dessus. Document API et [API Test Console](https://dev.projectoxford.ai/docs/services/5639d931c1ce1ce Il est encourageant que les deux 563b31ea778daf121cc3a5fa / console) soient disponibles. Dans le système d'essai, lorsque les données faciales de plusieurs personnes sont acquises, chaque valeur d'émotion est simplement additionnée.
Tornado C'est un framework WEB de Python et une bibliothèque de communication asynchrone (cette fois il est simplement utilisé comme un framework WEB). Fabriqué par Facebook et léger. Cela fonctionne avec Python 2 et 3 (je l'ai créé avec Python 3 cette fois). Étant donné que le moteur de modèle est inclus, lorsque vous souhaitez transmettre une valeur de Python à l'écran, vous pouvez la transmettre et l'afficher en utilisant la notation spécifiée. Si vous souhaitez écrire du code Python sur html, vous pouvez l'appeler. Personnellement, je suis heureux que le système de démonstration soit disponible avec le code source (https://github.com/tornadoweb/tornado). Et ce système de démonstration est assez abondant. Il est facile de s'y référer car il couvre tout, comme Websocket et OAuth. Mais je ne pense pas que ce soit très populaire. Je l'aime bien.
Pillow C'est un projet fork de Python Imaging Library (PIL), et c'est Python image processing library comme vous le lisez sur la gauche.
pip install pillow
C'est très pratique car vous pouvez l'utiliser seul. Et je l'aime personnellement car c'est facile à comprendre pour la bibliothèque qui joue avec les images. Cette fois, je n'ai utilisé que la fonction de redimensionnement d'image, mais c'est une bibliothèque polyvalente qui peut également inverser les couleurs, combiner des images et écrire du texte.
Chart.js Dessin graphique JS. Je l'aime parce qu'il a des mouvements mignons, est simple à utiliser et a une grande variété de graphiques qui peuvent être dessinés. Vous pouvez activer / désactiver l'affichage en cliquant sur l'étiquette.
Lorsque tout est affiché ↓
Quand le bonheur et la neutralité sont cachés ↓
C'est très simple à utiliser, il suffit de suivre les étapes ci-dessous (voir ici pour plus d'informations).
C'est facile et facile à utiliser.
Après avoir essayé diverses choses, j'ai senti qu'il était facile d'obtenir un nombre relativement élevé pour le bonheur d'un sourire (* 2). Lorsque vous riez, il est facile de comprendre que vous riez, même si vous le regardez normalement. J'en suis tombé amoureux d'une manière ou d'une autre. Au contraire, pour des éléments tels que la peur et le mépris qui semblent difficiles à juger, il était difficile que le résultat du jugement soit un résultat remarquable tel que le bonheur. Je pense que je vois souvent la peur et le mépris être à peu près au même nombre (* 3)
Lorsque les données d'émotion de plusieurs personnes ont pu être acquises, cette fois, nous avons simplement ajouté les valeurs numériques de chaque émotion pour faire le résultat du jugement, mais par exemple, si vous voulez acquérir le "jugement d'émotion de la photo entière" comme cette fois, cette fois En tant que débutant en analyse, je ne pouvais pas décider si je devais simplement additionner chaque émotion comme celle-ci, ou si je devais pondérer ou réanalyser à partir des résultats obtenus. Il peut être intéressant de le pondérer en fonction de la zone du visage sur la photo.
En plus de la version image fixe de l'API Emotion utilisée cette fois, il existe également une version vidéo de l'API Emotion, je voudrais donc essayer cette prochaine fois.
――Emotion API est simple et facile à utiliser. ――Comment utiliser les valeurs numériques calculées à partir de l'API Emotion (idées d'utilisation) est la clé du développement d'applications amusantes.
C'était tout.
Recommended Posts