[PYTHON] Mémo de produits pratique autour du traitement du langage naturel

Informations d'apprentissage automatique Collecter des informations

Il semble que nous devions implémenter un apprentissage automatique qui gère le traitement du langage naturel, j'ai donc décidé de jeter un coup d'œil aux services périphériques qui pourraient être utilisés.

mémorandum

・ API RakutenRapid (Source: À partir d'ici) L'API que j'ai vue pour la première fois. Une collection d'API du monde entier? En regardant la liste PNL, cela ressemble à ceci. Grande excellence.

image.png

・ API COTOHA (Source: À partir d'ici) API créée par NTT Communications. Le plan pour les développeurs est gratuit et pour vérification jusqu'à 1000 appels / jour pour chaque API. Le dictionnaire utilise un dictionnaire de mots de base. J'espère que ce sera l'un des plus grands dictionnaires du Japon.

・ Google Cloud Natural Language (Source: À partir d'ici) La route royale de GCP. Il existe un large éventail de choses que vous pouvez faire. La charge est gratuite pour un maximum de 5000 unités, avec 1000 caractères pour 1 unité. Ne le épinglez pas. Je vais l'acheter pour le japonais, mais un caractère japonais et une lettre anglaise sont le même jugement d'un caractère ...? L'anglais semble être difficile.

image.png

・ IBM Cloud (Source: À partir d'ici et À partir d'ici -natural-language-classifier)) Gratuit jusqu'à 1000 demandes par mois. Tone Analyzer est une API avec un grand potentiel, donc cela semble intéressant.

・ Recruter A3RT (Source: À partir d'ici et À partir d'ici /)) L'API de classification de texte semble être capable de créer un modèle par elle-même. Le prix n'est pas écrit, mais il est gratuit. .. .. C'est ça? ?? Il semble y avoir un autre service appelé "IA d'étalonnage d'omission de caractère erroné", qui est également inquiet. image.png

・ Amazon Comprehend (Source: À partir d'ici) Je n'ai pas compris parce que le prix était bogué, alors j'ai noté l'image pour le moment. Est-ce 1000 millions de caractères qu'une unité équivaut à 100 caractères dans 10 millions d'unités? Est-ce 0,01 yen? ?? ?? Il ne semble pas prendre en charge le japonais, vous devez donc le changer pour une langue prise en charge avec Amazon Translate.

image.png

・ Azure Language Understanding (Source: De là) J'ai fait quelques recherches, mais je crains que la structure des frais ne semble un peu ennuyeuse. C'est le nombre de transactions. image.png

Mémo de pensée

Si vous vérifiez s'il prend en charge le japonais et quel est le montant des frais, il ne semble y avoir aucune différence dans les performances du traitement de texte. Il faut penser différemment que l'audio et la vidéo sont impliqués

Recommended Posts

Mémo de produits pratique autour du traitement du langage naturel
[WIP] Pré-traitement des notes dans le traitement du langage naturel
Python: traitement du langage naturel
RNN_LSTM2 Traitement du langage naturel
Traitement du langage naturel 1 Analyse morphologique
Traitement du langage naturel 3 Continuité des mots
Étudiez le traitement du langage naturel avec Kikagaku
Traitement du langage naturel pour les personnes occupées
[Traitement du langage naturel] Prétraitement avec le japonais
Logivan du langage artificiel et traitement du langage naturel (traitement du langage artificiel)
Se préparer à démarrer le traitement du langage naturel
Résumé de l'installation de l'analyseur de traitement du langage naturel
3. Traitement du langage naturel par Python 2-1. Réseau de co-occurrence
3. Traitement du langage naturel par Python 1-1. Word N-gram
J'ai essayé le traitement du langage naturel avec des transformateurs.
100 coups de traitement linguistique (2020): 40
100 coups de traitement linguistique (2020): 32
3. Traitement du langage naturel par Python 2-2. Réseau de co-occurrence [mecab-ipadic-NEologd]
100 coups de traitement linguistique (2020): 35
100 coups de traitement linguistique (2020): 47
100 coups de traitement linguistique (2020): 39
100 coups de traitement linguistique (2020): 22
100 coups de traitement linguistique (2020): 26
100 coups de traitement linguistique (2020): 34
100 coups de traitement linguistique (2020): 42
100 coups de traitement linguistique (2020): 29
100 coups de traitement linguistique (2020): 49
Le traitement de 100 langues frappe 06 ~ 09
100 coups de traitement linguistique (2020): 43
100 coups de traitement linguistique (2020): 24
[Python] J'ai joué avec le traitement du langage naturel ~ transformers ~
100 coups de traitement linguistique (2020): 45
100 coups de traitement linguistique (2020): 10-19
100 coups de traitement linguistique (2020): 00-09
100 coups de traitement linguistique (2020): 31
100 coups de traitement linguistique (2020): 38
100 coups de traitement linguistique (2020): 48
100 coups de traitement linguistique (2020): 44
100 coups de traitement linguistique (2020): 41
100 coups de traitement linguistique (2020): 37
100 traitement de la langue frapper 00 ~ 02
100 coups de traitement linguistique (2020): 25
Profitons du traitement du langage naturel à l'aide de l'API COTOHA
100 coups de traitement linguistique (2020): 23
100 coups de traitement linguistique (2020): 33
100 coups de traitement linguistique (2020): 20
100 coups de traitement linguistique (2020): 27
100 coups de traitement linguistique (2020): 46
Insoutenable manque d'attention dans le traitement du langage naturel
100 coups de traitement linguistique (2020): 21
100 coups de traitement linguistique (2020): 36
100 traitements du langage naturel frappent Chapitre 4 Analyse morphologique (première moitié)
Mettre en place un environnement de développement pour le traitement du langage naturel
J'ai lu un livre d'introduction sur le traitement du langage naturel
100 coups au traitement du langage naturel Chapitre 1 Mouvement préparatoire (seconde moitié)
100 coups au traitement du langage naturel Chapitre 1 Mouvement préparatoire (première moitié)
100 traitements du langage naturel frappent Chapitre 3 Expressions régulières (première moitié)
100 traitements du langage naturel frappent Chapitre 4 Analyse morphologique (seconde moitié)
Modèle utilisant un réseau neuronal convolutif dans le traitement du langage naturel