Début des études: samedi 7 décembre
Matériel pédagogique, etc.: ・ Miyuki Oshige "Détails! Note d'introduction à Python3 »(Sotech, 2017): 12/7 (sam) -12/19 (jeu) lu ・ Progate Python course (5 cours au total): 12/19 (jeudi) -12/21 (samedi) fin ・ Andreas C. Müller, Sarah Guido "(titre japonais) Apprentissage automatique à partir de Python" (O'Reilly Japon, 2017): 21/12 (sam) -23 décembre (sam) ・ Kaggle: Real or Not? NLP with Disaster Tweets: Publié du samedi 28 décembre au vendredi 3 janvier Ajustement ・ Wes Mckinney "(titre japonais) Introduction à l'analyse de données par Python" (O'Reilly Japon, 2018): 1/4 (mercredi) à 1/13 (lundi) lire ・ Yasuki Saito "Deep Learning from Zero" (O'Reilly Japan, 2016): 1/15 (mer) -1/20 (lun)
1/20 (lundi) Fin de lecture.
・ Le plus profond est le réseau neuronal profond (apprentissage profond) en augmentant la couche de CNN mentionnée au chapitre 7.
-Problèmes tels que le jeu de données MNIST, qui ont peu d'avantages en termes d'échelle, mais contribuent grandement à améliorer la précision de la reconnaissance dans la reconnaissance générale d'objets à plus grande échelle.
・ Ensemble et Data Augmentation contribuent également à l'amélioration de la précision de la reconnaissance. L'augmentation des données fait référence à l'augmentation du nombre d'images (augmentation de la masse de l'image) en ajoutant une rotation ou des changements infimes dans les directions verticale et horizontale de l'image d'entrée.
・ Avantages d'approfondir la couche 1 Le nombre de paramètres peut être réduit. En empilant de petits filtres pour approfondir le réseau, il est possible de couvrir un large éventail de régions spatiales locales (zones réceptives) qui provoquent des changements dans les neurones.
・ Avantages d'approfondir la couche 2 Augmente l'efficacité de l'apprentissage. En approfondissant le réseau, le problème à apprendre peut être décomposé hiérarchiquement et abordé comme un problème plus simple. Plus précisément, dans la première couche, seuls les bords sont accentués pour l'apprentissage, et dans la deuxième couche et les couches suivantes, des motifs plus avancés peuvent être efficacement appris sur la base des informations apprises dans la couche précédente.
・ La raison pour laquelle ces avantages ont été apportés est que la technologie et l'environnement (big data, GPU, etc.) qui peuvent être appris correctement même si les couches sont approfondies ont été développés.
** VGG **: CNN de base composé d'une couche de pliage et d'une couche de pooling La couche de pliage avec un petit filtre est réalisée en continu, et la taille est divisée par deux avec la couche de mise en commun, et ainsi de suite. Enfin, le résultat est émis via la couche entièrement connectée. Une base utilisée par de nombreux ingénieurs en raison de sa structure simple et de sa grande polyvalence.
** GoogLeNet **: Un réseau qui a une profondeur (étendue) non seulement dans le sens vertical mais aussi dans le sens horizontal Plusieurs filtres et regroupements de différentes tailles sont appliqués, et ce qu'on appelle une structure de démarrage qui combine les résultats est utilisée comme un bloc de construction.
** ResNet **: Réseau avec structure de saut (également appelé bypass ou raccourci) En adoptant un mécanisme pour sortir les données de sortie à travers les couches convolutives de données d'entrée, il est possible d'apprendre efficacement même si les couches sont approfondies. En faisant circuler les données d'entrée telles quelles, il n'y a pas de souci que le gradient devienne petit, on peut s'attendre à ce qu'un gradient significatif soit transmis et il y a un effet d'atténuation sur le problème de disparition du gradient causé par l'approfondissement de la couche. A été fait.
・ En apprentissage profond, il est nécessaire d'effectuer un grand nombre d'opérations de somme de produits (ou de calculs matriciels). Le GPU y contribue beaucoup. Le GPU a été utilisé comme une carte dédiée pour les graphiques, mais il est également bon pour un grand nombre d'opérations parallèles, il a donc une grande influence sur le développement de l'apprentissage profond. (Au contraire, le processeur est bon pour les calculs continus et compliqués.)
・ Exemple pratique 1: Détection d'objets Problème de classification à partir de l'image, y compris l'identification de la position de l'objet
・ Exemple pratique 2: segmentation Le problème de la classification des images au niveau du pixel Au moment de la sortie, tous les pixels sont classés.
-Exemple pratique 3: génération de légende d'image Un modèle appelé NIC (Neural Image Caption) est célèbre Il se compose d'un CNN profond et d'un RNN (Recurrent Neural Network) pour la gestion des langues naturelles. En extrayant une caractéristique de l'image par CNN et en la passant à RNN, le texte d'entrée est généré de manière récursive avec cette caractéristique comme valeur initiale. Le traitement en combinant une pluralité de types d'informations comme dans cet exemple pratique est appelé traitement multimodal. Il a attiré l'attention ces dernières années.
・ Exemple pratique 4: fonctionnement automatique Parmi les technologies constitutives, elle contribue grandement à la technologie qui reconnaît l'environnement, qui est considérée comme particulièrement importante. En devenant capable de reconnaître de manière robuste l'environnement de la piste dans n'importe quelle situation, il sera plus proche de la réalisation.
・ Exemple pratique 5: Deep Q-Network (renforcement de l'apprentissage) Le cadre de base est que ce qu'on appelle un agent sélectionne une action en fonction de la situation de l'environnement, et l'environnement change en fonction de cette action. En raison des changements dans l'environnement, les agents recevront des récompenses (résultats de l'observation) pour déterminer les futures directives d'action. Alpha Go est également l'un d'entre eux.
Recommended Posts