[PYTHON] Impressions d'avoir terminé le semestre 1 du cours d'ingénieur en conduite automatique Udacity

J'ai terminé le trimestre 1 du cours d'ingénieur en conduite automatique fourni par le cours en ligne Udacity, je voudrais donc écrire mes impressions.

Qu'est-ce que Udacity

Udacity est l'un des MOOC de cours en ligne tels que Coursera et edX, et il existe différents cours tels que le cours d'ingénieur de conduite automatique, le cours d'IA et le cours d'ingénieur full stack. La différence avec les autres MOOC est que Coursera et d'autres sont plutôt basés sur la connaissance, tandis qu'Udacity est basé sur des projets. En outre, des conférences sur les cours de conduite automatique sont également proposées par Mercedes-Benz, etc., et vous pouvez apprendre les dernières technologies.

Qu'est-ce qu'un cours d'ingénieur en conduite automatique?

Il s'agit d'un programme qu'Udacity a commencé vers novembre 2016, et c'est un cours qui vous permet d'acquérir les compétences nécessaires pour devenir ingénieur en conduite automatique en 9 mois. Il est divisé en 3 trimestres de la session 1 à la session 3, et chaque session est de 3 mois chacun.En 3 mois de session 1, vous apprendrez la vision par ordinateur et l'apprentissage en profondeur, et compléterez 5 projets. Le langage utilisé dans Term1 est Python, et à partir de Term2, C ++ est principalement utilisé. Depuis 2018, il semble qu'il n'y ait pas d'autre programme que ce cours qui vous permette d'étudier de manière exhaustive les techniques liées à la conduite automatique. Dans ce cours, vous pouvez étudier de la reconnaissance d'image à l'estimation de l'auto-position, au contrôle, à la planification d'itinéraire et à la conduite réelle du véhicule.

(Récemment confirmé, il semble qu'il s'agisse désormais d'un système à 2 termes au lieu d'un système à 3 termes. Les contenus supprimés sont le contrôle prédictif du modèle dans le champ de contrôle, la segmentation de la zone de la route par apprentissage en profondeur et le système d'assistant de voie. La sécurité fonctionnelle a été perdue.)

Projet Term1

Je vais expliquer brièvement les grandes lignes des cinq projets. Plus de détails seront expliqués.

1. Reconnaissance de voie

Ce projet est une introduction à la vision par ordinateur et reconnaît les voies à l'aide de la méthode de détection des bords de cany. Je n'avais jamais utilisé la vision par ordinateur, mais j'ai pu procéder de manière relativement fluide.

Principales bibliothèques utilisées: OpenCV laneLines_thirdPass.jpg

2. Identification des panneaux routiers

Il s'agit d'un projet d'identification des panneaux de signalisation à l'aide de TensorFlow. Ceci est une introduction au Deep Learning. Vous pouvez en apprendre davantage sur CNN (Convolutional Neural Network).

Principales bibliothèques utilisées: TensorFlow D2rGn+1B51nvAAAAAElFTkSuQmCC%0A.png

3.Behavioral Cloning La tâche d'exécuter le cours sans laisser la voiture sur le simulateur en utilisant Deep Learning. Enregistrez l'image et l'angle de braquage lorsqu'une personne conduit une voiture sur le simulateur. Sur la base de l'entrée d'image enregistrée, il est appris en utilisant CNN (Convolutional Neural Network) pour générer l'angle de la poignée, et il est automatiquement utilisé sur le simulateur. Cliquez ici pour voir la vidéo (https://www.youtube.com/watch?v=HRvNs1jUHmI&feature=youtu.be).

Principales bibliothèques utilisées: Keras center_2016_12_01_13_30_48_287.jpg

4. Reconnaissance de voie (application)

Alors que le projet 1 était la méthode de base, il s'agit d'un contenu appliqué. Apprenez à reconnaître les voies indépendamment de la luminosité des courbes et des routes. La vidéo est ici

Principales bibliothèques utilisées: OpenCV plot_back.png

5. Détection de véhicule

La tâche de détection de véhicule à l'aide de l'apprentissage automatique. Un apprenant qui reconnaît un véhicule à partir de caractéristiques telles que des histogrammes de dégradés orientés et un espace colorimétrique est généré, et l'apprenant est utilisé pour déterminer s'il y a ou non un véhicule dans l'image, et s'il y a un véhicule, le véhicule. Est suivi. La vidéo est ici

Principales bibliothèques utilisées: OpenCV, Scikit-Learn link_to_video.png

Cette vidéo est une combinaison de 4 et 5. Capture d'écran 2017-03-26 15.30.34.png

Impressions

Les cinq tâches ci-dessus sont incluses dans le terme 1, et le contenu va de la vision par ordinateur à l'apprentissage automatique et à l'apprentissage en profondeur. Il était assez difficile de terminer ces contenus en 3 mois, et j'y ai passé au moins 15 heures par semaine. En outre, chaque terme coûte 800 dollars, donc il en coûte 2400 dollars au total. Si cela vaut la peine de dépenser autant de temps et d'argent, je pense que cela en vaut la peine. Je n'ai guère traité de la reconnaissance d'image jusqu'à présent, mais en trois mois, j'ai pu effectuer la reconnaissance de véhicules et la détection de voie, et mes connaissances en apprentissage profond se sont approfondies. Et si vous pouvez travailler en tant qu'ingénieur en conduite automatisée, 2 400 $ en valent bien l'investissement.

Actuellement, je suis au milieu de Term2, et j'aimerais également écrire mes impressions à ce sujet.

Postscript

Voici des conférences gratuites sur la conduite automatique.

Deep Learning for Self-Driving Cars Il s'agit d'une méthode utilisant l'apprentissage profond et l'apprentissage par renforcement profond dans les conférences du MIT, 5 fois au total. C'est une conférence sur les bases de l'apprentissage profond et de l'apprentissage automatique.

Introduction to Mobile Robotics - SS 2016 Conférence à l'Université de Fribourg en Allemagne. La conférence elle-même est en anglais et ne nécessite pas d'allemand, mais elle ne peut pas être sous-titrée. La plupart du contenu est lié aux informations des capteurs installés dans les véhicules autonomes. Par exemple, nous avons affaire au filtre de Kalman utilisé lors de l'intégration des informations du capteur (fusion du capteur). Il y a également une explication détaillée de SLAM (une méthode d'estimation simultanée de l'auto-position et de création d'une carte environnementale) et de la planification de trajectoire (planification d'itinéraire).

<a target = "_ blank" href = "https://www.amazon.co.jp/gp/product/4839952981/ref=as_li_tl?ie=UTF8&camp=247&creative=1211&creativeASIN=4839952981&linkCode=as2&tag=ryo62b419-22b394b519-22 > Probability Robotics (version Premium Books)

iLectureonline Ceci est une conférence sur le filtre de Kalman utilisé pour la fusion de capteurs. Personnellement, je pense que c'est le plus détaillé et le plus facile à comprendre dans la conférence sur le filtre de Kalman.

Recommended Posts

Impressions d'avoir terminé le semestre 1 du cours d'ingénieur en conduite automatique Udacity
Impressions d'avoir obtenu le nano-diplôme Udacity Machine Learning Engineer
Impressions de passer l'examen de base de la certification d'ingénieur Python 3
Cours de base Python (à la fin de 15)
Installez l'API Python du simulateur de conduite automatique LGSVL et exécutez un exemple de programme