L'objectif est d'obtenir une compréhension duveteuse de la grande image du réseau neuronal. Je n'utilise pas de formules mathématiques, alors jetez un coup d'œil même si vous êtes allergique aux mathématiques.
Un réseau de neurones ressemble à celui ci-dessous. Puisqu'il s'agit d'un réseau neuronal lorsqu'il est écrit en anglais, il est souvent abrégé en NN. Donc cette fois je vais expliquer avec NN
Les rondes sont appelées "unités" et les lignes reliant les unités sont appelées "synapses". Il est difficile de l'appeler synapse, alors laissez-moi vous l'expliquer en l'appelant une «ligne» cette fois.
NN a une structure en couches. Généralement, la première couche et la deuxième couche à partir de la gauche sont comptées. La première couche est appelée «couche d'entrée», la dernière couche est appelée «couche de sortie» et les espaces sont collectivement appelés «couche intermédiaire (couche cachée)». Vous trouverez ci-dessous un diagramme NN à 4 couches.
Regardons de plus près. Le tour est appelé une "unité". L'unité a un numéro.
Les unités sont parfois appelées «neurones». Il est normal de reconnaître que tous les Soyu sont «ronds».
Le numéro d'une unité passe à l'unité suivante via une "ligne" (synaps). Les numéros seront ajoutés à l'unité suivante.
La valeur change au fur et à mesure que vous passez la ligne. Par exemple, comme indiqué ci-dessous, lorsque le nombre "3" de l'unité précédente passe par la ligne, "x2" est calculé et "6" est ajouté à l'unité suivante. Ce "x2" est appelé "poids". C'est une image dont la ligne a le numéro × 2.
La valeur de «poids» est différente pour chaque ligne. Par exemple, comme illustré ci-dessous, si une unité est connectée à trois unités suivantes, les nombres avanceront le long des trois lignes.
Prenons le cas où les trois lignes ont des «poids» de x2, x-4 et x3, respectivement. Le "3" de l'unité précédente est multiplié par chaque "poids" et ajouté à l'unité suivante.
La figure ci-dessous montre l'heure à laquelle trois unités précédentes sont connectées à une unité suivante. Dans ce cas également, les résultats de "13 * 2", "-2 * -4" et "-9 * 3" sont ajoutés l'un après l'autre, et la valeur de l'unité suivante devient "7".
Et encore une fois, on a l'impression que "7" passe à l'unité suivante.
Le NN est calculé comme décrit ci-dessus. Dans l'ensemble, si vous mettez un nombre dans la "couche d'entrée" de NN, divers calculs seront effectués via NN et le résultat sortira dans la "couche de sortie".
Dans la couche d'entrée, saisissez les «données» que vous souhaitez que l'intelligence artificielle apprenne, mais dans le NN, saisissez également «des nombres autres que des données». C'est ce qu'on appelle le «biais».
Le biais est une image attachée à chaque calque, comme indiqué dans l'image ci-dessous. Pour être précis, chaque unité a un biais différent.
Lorsque le numéro de l'unité précédente est ajouté à l'unité suivante, ce numéro de "biais" est également ajouté. La ligne de biais n'a aucun poids.
Il y a encore une règle. Le nombre d'unités change juste avant de passer à la ligne. L'image ressemble à l'image ci-dessous.
La valeur de ceci change selon la règle de "fonction d'activation". Il existe de nombreux types de fonctions d'activation, mais la plus connue est la fonction d'activation appelée «fonction ReLU».
La fonction ReLU est une règle selon laquelle "si la valeur de l'unité est égale ou inférieure à 0, changez-la en 0 et si elle dépasse 0, passez-la telle quelle".
La valeur de l'unité ainsi modifiée avance jusqu'à la ligne.
Organisez-le. En tant que flux, La valeur de l'unité change selon les règles de la fonction d'activation → elle change à nouveau lorsque le nombre passe par la synapse (ligne) → le nombre et le biais sont de plus en plus ajoutés à l'unité suivante.
À propos, changer la valeur en fonction de la fonction d'activation s'appelle «activer».
Si vous entrez un nombre dans la "couche d'entrée" de NN, divers calculs seront effectués via NN et le résultat apparaîtra dans la "couche de sortie".
En détail, La valeur de l'unité change selon les règles de la fonction d'activation → elle change à nouveau lorsque le nombre passe par la synapse (ligne) → le nombre et le biais sont de plus en plus ajoutés à l'unité suivante.
De plus, la synapse «poids (x combien de fois)» et «biais» sont initialement réglées sur des valeurs aléatoires.
La mise à jour régulière de ce numéro est appelée «apprentissage». Le but de NN est de rendre la sortie bonne en mettant à jour le "poids" et le "biais".
J'ai expliqué le flux de base de NN. Ce sont les bases des bases, donc tout ce que vous avez à faire est de vous faire une idée approximative de l'image.
c'est tout! Bonne vie NN!
** "AI pour les allergies aux chats" ** https://t.co/4ltE8gzBVv?amp=1 Nous envoyons des informations sur l'apprentissage automatique sur YouTube. Si vous avez le temps, jetez un œil.
created by NekoAllergy