[Bases des statistiques mathématiques modernes avec python] Chapitre 1: Probabilité

introduction

Cette série est une brève explication de "Les bases des statistiques mathématiques modernes" par Tatsuya Kubogawa, et implémentons le contenu en python. J'ai utilisé Google Colaboratory (ci-après dénommé Colab) pour la mise en œuvre. Si vous avez des suggestions, je vous serais reconnaissant de bien vouloir les écrire dans la section des commentaires. Il peut ne pas convenir à ceux qui veulent comprendre correctement tout le contenu du livre, car il est écrit avec une position qu'il serait bien qu'il puisse être produit en ne touchant que les parties qui nécessitent des explications. Veuillez noter que si les numéros de formule et les index de proposition / définition sont écrits selon le livre, les numéros peuvent être ignorés dans cet article.

Aperçu du chapitre 1

Cela commence par définir la probabilité en théorie des ensembles. Même ceux qui ne se soucient pas d'une telle définition peuvent lire ce livre. L'auteur lui-même se concentre sur les statistiques mathématiques et n'aborde que brièvement le système théorique de la théorie des probabilités. Le contenu du chapitre 1 est principalement ・ Définition de la probabilité ・ Explication des termes ・ Théorème de Bayes est. Dans 1.3 Questions d'évolution, nous utilisons ce qui est écrit sur la page précédente pour prouver la proposition (facile à suivre).

mot

$$ La probabilité est de décrire mathématiquement un phénomène aléatoire dans le monde. Prenons un dé cubique comme exemple. Trial: J'ai jeté un dé une fois. Tous les événements / espace échantillon $ \ Omega $: $ \ Omega $ = \ {1,2,3,4,5,6 } Événement: un sous-ensemble de $ \ Omega $, tel que \ {1 }, \ {3,6 }. Dans ce livre, il est représenté par $ A $ ou $ B $. Ensemble de produits: $ A \ cap B = $ \ {$ x | x \ in A et x \ in B $ } $$ Ensemble de somme: $ A \ cup B = $ \ {$ x | x \ in A ou x \ in B $ } $$ ・ ・ ・ L'ensemble de compléments, l'ensemble de différences, la différence symétrique, etc. sont faciles à comprendre en dessinant un diagramme de Ben.

Définition

La probabilité $$ est définie par les trois suivants.

$$ (P1) $ P (A) \ geq 0 $. Pour tout $ A \ in \ mathcal {B} . (P2)P(\Omega)=1$. (P3) Si $ A_k \ in \ mathcal {B}, k = 1,2, ..., $ sont contradictoires, c'est-à-dire $ A_i \ cap A_j = \ emptyset, i \ neq j $, $ P (\ bigcup_ {k = 1} ^ {\ infty} {A_k}) = \ sum_ {n = 1} ^ \ infty P (A_k) $ tient.

$ \ mathcal B $ est une famille d'ensemble mesurable et satisfait les propriétés suivantes: (M1) \emptyset\in\mathcal{B} , \Omega\in\mathcal{B}. (M2) Si $ A \ in \ mathcal {B} $, alors $ A ^ c \ in \ mathcal {B} $ ($ A ^ c $ est un complément de $ A $). (M3) $ A_k \ in \ mathcal {B}, k = 1,2,3 ..., $ puis $ \ bigcup_ {k = 1} ^ {\ infty} {A_k} \ in \ mathcal B $.

Cela semble difficile, mais si vous creusez plus profondément ici, vous ne connaîtrez pas le point d'atterrissage, donc je pense que $ \ mathcal B $ est un ensemble composé d'un sous-ensemble d'espace échantillon $ \ Omega $, et $ A $ est un sous-ensemble de $ \ Omega $. S'il vous plaît. Comme avec (P3), il suffira souvent de le représenter dans le diagramme de Ben à l'avenir. $ \ Bigcup $ est un symbole qui prend l'ensemble somme d'une famille d'ensemble. $ \bigcup_{k=1}^{n}{A_k} = A_1 \cup A_2 \cup ...\cup A_n$ En bref, la probabilité $ P $ est fonction de l'ensemble $ A $ (exemple: quelle est la probabilité de lancer un dé et d'obtenir 2? Réponse: $ P (A = $ \ {2 } $) = 1/6 $), P1 ~ Il rencontre P3. (P1) La probabilité est toujours égale ou supérieure à 0 (P2) La probabilité qu'un de tous les événements se produise est de 1 (tout se produira toujours) (P3) Lorsque les événements considérés sont contradictoires (l'ensemble n'est pas couvert lorsqu'il est dessiné dans le diagramme de Ben), la probabilité qu'un événement de l'ensemble de la somme des événements se produise peut être exprimée par la somme des probabilités de chaque événement. C'est une façon de penser. J'ai beaucoup écrit par la suite, mais je ne pense pas qu'il soit logique de le lire avant d'avoir appris la métrologie. J'ai beaucoup écrit, mais finalement c'était la probabilité habituelle. Je pense que c'est bien si vous êtes conscient que la probabilité est une fonction.

Théorème de Bayes

Il y a quelque chose que je dois expliquer pour comprendre le théorème de $$ bayésien.

· Probabilite conditionnelle

Définition:

Lorsqu'il y a deux événements $ A $ et $ B $ et $ P (B)> 0 , $ P(A|B)=\frac{P(A \cap B)}{P(B)} \tag{1.1a} $$ Est appelée la probabilité conditionnelle de $ A $ lorsque $ B $ est donné.

$ P (A | B) $ signifie la probabilité que l'événement $ A $ se produise sous la condition que l'événement $ B $ se produise. Cela est également vrai si vous échangez des $ A $ et des $ B . Équation (1.1a) transposée $P(A \cap B) = P(A|B)P(B) \tag{1.1b}$$ Est également pratique.

・ Toutes les formules de probabilité

$ B_1, B_2 ... $ sont des événements contradictoires, et lorsque $ P (B_k)> 0, \ bigcup_ {k = 1} ^ {\ infty} {B_k} = \ Omega $ est satisfait, l'événement $ A La probabilité de $ peut être exprimée comme suit. $P(A)=\sum_{k=1}^\infty P(A|B_k)P(B_k) \tag{1.2}$

Cela dit, mais je pense que c'est facile à comprendre si vous regardez la figure ci-dessous. Essayez de le prouver en utilisant bien l'équation (1.1b).

(C'est $ k \ to \ infty $)![795316b92fc766b0181f6fef074f03fa-9.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/594672/fb4318be-1240- c824-aec9-23633cdb55b6.png) (L'image est tirée de https://bellcurve.jp/statistics/course/6444.html. Un merci spécial!)

· Sujet principal

Le théorème bayésien peut être prouvé en combinant la formule de probabilité conditionnelle avec la formule de probabilité complète. L'expression exacte du théorème de Bayes est la suivante.

Soit $ B_1, B_2 ... $ une séquence d'événements contradictoires et satisfasse $ P (B_k)> 0, \ bigcup_ {k = 1} ^ {\ infty} {B_k} = \ Omega $. A ce moment, pour tout événement $ A $, la probabilité conditionnelle $ P (B_j | A) $ de $ B_j $ lorsque $ A $ est donné est exprimée comme suit. $P(B_j|A)= \frac{P(A|B_j)P(B_j)}{\sum_{k=1}^\infty P(A|B_k)P(B_k)}$

Je pense que c'est plus facile à comprendre si vous dessinez un diagramme. Il peut être dérivé en jouant avec le côté droit de la formule de probabilité conditionnelle. Le théorème de Bayes estime la cause à partir du résultat (lorsque l'événement (résultat) de $ A $ se produit, quelle est la probabilité qu'il soit dû à $ B_j (j = 1,2, ...) $) Une idée importante est.

C'est tout pour l'explication du chapitre 1. Je pense que vous pouvez comprendre l'exemple du livre en bougeant la main, donc si vous avez un livre, essayez-le.

Lançons python

J'ai fait un exemple de manière appropriée, donc je vais le résoudre avec python.

Corydoras = 0
Guppy  = 1
Neontetora = 2

#
_p_eat = []
_p_eat.insert(Corydoras,0.1)
_p_eat.insert(Guppy,0.8)
_p_eat.insert(Neontetora,0.3)

#
_p_fish = []
_p_fish.insert(Corydoras,20/36)
_p_fish.insert(Guppy,7/36)
_p_fish.insert(Neontetora,9/36)

#
def prob_eat(fish):
   if int(fish) == 0 :
      return _p_eat[fish]*_p_fish[fish]
   elif int(fish) == 1 :
      return _p_eat[fish]*_p_fish[fish]
   else:
      return _p_eat[fish]*_p_fish[fish]

#
def probability(fish):
    return prob_eat(fish) / (prob_eat(Corydoras) + prob_eat(Guppy) + prob_eat(Neontetora))#Résolvons ceci: Probabilité que chaque poisson mange habituellement des insectes Ratio de poisson Post-probabilité 〇〇 Probabilité de manger des insectes Lorsque le nombre total est grand, une certaine ingéniosité est requise

print(round(probability(Guppy),2))

Quand tu fais ça,

0.54

Ensuite, la probabilité que Guppy l'ait mangé est apparue.

Le chapitre 1 ressemble à ceci. Si vous en avez envie, je le ferai dans le prochain chapitre et au-delà. Merci beaucoup.

Les références

"Bases des statistiques mathématiques modernes" par Tatsuya Kubogawa

Recommended Posts

[Bases des statistiques mathématiques modernes avec python] Chapitre 1: Probabilité
[Bases des statistiques mathématiques modernes avec python] Chapitre 3: Distribution de probabilité typique
[Bases des statistiques mathématiques modernes avec python] Chapitre 2: Distribution des probabilités et valeur attendue
1. Statistiques apprises avec Python 2. Distribution des probabilités [Compréhension approfondie de scipy.stats]
Bases du traitement d'images binarisées par Python
Les bases de Python ①
Bases de python ①
[Python] Chapitre 02-04 Bases du programme Python (À propos des commentaires)
[Python] Chapitre 02-03 Bases des programmes Python (entrée / sortie)
[Python of Hikari-] Chapitre 05-06 Syntaxe de contrôle (base de la notation d'inclusion)
[Python] Chapitre 02-01 Bases des programmes Python (opérations et variables)
[Python] Chapitre 02-02 Bases des programmes Python (gestion des chaînes de caractères)
1. Statistiques apprises avec Python 2-1. Distribution de probabilité [variable discrète]
[Hikari-Python] Chapitre 09-01 Classes (Bases des objets)
[Python] Chapitre 02-05 Bases des programmes Python (opérations / méthodes de chaînes de caractères)
Principes de base du grattage Python
# 4 [python] Bases des fonctions
Bases de python: sortie
[Python] Chapitre 02-06 <Supplement> Bases des programmes Python (gestion des valeurs numériques)
[Chapitre 3] Introduction à Python avec 100 coups de traitement du langage
[Chapitre 2] Introduction à Python avec 100 coups de traitement du langage
[Bases de la science des données] Collecte de données depuis RSS avec python
[Chapitre 4] Introduction à Python avec 100 coups de traitement du langage
python: principes de base de l'utilisation de scikit-learn ①
Principes de base de Python x SIG (1)
Principes de base de Python x SIG (3)
Paiza Python Primer 5: Principes de base des dictionnaires
Bases de SNS Python faites avec Flask
[Hikari-Python] Chapitre 09-03 Classe (Héritage)
Configurer un environnement Python moderne avec Homebrew
100 traitements de langage avec Python
100 traitements de langage avec Python (chapitre 3)
Jeu de vie avec Python! (Le jeu de la vie de Conway)
10 fonctions du "langage avec batterie" python
Revue des bases de Python (FizzBuzz)
1. Statistiques apprises avec Python 1-1. Statistiques de base (Pandas)
Principes de base de Python x SIG (partie 2)
Principes de base pour toucher MongoDB avec MongoEngine
Implémentation de la méthode Dyxtra par python
Coexistence de Python2 et 3 avec CircleCI (1.0)
Effectuer un tracé de probabilité normale logarithmique avec Python, matplotlib
À propos de la liste de base des bases de Python
Etude de base d'OpenCV avec Python
Apprenez les bases de Python ① Débutants élémentaires
Calculez la probabilité d'être une pièce de calmar avec le théorème de Bayes [python]
[Introduction aux data scientists] Bases de la probabilité et des statistiques ♬ Variable de probabilité / probabilité et distribution de probabilité
Réhabilitation des compétences Python et PNL à partir de "100 Language Processing Knock 2015" (Chapitre 1)
Mémo d'apprentissage Python pour l'apprentissage automatique par Chainer Chapitre 13 Bases du réseau neuronal
Python: principes de base de la reconnaissance d'image à l'aide de CNN
[Exemple d'amélioration de Python] Apprentissage de Python avec Codecademy
Essayez une formule utilisant Σ avec python
[Mémo d'apprentissage] Bases de la classe par python
[Python3] Comprendre les bases de Beautiful Soup
Vérifier l'existence du fichier avec python
Obstrué par la mise à jour Python de la console GCP ①
Introduction facile de la reconnaissance vocale avec Python
100 traitements de langage avec Python (chapitre 2, partie 2)
Je ne connaissais pas les bases de Python
100 traitements de langage avec Python (chapitre 2, partie 1)