[Grundlagen der modernen mathematischen Statistik mit Python] Kapitel 3: Typische Wahrscheinlichkeitsverteilung

Einführung

Diese Reihe ist eine kurze Erklärung von "The Basics of Modern Mathematical Statistics" von Tatsuya Kubogawa und lässt uns den Inhalt in Python implementieren. Ich habe Google Colaboratory (im Folgenden als Colab bezeichnet) für die Implementierung verwendet. Wenn Sie Vorschläge haben, würde ich mich freuen, wenn Sie diese in den Kommentarbereich schreiben könnten. Es ist möglicherweise nicht für diejenigen geeignet, die den gesamten Inhalt des Buches richtig verstehen möchten, da es mit der Haltung geschrieben ist, dass es schön wäre, wenn es ausgegeben werden könnte, indem nur der Teil berührt wird, von dem ich dachte, dass er einer Erklärung bedarf. Bitte beachten Sie, dass die Zahlen in diesem Artikel möglicherweise übersprungen werden, wenn die Formelnummern und Satz- / Definitionsindizes gemäß dem Buch geschrieben wurden.

Übersicht über Kapitel 3

Die Funktion, die die Wahrscheinlichkeit durch Angabe einer Variablen berechnen kann, war die Wahrscheinlichkeitsverteilung. Jede der verschiedenen Arten von Wahrscheinlichkeitsverteilungen hat ihre eigenen Eigenschaften und Verwendungen. Es ist wichtig zu wissen, welche Merkmale jede Wahrscheinlichkeitsverteilung aufweist, da Sie bei Ihrer Vorhersage einen Fehler machen, wenn Sie bei der angenommenen Wahrscheinlichkeitsverteilung einen Fehler machen. Sie können den erwarteten Wert und die Varianz der Wahrscheinlichkeitsverteilung mithilfe der Wahrscheinlichkeitsgenerierungsfunktion, der Produktfaktorgenerierungsfunktion und der charakteristischen Funktion im vorherigen Kapitel ermitteln, aber ich denke, Sie sollten sich daran erinnern. Sie können sich daran erinnern, während Sie es verwenden. Am Ende des Kapitels gehen wir auf Steins Gleichungen und Sterling-Formeln ein. Wenn Sie googeln, finden Sie viele Wahrscheinlichkeitsverteilungen, die im Artikel nicht vorgestellt werden. Ich werde zu einem anderen Zeitpunkt einen Artikel über "Wahrscheinlichkeitsgenerierungsfunktion, Produktfaktorgenerierungsfunktion, charakteristische Funktion" schreiben, um den Satz unter Verwendung der Wahrscheinlichkeitsgenerierungsfunktion zu beweisen, daher möchte ich ihn zu diesem Zeitpunkt vorstellen.

Diskrete Wahrscheinlichkeitsverteilung

$ $ Wir haben uns in Kapitel 2 mit erwarteten Werten und Abweichungen befasst, aber die Beziehung zwischen erwarteten Werten und Abweichungen nicht angesprochen. Sei $ E [X] = \ mu $ und $ V (X) = E [(X- \ mu) ^ 2] = E [X ^ 2-2 \ mu X + \ mu ^ 2] = E [X ^ 2] - (E [X]) ^ 2 $ $=E[X(X-1)]+E[X]-(E[X])^2 $ Die Beziehung wird abgeleitet. Denken Sie daran, dass viele dieser relationalen Ausdrücke in Zukunft erscheinen werden. Die in diesem Buch eingeführte diskrete Wahrscheinlichkeitsverteilung (Wahrscheinlichkeitsverteilung, bei der die Variable $ X $ diskret ist) ist wie folgt. ・ Diskrete Gleichverteilung ・ Binäre Verteilung · Poisson-Verteilung ・ Geometrische Verteilung ・ Negative Binomialverteilung ・ Super geometrische Verteilung Lassen Sie es uns aufheben und einen Blick darauf werfen.

Binäre Verteilung

$ $  Lassen Sie mich vor der Binomialverteilung den Bernoulli-Versuch erklären. Lassen Sie mich den Ausdruck im Buch zitieren

Ein Bernoulli-Versuch ist ein Experiment, bei dem eine $ p $ -Wahrscheinlichkeit des Erfolgs ', eine $ 1-p $ -Wahrscheinlichkeit des' Fehlschlags 'und eine Wahrscheinlichkeitsvariable $ X $ der Erfolg', $ 1 $, 'sind. Nimm $ 0 $ bei Misserfolg '.

Die Binomialverteilung ist eine Verteilung, bei der die Variable $ X $ die "Anzahl der Erfolge" ist, wenn dieser Bernoulli-Versuch unabhängig durchgeführt wird (der vorherige Versuch hat keinen Einfluss auf den nächsten Versuch) $ n $. Die Wahrscheinlichkeit, $ k $ mal und $ nk $ mal nicht zu bestehen, wird durch die folgende Formel ausgedrückt ("Erfolg", "Misserfolg" sind nur einfache Worte, "krank werden", "nicht bekommen" usw.). Alles was du tust). $P(k)={}_nC_kp^k(1-p)^{n-k}, \ k=0,1,2,...,n $ Der Grund, warum es $ {} _nC_k $ gibt, ist, dass $ n $ Versuche unabhängig voneinander durchgeführt werden, sodass Sie $ k $ 'Erfolg' aus $ n $ Zeiten auswählen können. Die Binominalverteilung, bei der die Anzahl der Versuche und die Wahrscheinlichkeit $ n bzw. p $ sind, wird durch $ Bin (n, p) $ dargestellt. In diesem Buch ist es bis zum Ende in dieser Notation geschrieben, also muss man sich daran gewöhnen.

Zeichnen wir als Beispiel die Wahrscheinlichkeitsverteilung, wie oft die Tabelle erscheint, wenn die Münze 30-mal und 1000-mal geworfen wird.

Poisson-Verteilung

Die Poisson-Verteilung ist ein spezielles Beispiel für die Binomialverteilung, und wenn "seltene Phänomene" in großer Zahl "beobachtet (ausprobiert)" werden können (Beispiel: Verteilung der Anzahl der Verkehrsunfälle, die an einem Tag auftreten), die Binomialverteilung Verwenden Sie stattdessen die Poisson-Verteilung. Mit anderen Worten, wenn Sie das Limit von $ n \ bis \ infty, \ p \ bis 0 $ in der vorherigen Binomialverteilung nehmen, konvergiert es zur Poisson-Verteilung. Es gibt auch eine Formel für die Wahrscheinlichkeitsverteilung der Poisson-Verteilung selbst, aber ich werde sie in diesem Artikel weglassen. Wenn $ np = \ lambda $, wird die Poisson-Verteilung als $ Po (\ lambda) $ ausgedrückt. Wenn zum Beispiel $ n = 10 und p = 0,1 $ ist, dann ist $ \ lambda = 1 $ (was ungefähr alle 10 Male vorkommt).

Lassen Sie uns die Binomialverteilung und die Poisson-Verteilung mit Python überprüfen.

%matplotlib inline
import matplotlib.pyplot as plt
from scipy.special import comb#Funktion zur Berechnung der Kombination
import pandas as pd

#Diagrammzeichnung der Binomialverteilung
def Bin(n,p,x_min,x_max,np):
  prob = pd.Series([comb(float(n),k)*p**k*(1-p)**(float(n)-k) for k in range(0,n+1)]) #Berechnen Sie die Wahrscheinlichkeit bei jedem k
  plt.bar(prob.index,prob,label=np)#Balkendiagramm (y-Wert,x Wert)
  plt.xlim(x_min,x_max)
  plt.legend()
  plt.show()

Bin(1000,0.5,0,30,"n=30,p=0.5")#30 Münzen
Bin(10000,0.5,4500,5500,"n=1000,p=0.5")#1000 Münzen
Bin(40000,0.00007,0,15,"n=40000,p=0.00007")#Versuchen Sie, n zu erhöhen und p zu verringern

Wenn Sie dies tun, erhalten Sie die folgenden drei Diagramme. image.png image.png image.png

Es ist die gleiche Funktion, aber es ist ein wenig verzerrt und Sie können so etwas wie eine Poisson-Distribution zeichnen.

Die verbleibenden drei diskreten Wahrscheinlichkeitsverteilungen haben auch ihre eigenen einzigartigen Ideen, aber ich denke, Sie können sie lesen, wenn Sie wissen, was die diskrete Wahrscheinlichkeitsvariable $ X $ darstellt.

Kontinuierliche Verteilung

Die im Buch eingeführte kontinuierliche Verteilung ist wie folgt ・ Gleichmäßige Verteilung ·Normalverteilung ・ Gammaverteilung, Chi-Quadrat-Verteilung ・ Exponentialverteilung, Gefahrenverteilung ・ Beta-Verteilung Lassen Sie es uns auch hier abholen.

Normalverteilung

$ $  Die Normalverteilung ist die wichtigste Wahrscheinlichkeitsverteilung, da sie eine symmetrische Form hat, die auf dem Mittelwert zentriert ist, und einfach zu handhaben ist. Wenn die Wahrscheinlichkeitsvariable $ X $ einer Normalverteilung mit dem Mittelwert $ \ mu, $ Varianz $ \ sigma ^ 2 $ folgt, ist die Wahrscheinlichkeitsdichtefunktion für $ X $ $$ f_X (x | \ mu, \ sigma ^ 2) = \ frac {1} {\ sqrt {2 \ pi} \ sigma} \ exp (- \ frac {(x- \ mu) ^ 2} {2 \ sigma ^ 2}) Diese Verteilung ist $ \ mathcal Es wird durch {N} (\ mu, \ sigma ^ 2) $ dargestellt. Das standardisierte $$ mathcal {N} (0,1) $ wird als Standardnormalverteilung bezeichnet, und $ \ phi (z) = \ frac {1} {\ sqrt {2 \ pi}} \ exp (- \ Schreiben Sie frac {z ^ 2} {2}) $ (die Grafik befindet sich im vorherigen Artikel). Die kumulative Verteilungsfunktion (integrierter Wert = Wahrscheinlichkeit) der Standardnormalverteilung wird durch $ \ Phi (z) = \ int_ {- \ infty} ^ z \ phi (t) dt $ und die Hypothese dargestellt, die in einem späteren Kapitel erscheinen wird. Es wird beim Umgang mit Tests und Konfidenzintervallen verwendet.

Gammaverteilung, Chi-Quadrat-Verteilung

$ $ Es gibt eine Chi-Quadrat-Verteilung als Sonderfall der Gamma-Verteilung, aber die Chi-Quadrat-Verteilung ist in der Statistik wichtiger. Wie wir in späteren Kapiteln sehen werden, wird die Chi-Quadrat-Verteilung zur Segmentschätzung der Populationsvarianz, zum Fit-Test, zum Unabhängigkeitstest usw. verwendet. Da die in den Kapiteln 4 und 5 aufgeführten Eigenschaften für die Chi-Quadrat-Verteilung wichtiger sind als die mit der Gammafunktion ausgedrückte Formel, wird hier nur die Form der Chi-Quadrat-Verteilung gezeichnet. Die Chi-Quadrat-Verteilung mit $ n $ Freiheit wird durch $ \ chi_n ^ 2 $ dargestellt. Ich werde den Freiheitsgrad weglassen, weil er in den folgenden Kapiteln besser verstanden wird.

import matplotlib.pyplot as plt
import numpy as np
from scipy import stats

x1 = np.arange(0,15,0.1)
y1 = stats.chi2.pdf(x=x1,df=1)#df=degree of freedom(Freiheitsgrad)ist
y2 = stats.chi2.pdf(x=x1,df=2)
y3 = stats.chi2.pdf(x=x1,df=3)
y4 = stats.chi2.pdf(x=x1,df=5)
y5 = stats.chi2.pdf(x=x1,df=10)
y6 = stats.chi2.pdf(x=x1,df=12)

plt.figure(figsize=(7,5))
plt.plot(x1,y1, label='n=1')
plt.plot(x1,y2, label='n=2')
plt.plot(x1,y3, label='n=3')
plt.plot(x1,y4, label='n=5')
plt.plot(x1,y5, label='n=10')
plt.plot(x1,y6, label='n=12')

plt.ylim(0,0.7); plt.xlim(0,15)
plt.legend()
plt.show()

Wenn Sie dies tun, erhalten Sie: image.png

Exponentialverteilung, Gefahrenverteilung

$ $  Die Wahrscheinlichkeitsdichtefunktion der Exponentialverteilung wird durch die folgende Formel angegeben und als $ Ex (\ lambda) $ ausgedrückt. $ f_X (x | \ lambda) = \ lambda e ^ {- \ lambda x}, \ x> 0 $ Exponentialverteilung und Gefahrenverteilung werden als Verteilungen wie Überlebenszeit und Zeitraum bis zum Maschinenausfall verwendet, und die Wahrscheinlichkeitsvariable $ X $ gibt häufig Zeit / Zeitraum an. Erwarteter Wert der Exponentialverteilung, Varianz ist $ E [X] = \ frac {1} {\ lambda} = \ theta $ $ V (X) = \ frac {1} {\ lambda ^ 2} $ Und die Exponentialverteilung von $ \ theta = 2 $ entspricht der Chi-Quadrat-Verteilung von $ n = 2 $ Freiheitsgraden (oben). $ P (X> s) $ repräsentiert die Überlebenswahrscheinlichkeit über die Zeit $ s $, die $ P (X> s) = 1-F_X (s) = e ^ {- \ lambda s} $ ist (1 ist die Gesamtwahrscheinlichkeit, 2 Elemente sind die kumulative Verteilungsfunktion bis zum Zeitpunkt $ s $). Die bedingte Überlebenswahrscheinlichkeit von mehr als $ t $ unter der Bedingung des Überlebens von $ s $ beträgt $ P (X \ ge s + t | X \ ge s) = ... = \ frac {e ^ {- \ lambda (s + t)}} {e ^ {- \ lambda s}} = e ^ {^ \ lambda t} = P (X \ get) $, Zeit $ s $ Überleben Sie können sehen, dass dies nicht von der Bedingung abhängt, die Sie ausgeführt haben (merken Sie sich die bedingte Wahrscheinlichkeit und versuchen Sie, sie abzuleiten). Diese Eigenschaft wird als Einprägsamkeit bezeichnet und gilt auch für die geometrische Verteilung, bei der es sich um eine diskrete Wahrscheinlichkeitsverteilung handelt. Auch wenn Sie noch nie Glück gehabt haben, kann morgen viel Glück kommen.

Beta-Distribution

In der Beta-Verteilung nimmt die Wahrscheinlichkeitsvariable $ X $ einen Wert für das Intervall (0,1) an, und ihre Wahrscheinlichkeitsdichtefunktion ist $ f_X (x | a, b) = \ frac {1} {B (a, b)} x ^ {a-1} (1-x) ^ {b-1} $ Gegeben durch, dargestellt durch $ Beta (a, b) $. $ B (a, b) $ ist eine Beta-Funktion $B(a,b)=\int_{0}^1 x^{a-1}(1-x)^{b-1} dx$ ist. Sie können leicht bestätigen, dass es 1 wird, wenn die Wahrscheinlichkeitsdichtefunktion integriert ist. Beta-Funktionen finden Sie in Kapitel 6, der Bayes'schen Methode.

Ich habe nur einige vorgestellt, aber das ist alles für Kapitel 3. Vielen Dank.

Verweise

"Grundlagen der modernen mathematischen Statistik" von Tatsuya Kubogawa

Recommended Posts

[Grundlagen der modernen mathematischen Statistik mit Python] Kapitel 3: Typische Wahrscheinlichkeitsverteilung
[Grundlagen der modernen mathematischen Statistik mit Python] Kapitel 1: Wahrscheinlichkeit
[Grundlagen der modernen mathematischen Statistik mit Python] Kapitel 2: Wahrscheinlichkeitsverteilung und Erwartungswert
1. Mit Python gelernte Statistiken 2. Wahrscheinlichkeitsverteilung [Gründliches Verständnis von scipy.stats]
1. Mit Python 2-1 gelernte Statistiken. Wahrscheinlichkeitsverteilung [diskrete Variable]
Erste Schritte mit Python Grundlagen von Python
Grundlagen der binärisierten Bildverarbeitung durch Python
1. Mit Python 1-3 gelernte Statistiken. Berechnung verschiedener Statistiken (Statistiken)
[Python] Kapitel 02-04 Grundlagen des Python-Programms (Informationen zu Kommentaren)
[Python] Kapitel 02-03 Grundlagen von Python-Programmen (Eingabe / Ausgabe)
[Einführung in Datenwissenschaftler] Grundlagen der Wahrscheinlichkeit und Statistik ♬ Wahrscheinlichkeits- / Wahrscheinlichkeitsvariable und Wahrscheinlichkeitsverteilung
Statistik mit Python
Grundlagen von Python ①
[Python of Hikari-] Kapitel 05-06 Steuerungssyntax (Grundlagen der Einschlussnotation)
1. Mit Python 1-2 gelernte Statistiken. Berechnung verschiedener Statistiken (Numpy)
[Python] Kapitel 02-01 Grundlagen von Python-Programmen (Operationen und Variablen)
[Python] Kapitel 02-02 Grundlagen von Python-Programmen (Umgang mit Zeichenketten)
[Hikari-Python] Kapitel 09-01 Klassen (Grundlagen von Objekten)
[Python] Kapitel 02-05 Grundlagen von Python-Programmen (Zeichenfolgenoperationen / -methoden)
[Python] Kapitel 02-06 <Zusatz> Grundlagen von Python-Programmen (Umgang mit numerischen Werten)
Grundlagen der Python-Scraping-Grundlagen
[Kapitel 5] Einführung in Python mit 100 Klopfen Sprachverarbeitung
# 4 [Python] Grundlagen der Funktionen
[Kapitel 2] Einführung in Python mit 100 Klopfen Sprachverarbeitung
[Grundlagen der Datenwissenschaft] Sammeln von Daten aus RSS mit Python
Grundlagen von Python: Ausgabe
Überprüfen Sie die atrophische Natur der Wahrscheinlichkeitsverteilung in Python
[Kapitel 4] Einführung in Python mit 100 Klopfen Sprachverarbeitung
Python: Grundlagen der Verwendung von Scikit-Learn ①
Üben Sie typische statistische Methoden (1)
Python x GIS-Grundlagen (1)
Versuchen Sie, die stochastische Massenfunktion der Binomialverteilung in Python zu transkribieren
Python x GIS-Grundlagen (3)
Paiza Python Primer 5: Grundlagen von Wörterbüchern
Mit Flask erstellte SNS Python-Grundlagen
[Hikari-Python] Kapitel 09-03 Klasse (Vererbung)
Richten Sie mit Homebrew eine moderne Python-Umgebung ein
100 Sprachverarbeitungsklopfen mit Python (Kapitel 1)
100 Sprachverarbeitungsklopfen mit Python (Kapitel 3)
10 Funktionen von "Sprache mit Batterie" Python
Überprüfung der Grundlagen von Python (FizzBuzz)
Grundlagen von Python x GIS (Teil 2)
Grundlagen zum Berühren von MongoDB mit MongoEngine
PRML Kapitel 2 Wahrscheinlichkeitsverteilung Nichtparametrische Methode
Implementierung der Dyxtra-Methode durch Python
Koexistenz von Python2 und 3 mit CircleCI (1.0)
Führen Sie mit Python, matplotlib, einen logarithmischen Normalwahrscheinlichkeitsplot durch
Informationen zur Grundlagenliste der Python-Grundlagen
Grundlegendes Studium von OpenCV mit Python
Lernen Sie die Grundlagen von Python ① Grundlegende Anfänger
Berechnen Sie die Wahrscheinlichkeit, eine Tintenfischmünze zu sein, mit dem Bayes-Theorem [Python]
Rehabilitation von Python- und NLP-Kenntnissen ab "100 Language Processing Knock 2015" (Kapitel 1)
Python-Lernnotiz für maschinelles Lernen von Chainer Kapitel 13 Grundlagen des neuronalen Netzwerks