Probabilità/Spazi di probabilità

Wikibooks, manuali e libri di testo liberi.
Jump to navigation Jump to search

Concetto[modifica]

Anche se siamo arrivati ​​a una definizione di base di probabilità nel capitolo precedente, ora, procederemo a sviluppare una teoria più assiomatica. La nostra teoria ci eviterà le ambiguità della probabilità, e ci consentirà un formalismo matematico semplice. Procederemo con lo sviluppo del concetto di spazio di probabilità, che ci permetterà di imbrigliare molti teoremi di analisi matematica.

Teoria Formale[modifica]

Serie di campioni[modifica]

L'insieme di tutti i possibili campioni viene chiamato spazio campionario, indicato con Ω. Per ogni problema, è necessario scegliere un adeguato spazio campionario. Questo è importante perché non ci possiamo trarre nessuna conclusione circa la probabilità di un evento se non si conosce l'esatta dimensione dello spazio campionario. Nel lancio di una moneta i campioni possibili potrebbero essere o "testa" o " croce ". Per il lancio di un dado ci potrebbero essere tanti campioni quante le facce del dado. Abbiamo una funzione di probabilità che specifica la probabilità di ciascun campione. Gli eventi sono insiemi di campioni. Nell'esempio del dado un evento potrebbe essere "esce un numero pari".

Definizione di Spazio di Probabilità[modifica]

Uno Spazio di Probabilità è una terna (Ω,S,P) dove è un insieme non vuoto, chiamato spazio campionario, e i suoi elementi sono chiamati campioni, , contenente gli eventi, e P è una funzione , chiamata probabilità, che soddisfa i seguenti assiomi

  1. S è tale che gli eventi che si combinano, anche un numero infinito di volte, si tradurranno in un evento, cioè rimane all'interno di S (formalmente S dovrebbe essere un σ-algebra);
  2. Per tutti gli , Questo indica che per ogni evento E, la probabilità di verificarsi E è compreso tra 0 e 1 (estremi compresi).
  3. Questo indica che la probabilità di tutti i possibili campioni nello spazio campione è 1. (P è una misura normalizzata.)
  4. Se è numerabile e , quindi . Questo indica che se abbiamo un insieme di eventi (ciascuno indicato con E e un indice), possiamo ottenere la probabilità di un certo evento nel gruppo che avverrà sommando le singole probabilità di ogni evento. Questo vale se e solo se gli eventi sono disgiunti.

Spiegazione[modifica]

Ω è chiamato spazio campionario, ed è l'insieme di tutti i possibili campioni. I campioni sono tutte le possibilità di ciò che può accadere, dove solo una avviene. S è l'insieme di eventi. Gli eventi sono insiemi di campioni, e si verificano quando uno dei loro risultati si verifica. Per esempio lanciando un dado esce un numero pari potrebbe essere un evento, ma sarà costituito dai campioni 2,4 e 6. La funzione di probabilità fornisce un numero per ogni evento, e la probabilità che si verifichi qualcosa è 1.

Per esempio, quando lanciamo una singola moneta Ω è {T, C} e i possibili eventi sono {}, {T}, {C}, e {T,C}. Intuitivamente, la probabilità di ciascuno di questi gruppi è la possibilità che uno degli eventi nell'insieme accadrà; P({T}) è la probabilità che esca testa, P({T,C}) = 1 è la probabilità dell'atterraggio della moneta sia testa o croce, P {} = 0 è la probabilità dell'atterraggio della moneta testa croce, etc.

Altre Definizioni[modifica]

Eventi incompatibili o mutuamente esclusivi
se due o più eventi non possono verificarsi nello stesso momento, vuol dire che non hanno campioni in comune. Gli eventi si escludono a vicenda se non possono verificarsi entrambi contemporaneamente. Gli eventi sono detti incompatibili, o mutuamente esclusivi, se il verificarsi di un qualsiasi evento comporta automaticamente il non-verificarsi dei restanti n-1 eventi. Gli eventi incompatibili hanno proprietà come . Inoltre, quando e sono eventi incompatibili allora hanno come proprietà: . In breve, ciò implica che al massimo, può verificarsi uno degli eventi. In termini statistici, la definizione di evento incompatibile è: una proprietà di un insieme di categorie tale che un singolo oggetto è incluso in una sola categoria. Il verificarsi di un evento significa che nessuno degli altri eventi può verificarsi contemporaneamente.
Eventi esaustivi o necessari
gli eventi sono detti esaustivi, o necessari, se almeno uno degli eventi deve avvenire. Un insieme di eventi è collettivamente esaustivo se almeno uno si verifica sicuramente, ciò vuol dire che la loro unione deve coprire tutti gli eventi all'interno dell'intero spazio campionario. Ad esempio, gli eventi sono detti esaustivi se la loro unione dà lo spazio campionario: .
Prova di Indipendenza
Se per due eventi e , non è uguale a , allora e si dicono correlati o dipendenti. Se , in modo che , allora gli eventi sono detti correlati positivamente (risposta alla domanda #2 sopra). Se, invece, , affinché e , si dice che gli eventi sono correlati negativamente.
Campionamento Casuale Semplice
In un campionamento casuale semplice, dobbiamo prendere un campione casuale da una popolazione, non tenendo alcun ordine secondo cui scegliamo l'individuo specifico. In statistica, un campione casuale semplice è un sottogruppo di soggetti (un campione) scelti da un insieme più grande (popolazione). Ogni individuo è scelto a caso e del tutto casualmente, in modo che ogni individuo abbia la stessa probabilità di essere scelto in qualsiasi momento durante il processo di campionamento, e ciascun sottogruppo di soggetti abbia la stessa probabilità di essere scelto per il campione come qualsiasi altro sottogruppo di soggetti . Il campionamento casuale semplice può essere effettuato con o senza sostituzione, se è tipicamente fatto senza, cioè, si evita deliberatamente la scelta di qualsiasi membro della popolazione più di una volta. Quando il campione viene prelevato con sostituzione invece, lo stesso individuo può essere scelto più di una volta. Quando il campione viene prelevato senza sostituzione, lo stesso individuo può essere scelto più di una volta in un dato campione. Pertanto, il campionamento casuale di un individuo alla volta significa che ogni individuo possibile nel grande gruppo ha la stessa probabilità di essere estratto.
Indipendenza di variabili casuali
Se è una variabile casuale a valori reali ed a è un numero allora l'evento è l'insieme dei risultati corrispondenti a essendo minore o uguale ad . Poiché si tratta di insiemi di risultati che hanno probabilità, è sensato fare riferimento a eventi di questo tipo essendo indipendenti da altri eventi di questo tipo.

Perché e nel problema delle prove ripetute ( o Problema di Bernoulli) sono moltiplicati insieme nella formula binomiale? La probabilità di un evento può essere espressa come probabilità binomiale se i suoi risultati possono essere suddivisi in due probabilità e , dove e sono complementari (cioè ). La probabilità binomiale si occupa in genere della probabilità di diverse decisioni successive, ognuna delle quali ha due possibili esiti. La distribuzione binomiale è la distribuzione di probabilità discreta del numero di successi in una sequenza di n esperimenti indipendenti con esito o positivo o negativo, ciascuno dei quali produce un successo con probabilità . Tale esperimento di successo o insuccesso è anche chiamato esperimento o di prova Bernoulli. Infatti, quando , la distribuzione binomiale è una distribuzione Bernoulli. Il processo di Bernoulli è un processo stocastico discreto costituito da una sequenza di variabili casuali indipendenti che assumono valori su due simboli (per esempio si/no). Per esempio Un processo di Bernoulli può essere considerato come una sequenza infinita di lanci di una moneta (non truccata). Ogni singolo lancio è detto prova di Bernoulli. Una variabile in una sequenza di questo tipo può essere chiamata una variabile di Bernoulli. In altre parole, un processo di Bernoulli è una sequenza di prove di Bernoulli indipendenti e identicamente distribuite. L'indipendenza di prove di Bernoulli implica come proprietà la mancanza di memoria: studi passati non forniscono tutte le informazioni riguardanti i risultati futuri, in altre parole i risultati ottenuti precedentemente non influiscono con i risultati futuri. Da un dato momento le prove future sono un processo Bernoulli indipendente dal passato (struttura fresh-start). Una sequenza o un altro insieme di variabili casuali è indipendente e identicamente distribuita (i.i.d) se ogni variabile casuale ha la stessa distribuzione di probabilità di tutti gli altri eventi questi sono reciprocamente indipendenti. Due eventi A e B sono indipendenti se e solo se . In questo caso è l'intersezione di e , cioè, è il caso  in cui si verifichino due eventi e . Questa è chiamata la regola degli eventi indipendenti.

Spazio Universale
tutti gli elementi per una discussione specifica, ed è simboleggiato dal simbolo U.
Esempio:
Intersezione
gli elementi di 2 o più serie ed è indicata dal simbolo, .
Unione
elementi in due o più serie ed è indicata dal simbolo, .
Complemento
tutti gli elementi dell'insieme universale che non appartengono all'insieme originale, ed è indicato dal simbolo, '. A volte è rappresentato anche dal simbolo, ~, significa "non" (cioè denota "Un'unione NOT B".

Esempio:

Insieme vuoto o nullo
un insieme che non contiene elementi è indicato con i simboli , . Ciò significa che la probabilità dell'evento in questione è impossibile e pertanto, non può verificarsi.

Altri concetti di insiemistica[modifica]

Unioni e intersezioni: Possiamo indicare l'unione e l'intersezione di due insiemi rispettivamente con i simboli , . Se uniamo () due insiemi, l'insieme risultante conterrà tutti gli elementi dei primi due. Analogamente intersecandoli (), risulta l' insieme degli elementi contenuti in entrambi.

Differenze dell' insieme. Possiamo "sottrarre" un insieme da un altro usando il simbolo "". Se sottrai () un insieme ad un altro, l'insieme risultante conterrà tutti gli elementi del primo meno quelli in comune con il secondo. Questa sottrazione è leggermente differente da quelle che hai usato in aritmetica.

Numeri interi:

  1. Interi non negativi (o numeri reali)
  2. Interi positivi
  3. Tutti gli interi possibili

E --> 2 o più cose/eventi accadono. Quindi, MOLTIPLICHIAMO (prodotto) le probabilità -- INTERSEZIONE

O --> 1 dei 2 eventi/cose si verifica. Quindi AGGIUNGIAMO (somma) le probabilità -- UNIONE

Possiamo disegnare entrambi gli eventi che NON si escludono reciprocamente (per esempio, vogliamo disegnare un 2 O una 'M'... questi eventi NON si escludono a vicenda, perché non possono verificarsi contemporaneamente).

Agli eventi che NON si escludono a vicenda, ma sono indipendenti, dobbiamo sottrarre: da . Quindi,.

Le probabilità di eventi indipendenti spesso comprendono esponenti, e le probabilità di eventi dipendenti (probabilità condizionata) spesso contengono fattoriali.

Permutazioni e Combinazioni[modifica]

Permutazioni semplici
Disposizione ordinata di oggetti senza ripetizione. Le permutazioni usano tutti gli oggetti, disposti ordinatamente in gruppi di elementi senza ripetizione –
Esempio: Trova tutte le permutazioni di A, B, C.

Permutazioni di alcuni degli oggetti: oggetti, gruppo di elementi, l'ordine è importante. Esempio: Trova tutte le combinazioni di 2 lettere usando le lettere A, B, C.

Permutazioni con ripetizione
Se una parola ha lettere, delle quali sono uniche, sia (, , ....) la frequenza di ciascuna delle lettere .
Combinazioni
Disposizione di oggetti senza ripetizione, dove l'ordine NON è importante. Una combinazione di oggetti, disposti in gruppi di elementi, senza ripetizione, dove l'ordine diventa importante.

Un altro modo per scrivere una combinazione di elementi, alla volta , è usare la Notazione Binomiale (o Distribuzione Binomiale), spesso descritta come " sceglie ".

Regole di conteggio[modifica]

Regola 1
Se qualche evento reciprocamente escluso ed esaustivo può verificarsi in ognuna delle prove, ci sono sequenze differenti risultanti da un insieme di queste prove.
Esempio: Lancia una moneta tre volte, trova il numero delle sequenze possibili. , quindi,
Regola 2
Se sono i numeri di eventi distinti che possono verificarsi in prove in una serie, il numero di diverse sequenze di eventi che possono verificarsi è
Esempio: Lancia una moneta ed un dado, trova il numero di possibili sequenze. Quindi,
Regola 3
Il numero di modi nei quali diversi oggetti possono essere disposti in ordine è , dove . Una disposizione in ordine è chiamata permutazione, quindi il numero totale di permutazioni di oggetti è (il simbolo è chiamato -fattoriale)
Esempio: Posiziona 10 oggetti ordinatamente, trova il numero di modi possibili. Quindi,
Regola 4
Il numero di modi di selezionare e ordinare oggetti tra diversi oggetti è:
Esempio: Prendi 3 oggetti da un gruppo di 10, e disponili in ordine. Quindi , quindi
Regola 5
Il numero di modi di selezionare diverse combinazioni di oggetti, indipendentemente dall'ordine (l'ordine NON è importante), è:
Esempio: Prendi 3 oggetti da un gruppo di 10 in qualsiasi ordine, dove N=10, r=3. Quindi, 10!/3!(7!) = 720/6 = 120

Conseguenze[modifica]

Ora possiamo enunciare alcuni teoremi di base usando il nostro spazio di probabilità assiomatico.

Teorema 1[modifica]

Dato uno spazio di probabilità (Ω,S,P), per gli eventi :

La forma "normale" di questa formula è:

Assiomi della probabilità[modifica]