Pensiero Stocastico, Modelli Casuali e Simulazione
Dopo aver introdotto i concetti di ottimizzazione e modellazione con grafi, questa parte si addentra nel mondo dell'incertezza e della casualità. Impareremo a pensare in termini probabilistici (pensiero stocastico), studieremo un modello fondamentale di processo casuale (le passeggiate aleatorie) e scopriremo come utilizzare la simulazione al computer (metodo Monte Carlo) per analizzare sistemi complessi e stimare quantità difficili da calcolare analiticamente.
4. Pensiero Stocastico: Gestire l'Incertezza nella Programmazione e nei Modelli
Molti fenomeni nel mondo reale e molti processi computazionali non sono completamente deterministici. L'incertezza può derivare da misurazioni imprecise, complessità intrinseca del sistema, comportamento umano imprevedibile, o dall'uso deliberato della casualità negli algoritmi. Il pensiero stocastico ci fornisce gli strumenti matematici e concettuali per modellare, quantificare e ragionare in presenza di incertezza.
4.1 Fondamenti di Teoria della Probabilità
La probabilità è il linguaggio matematico dell'incertezza. Richiamiamo alcuni concetti chiave:
- Spazio Campionario (Ω): L'insieme di tutti i possibili risultati (esiti elementari) di un "esperimento" casuale. Esempi: Ω={T,C} per il lancio di una moneta; Ω={1,2,3,4,5,6} per il lancio di un dado; Ω=[0,∞) per il tempo di vita di un componente.
- Evento (E): Un qualsiasi sottoinsieme dello spazio campionario (E⊆Ω) a cui siamo interessati. Esempi: "ottenere Testa" {T}; "ottenere un numero pari" {2,4,6}; "il componente dura più di 1000 ore" (1000,∞).
- Funzione di Probabilità (P): Una funzione che assegna a ogni evento E un numero P(E) compreso tra 0 e 1 (inclusi), che rappresenta la "plausibilità" o "frequenza relativa a lungo termine" dell'evento. Deve soddisfare gli Assiomi di Kolmogorov:
- P(E)≥0 per ogni E⊆Ω.
- P(Ω)=1 (l'evento certo ha probabilità 1).
- Per ogni sequenza di eventi E1,E2,… mutuamente esclusivi (cioè Ei∩Ej=∅ per i=j), vale P(∪i=1∞Ei)=∑i=1∞P(Ei) (additività numerabile).
- Probabilità Condizionata: La probabilità che si verifichi l'evento A sapendo che l'evento B si è già verificato. È definita come:
P(A∣B)=P(B)P(A∩B),assumendo P(B)>0
Rappresenta un aggiornamento della nostra conoscenza probabilistica data una nuova informazione.
- Indipendenza Statistica: Due eventi A e B sono indipendenti se il verificarsi di uno non altera la probabilità dell'altro. Formalmente:
P(A∩B)=P(A)P(B)
Equivalentemente, P(A∣B)=P(A) (se P(B)>0) o P(B∣A)=P(B) (se P(A)>0).
- Teorema di Bayes: Permette di calcolare P(B∣A) conoscendo P(A∣B), P(A) e P(B). È fondamentale per l'inferenza statistica e l'apprendimento automatico ("aggiornare le credenze alla luce dell'evidenza").
P(B∣A)=P(A)P(A∣B)P(B)
Dove P(A)=P(A∣B)P(B)+P(A∣Bc)P(Bc) (Legge della Probabilità Totale, Bc è il complemento di B).
4.2 Variabili Aleatorie (o Casuali)
Una variabile aleatoria (v.a.) X è una funzione che associa un valore numerico a ciascun esito ω dello spazio campionario Ω. Permette di descrivere quantitativamente i risultati di un esperimento casuale.
- Variabili Aleatorie Discrete: Possono assumere solo un insieme finito o numerabile di valori {x1,x2,…}. Sono descritte dalla Funzione di Massa di Probabilità (PMF - Probability Mass Function) p(x), che dà la probabilità di ogni possibile valore:
p(x)=P(X=x)
Deve valere p(x)≥0 per ogni x e ∑xp(x)=1.
- Variabili Aleatorie Continue: Possono assumere qualsiasi valore all'interno di un intervallo continuo di numeri reali. Sono descritte dalla Funzione di Densità di Probabilità (PDF - Probability Density Function) f(x). Non rappresenta la probabilità in un punto (che è zero per v.a. continue), ma la probabilità si ottiene integrando la densità su un intervallo:
P(a≤X≤b)=∫abf(x)dx
Deve valere f(x)≥0 per ogni x e ∫−∞∞f(x)dx=1.
- Funzione di Ripartizione (CDF - Cumulative Distribution Function): Definisce la probabilità che la v.a. X assuma un valore minore o uguale a x:
F(x)=P(X≤x)
È definita sia per v.a. discrete (F(x)=∑t≤xp(t)) sia continue (F(x)=∫−∞xf(t)dt). È una funzione non decrescente, con limx→−∞F(x)=0 e limx→+∞F(x)=1.
4.3 Misure Sintetiche: Valore Atteso e Varianza
Spesso è utile riassumere le caratteristiche principali di una distribuzione di probabilità con alcuni indici numerici.