Pensiero Stocastico, Modelli Casuali e Simulazione

Dopo aver introdotto i concetti di ottimizzazione e modellazione con grafi, questa parte si addentra nel mondo dell'incertezza e della casualità. Impareremo a pensare in termini probabilistici (pensiero stocastico), studieremo un modello fondamentale di processo casuale (le passeggiate aleatorie) e scopriremo come utilizzare la simulazione al computer (metodo Monte Carlo) per analizzare sistemi complessi e stimare quantità difficili da calcolare analiticamente.


4. Pensiero Stocastico: Gestire l'Incertezza nella Programmazione e nei Modelli

Molti fenomeni nel mondo reale e molti processi computazionali non sono completamente deterministici. L'incertezza può derivare da misurazioni imprecise, complessità intrinseca del sistema, comportamento umano imprevedibile, o dall'uso deliberato della casualità negli algoritmi. Il pensiero stocastico ci fornisce gli strumenti matematici e concettuali per modellare, quantificare e ragionare in presenza di incertezza.

4.1 Fondamenti di Teoria della Probabilità

La probabilità è il linguaggio matematico dell'incertezza. Richiamiamo alcuni concetti chiave:

  1. Spazio Campionario (Ω): L'insieme di tutti i possibili risultati (esiti elementari) di un "esperimento" casuale. Esempi: Ω={T,C} per il lancio di una moneta; Ω={1,2,3,4,5,6} per il lancio di un dado; Ω=[0,∞) per il tempo di vita di un componente.
  2. Evento (E): Un qualsiasi sottoinsieme dello spazio campionario (E⊆Ω) a cui siamo interessati. Esempi: "ottenere Testa" {T}; "ottenere un numero pari" {2,4,6}; "il componente dura più di 1000 ore" (1000,∞).
  3. Funzione di Probabilità (P): Una funzione che assegna a ogni evento E un numero P(E) compreso tra 0 e 1 (inclusi), che rappresenta la "plausibilità" o "frequenza relativa a lungo termine" dell'evento. Deve soddisfare gli Assiomi di Kolmogorov:
  4. Probabilità Condizionata: La probabilità che si verifichi l'evento A sapendo che l'evento B si è già verificato. È definita come: P(A∣B)=P(B)P(A∩B),assumendo P(B)>0 Rappresenta un aggiornamento della nostra conoscenza probabilistica data una nuova informazione.
  5. Indipendenza Statistica: Due eventi A e B sono indipendenti se il verificarsi di uno non altera la probabilità dell'altro. Formalmente: P(A∩B)=P(A)P(B) Equivalentemente, P(A∣B)=P(A) (se P(B)>0) o P(B∣A)=P(B) (se P(A)>0).
  6. Teorema di Bayes: Permette di calcolare P(B∣A) conoscendo P(A∣B), P(A) e P(B). È fondamentale per l'inferenza statistica e l'apprendimento automatico ("aggiornare le credenze alla luce dell'evidenza"). P(B∣A)=P(A)P(A∣B)P(B) Dove P(A)=P(A∣B)P(B)+P(A∣Bc)P(Bc) (Legge della Probabilità Totale, Bc è il complemento di B).

4.2 Variabili Aleatorie (o Casuali)

Una variabile aleatoria (v.a.) X è una funzione che associa un valore numerico a ciascun esito ω dello spazio campionario Ω. Permette di descrivere quantitativamente i risultati di un esperimento casuale.

4.3 Misure Sintetiche: Valore Atteso e Varianza

Spesso è utile riassumere le caratteristiche principali di una distribuzione di probabilità con alcuni indici numerici.