Unofficial Miningful blog post

http://www.miningfulstudio.eu

Le analisi predittive sono di importanza centrale in molti contesti, aziendali e accademici. Si investono notevoli quantità di risorse e di tempo per costruire, testare, confrontare e revisionare analisi predittive, interpretandone e discutendone poi le implicazioni. La manutenzione predittiva, il rilevamento delle frodi, l'ottimizzazione delle campagne di marketing, la Churn Prediction sono soltanto alcune delle possibili analisi predittive. Diventa dunque fondamentale capire in che modo l'efficacia di un algoritmo è confermata dalle sue predizioni. Ma perché l'efficacia di un algoritmo sarebbe confermata dalle sue predizioni? Se l'accuratezza delle previsioni bastasse, perché i data scientist tengono a a spiegare come sono ottenuti i risultati? Possiamo fidarci alla stessa maniera di un'analisi predittiva svolta in modo totalmente automatizzato? Per rispondere a queste domande è necessario uno sguardo più ampio che combina la Data Science e la Filosofia, sia aziendale che propriamente intesa come materia di studio. Partiamo da un caso reale per capire come tutte queste cose sono connesse.

Indice

Un caso reale

L'azienda XYZ è interessata, nell'ambito del suo programma di Industria 4.0, a un algoritmo che identifichi le condizioni che causano l'avaria del macchinario che assembla le componenti nel prodotto finale.

Due diversi approcci

Due data scientist, il Predittore e l'Adattatore, osservano la macchina di assemblaggio per 100 giorni, raccogliendo vari dati sul suo funzionamento.


L'Adattatore prende nota dell'operato della macchina di assemblaggio nei primi 99 giorni. Elabora quindi un algoritmo $A$ secondo cui:

Il Predittore elabora un algoritmo $A$ senza prima conoscere l'operato della macchina di assemblaggio nei primi 99 giorni. Le predizioni di questo algoritmo: