Fonte: Enrico Cecchi, Research & Development Area Manager di FabricaLab.

Scopo di questo report è di effettuare una disamina del potenziale offerto alle aziende derivato dall’analisi dei dati in streaming arrivando a descrivere un’architettura di riferimento per il loro utilizzo. In particolare, è preso in esame il contesto attuale delle fonti dati in streaming e delle opportunità che offrono, sono analizzati alcuni casi d’uso e i possibili approcci alla tematica dello streaming computing, infine è individuata una possibile architettura di riferimento e le possibili componenti può essere realizzata.

Contesto

Ad oggi le aziende hanno nella loro disponibilità flussi dati (data stream) generati in modo continuo sia dallo stesso business che da provider di mercato. L’estrazione di contenuto informativo in near real time da questi flussi dati può essere un fattore di vantaggio competitivo in vari ambiti del proprio business, quali efficacia ed efficienza dei processi aziendali, ottimizzazione dei costi amministrativi, riduzione dei rischi derivanti da potenziali danni reputazionali o eventuali azioni legali, miglioramento della relazione con il cliente e della sua soddisfazione, incremento della qualità e del valore dei beni prodotti.

Il vantaggio competitivo che se ne può trarre si declina nei seguenti benefici:

  • Incremento della comprensione dei processi aziendali;
  • Capacità di prendere decisioni reattive e consapevoli;
  • Aumento della conoscenza dei comportamenti dei clienti, attuali e prospect, e conseguente incremento della retantion dei primi e acquisizione di nuovi clienti;
  • Aumento della capacità di proporre modelli di business innovativi;
  • Aumento della capacità di generare profitti;
  • Rafforzamento dell’immagine del brand;
  • Competitività sul mercato.

Il concetto di streaming di dati rimanda a complessi di dati e informazioni generati, ad esempio, dal mondo della sensoristica disponibile grazie alle tecnologie che rientrano nell’Internet of Things (IoT), dalle app sui dispositivi mobile, dai Web clickstream o anche ai dati transazionali. In generale, il dato prodotto da questi flussi informativi ha un valore per l’azienda nei termini in cui l’informazione che ne possiamo estrarre permette di creare un valore o limitare un danno economico proporzionale.

Alcuni esempi consentono di esplicitare le potenzialità operative dell’analisi di dati in streaming:

  • l’evento generato da un sensore che evidenzia un comportamento anomalo di una macchina può anticipare un esigenza di manutenzione che, effettuata, può evitare un fermo macchina e quindi prevenire una mancata consegna è manutenzione preventiva
  • il monitoraggio di un flusso di produzione continuo relativamente ai parametri di controllo delle materie prime e del prodotto finito può ottimizzare l’efficienza del processo e aumentare la qualità del prodotto finito è efficienza ed efficacia di processo
  • il clickstream di navigazione di un potenziale cliente sul sito web abilita la proposizione di ulteriori opzioni d’acquisto o alternative in caso di non disponibilità è incremento dei volumi di business
  • una successione di eventi di apertura/chiusura di una cassaforte per un tempo anomalo può essere sintomo di una potenziale frode è individuazione frodi.

Dagli esempi proposti risulta evidente che il valore degli eventi generati da questi flussi dati decade con il passare del tempo impiegato per estrarre l’informazione in essi contenuta. In pratica, possiamo parlare di timeframe value window, come della finestra temporale entro la quale il valore dell’evento si annulla[1].

[1] In generale la timeframe value window per uno stesso evento può essere diversa a seconda del contesto di business nel quale l’evento è analizzato.

Alla necessità di riuscire ad analizzare e trarre informazioni utili in tempi spesso estremamente rapidi, si aggiunge la complessità derivante dal fatto che i flussi in questione sono caratterizzati da enormi volumi di dati generati con estrema velocità, in qualunque formato (strutturato, semi-strutturato o non strutturato), e da fonti eterogenee; in altre parole: Big Data.

Lo streaming processing & analitycs trova applicazione proprio dove la sfida è quella di essere capaci di estrarre informazione da un flusso informativo di Big Data in un tempo inferiore alla timeframe value window degli eventi generati e renderla disponibile in forma di analytics all’utente finale, generare alerting e attivare processi business automatizzati o semi-automatizzati.

Questo significa che l’utente di business ha la possibilità di prendere decisioni:

  • quasi in tempo reale sulla base di analytics derivanti da calcoli di statistica descrittiva e inferenziale elaborati sui flussi di dati;
  • essere allertato al verificarsi di potenziali eventi di business mediante meccanismi di notifica;
  • essere supportato da processi automatizzati o semi-automatizzati – ovvero che richiedono l’interazione umana – in risposta ad eventi monitorati.

In molti casi le tecniche di analisi per l’estrazione di informazione appartengono al dominio del Complex Event Processing quali:

  • Event-pattern detection
  • Event abstraction
  • Detecting relationships (del tipo causality, membership o timing) fra eventi
  • Event filtering
  • Event aggregation and transformation

Leggi il rapporto completo, i casi d’uso e l’esperienza di Gilbarco Italia   Stream Processing and Analytics_v 2.0

Share This