Trend e insight di big data e analytics

Sono stati appena presentati i risultati della sesta ricerca effettuata dall’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano, condotta  con lo scopo di individuare i principali trend e le nuove soluzioni tecnologiche e quantificare così il mercato nel suo complesso.

Obiettivo dell’Osservatorio Big Data Analytics quello di evidenziare il valore strategico degli Analytics nelle grandi organizzazioni e nelle Piccole e Medie Imprese; ogni anno la Ricerca coinvolge, attraverso survey, interviste dirette e workshop tematici, una community di oltre 1000 attori. Dall’edizione di quest’anno emerge l’esigenza dello sviluppo delle competenze e della creazione di team dedicati per ottimizzare i processi aziendali, valorizzare il dato e creare prodotti e servizi in ottica data-driven.

I dati mostrano una crescita significativa confermando quanto emerso a ottobre all’interno dell’Assintel Report, la ricerca curata da IDC per fotografare il mercato dell’innovazione.

Individuati ormai da tempo gli effetti  a catena che la trasformazione digitale sta innescando su tecnologie, processi, prodotti, relazioni, organizzazioni, l’attenzione è ora puntata sui modelli di interazione basati su nuove architetture e piattaforme digitali adottati da tutto l’ecosistema dell’innovazione. I dati evidenziano un trend positivo di crescita costellato da luci e ombre: il mercato dell’Information and Communication Technology è in aumento dello 0,7%, fino a toccare i 30 miliardi di euro entro la fine del 2018. Previsioni ancora più ottimistiche per il prossimo anno proprio grazie agli investimenti delle grandi aziende negli ambiti più disruptive legati ai cosiddetti Acceleratori dell’Innovazione: cloud a+25%, IoT +18%, intelligenza artificiale +31%, realtà virtuale e aumentata +72%, wearables +43 e big data e analytics +26%.

Dunque il mercato Analytics conferma il trend rilevato negli ultimi tre anni, con una crescita media del 21% anno su anno, ma rileva anche un divario importante tra grandi imprese e Pmi che rappresentano solo il 12% del mercato.  Soltanto il 7% delle Pmi nel 2018, infatti,  ha avviato progetti di Big Data Analytics, mentre quattro su dieci dichiarano di svolgere analisi tradizionali sui dati aziendali. E circa un terzo sembra essere sulla buona strada in termini sia di consapevolezza che di adeguamento tecnologico e di processo.

Più della metà delle aziende prese in considerazione dal campione (55%) non hanno ancora mostrato una vera e propria spinta verso una strategia basata sull’analisi dei dati, mentre il 14% delle grandi aziende italiane si trova all’inizio del percorso di costruzione di una strategia data-driven. Dato, questo, che va di pari passo con l’aumento delle organizzazioni che hanno inserito al proprio interno professionalità qualificate per la gestione degli analytics – data analyst (56%), data scientist (46% e una su quattro delle restanti prevede di introdurre la figura entro il 2019), data engineer (42%), data science manager (23%), data visualization expert (9%) e introdotto modelli organizzativi in grado di aumentare in modo pervasivo le opportunità di innovazione derivanti dagli analytics.

Per quanto riguarda i dati relativi alla spesa in Analytics il  45% è dedicata ai software (database e strumenti per acquisire, elaborare, visualizzare e analizzare i dati, applicativi per specifici processi aziendali), il 34% ai servizi (personalizzazione dei software, integrazione con i sistemi informativi aziendali, consulenza di riprogettazione dei processi) e il 21% alle risorse infrastrutturali (capacità di calcolo, server e storage da impiegare nella creazione di servizi di Analytics). I software sono anche l’ambito con la crescita più elevata (+37%), seguito dai servizi (+23%) e risorse infrastrutturali (+9%). Tra i comparti merceologici i primi per quota di mercato sono le banche, con il 28% e il manifatturiero 25%, seguiti da telco (14%), servizi (8%), Gdo/Retail (7%), assicurazioni, utility e Pubblica amministrazione e sanità con il 6%.

Cresce anche il numero delle iniziative fast data –  che prevedono l’analisi dei dati in tempo reale – e l’esigenza di applicare tecniche di machine learning e Deep Learning in grado di identificare pattern e correlazioni presenti nei dati e implementare nuove tipologie di analisi (secondo logiche predittive). Il 62% delle grandi aziende dichiara di avere necessità di competenze specifiche di Machine Learning e Deep Learning: tra queste, poco più di un terzo le ha già introdotte in organico e un ulteriore 30% prevede di farlo nei prossimi due anni. Poco più di un’azienda su dieci (11%) invece sfrutta oggi modalità di analisi in Real-Time o in Streaming, in cui vi è un flusso continuo di raccolta dei dati che devono essere analizzati con continuità. Un ulteriore 33% possiede un’infrastruttura che consente analisi in Near Real-Time, con una frequenza di aggiornamento che scende a meno di un’ora. Il 56% delle organizzazioni analizza i dati in modalità batch, con un aggiornamento del sistema a intervalli predefiniti.

Per maggiori informazioni su Big Data & Business Intelligence