Come gestire il business con le informazioni e la data science
AUSED e la Società Italiana di Statistica si sono incontrare durante il webinar “Statistica e Big Data al servizio dell’azienda” del 20 ottobre scorso per approfondire le tematiche che vedono coinvolti gli specialisti e le tecnologie ICT con la sfida della gestione dei dati. Si è trattato di un confronto coordinato da Giuseppe Ingletti, Consigliere AUSED, Board Leader DUGIT, Senior Advisor e CIO-T, su come applicare la statistica e le sue logiche nella pratica. Un evento che ha ottenuto un ottimo successo se si considerano i 123 registrati/confermati e 91 partecipanti, con un picco di 81 di questi contemporanei.
Come ricordato da Corrado Crocetta, presidente della SIS (Società Italiana di Statistica), l’attenzione a questo contesto nasce per la sempre maggiore importanza che la qualità dei dati e la loro corretta elaborazione rivestono in qualsiasi rappresentazione coerente, e ancor più per le decisioni che su di essi vengono basate.
L’incontro si è aperto con il benvenuto da parte di Stefano Lombardi, consigliere AUSED, ed è proseguito con un intervento di Andrea Provini (presidente AUSED) e Corrado Crocetta (SIS, e professore presso l’Università Bari) sul valore delle associazioni e su come la collaborazione tra esse ne moltiplichi il valore. Provini ha sottolineato l’attuale valore dei gruppi di lavoro AUSED, in particolare quello degli User Group (DUGIT, GUPS e USFIT) così come quello del team BeTheChange quale motore e genesi delle iniziative dell’associazione. Ha poi sostanziato come questa cooperazione con SIS sia nata per portare all’ordine del giorno un tema di stretta attualità, approfondendolo con chi l’argomento lo affronta verticalmente. Per questa ragione si è scelto di organizzare questo primo evento con la SIS, una Società scientifica senza fine di lucro, costituita nel 1939 come ente morale e attualmente inclusa fra gli enti di particolare rilevanza scientifica. Scopo principale della Società Italiana di Statistica è quello di promuovere l’attività scientifica per lo sviluppo delle scienze statistiche. La Società svolge questo compito, assegnatole dallo Statuto, attraverso l’organizzazione di riunioni e convegni scientifici, pubblicazioni, collaborazioni con organismi affini sul piano nazionale e internazionale. Attualmente consta di 900 soci ordinari e molteplici enti aderenti. Crocetta ha illustrato che all’interno della società sono istituiti alcuni Gruppi di lavoro con l’incarico di svolgere compiti e attività specifici, o di promuovere particolari settori di studio quali metodologie per le indagini campionarie, statistica per le valutazioni e la qualità nei servizi e la valorizzazione delle Statistiche Pubbliche, oltre a molto ancora.
Il focus dell’evento è stato posto sulle competenze che chi tratta i dati dovrebbe avere; si è parlato di Data Scientist e della carenza di tali figure in azienda, e si è cercato di rispondere a come “aumentare le competenze statistiche all’interno delle organizzazioni che utilizzano sistemi e tecnologie dell’informazione per trasformare i dati in valore”.
Luca Malinverno, Data Scientist & Trainer di DGS Porini, si è soffermato sui modelli di gestione del dato e messa in qualità dello stesso. Il punto chiave per il data scientist è riuscire a trasformare il dato grezzo in conoscenza. Per trasformare il dato in informazione, qualsiasi esso sia all’interno dell’intero processo produttivo aziendale, è possibile utilizzare diversi strumenti.
Fondamentale nell’attività di analisi dei dati è avere una sensibilità statistica e un pensiero critico che, come ricordato da Malinverno, si devono tradurre in capacità di analisi e capacità di sintesi.
Oggi ogni azienda produce terabite di dati all’anno, e questi dati devono essere trasformati in informazione per diventare un asset aziendale. Per gestire questa espansione continua ed esponenziale, servono strumenti innovativi e dinamici, come il cloud. I dati sui quali applicare l’attività di analisi possono arrivare sia da fonti interne, come ad esempio dati di produzione, gestionali aziendali, CRM, Sales report, ecc., sia da fonti esterne (disponibilità della supply chain, eventi geo-politici, Social & recensioni web, gestionali di fornitori e clienti).
La vera sfida sta nel salvare ogni dato prodotto, mettere in corrispondenza dati strutturati e non strutturati, e trasformali per dare la giusta informazione alla giusta persona. In questo senso occorre fare una pulizia del dato attraverso un processo deduttivo (Top down) e/o induttivo (Bottom up). La combinazione vincente è quando l’analisi ci porta a rispondere non tanto a cosa è accaduto e perché è accaduto, ma quanto cosa potrebbe accadere e perché accadrebbe.
Con l’intervento di Paolo Mariani, Consigliere SIS e Prof. Università degli Studi di Milano-Bicocca, si è poi introdotto il tema dei desiderata d’impresa e della valorizzazione delle competenze. L’importanza di trasformare dati in informazione si è evoluta in una applicazione dedicata al recruitment che, relativamente alle competenze, attribuisse una valorizzazione economica alle stesse. Competenze che vengono richieste dalle aziende nel momento in cui è necessario assumere una persona. Per esempio si è cercato di capire quanto vale lavorare in gruppo per una persona che opera nell’IT. Per raggiungere l’obiettivo preposto sono stati utilizzati dati da fonti formative interne messe a disposizione da Adecco (anagrafica ed esperienza lavorativa del candidato, i requisiti richiesti e i soft skill) e da fonti esterne, come la classificazione delle attività economiche europee (ESCO), i dati retributivi da fonte INAIL e il Job Pricing. In altre parole si è voluto valorizzare in termini monetari le competenze desiderate dalle imprese operanti in Italia e le differenze tra le diverse industry. Per esempio, in ambito IT e Digital al primo posto figura la voce Orientamento alla qualità e al secondo l’autocontrollo, mentre se guardiamo al settore commerciale, al primo posto figura la capacità di lavorare in team e al secondo il coinvolgimento e la responsabilità. Queste evidenze mostrano come un’attenta analisi del dato possa fornire precise risposte alle aziende che sono alla ricerca di nuovi collaboratori.
L’argomento si è poi spostato su come poter presentare un’analisi dei dati in modo efficace, dove la capacità di sintesi gioca un ruolo chiave. Una volta che i nostri dati epurati li abbiamo posizionati all’interno di un database siamo pronti per analizzarli ottenendo benefici per tutte le operations (per esempio applicando le analisi sui KPI, sulle vendite, sulla produzione, sulle tecnologie abilitanti).
Il modo più semplice per fare una sintesi è fare una tabella e degli elenchi. Qui però, sebbene l’informazione sia disponibile, lo è in modo poco fruibile. Una seconda modalità è quella di costruire dei grafici per rendere più “visual” l’informazione. Così facendo basta un colpo d’occhio per capire ciò che sta accadendo. Questa opzione è però statica e si perde la possibilità di interagire col dato, per cui esiste un terzo modello di diffusione dei dati che riguarda le visualizzazioni di tipo interattivo attraverso delle dashboard dove è possibile effettuare dei drill down, filtrare i risultati e moltissimo altro.
Sul tema degli strumenti da utilizzare è intervenuto Andrea Benedetti, Senior Cloud Architect, Data & AI Engineer di Microsoft. Egli ha sottolineato che per partire da un flusso informativo e arrivare a un risultato di analisi esiste uno strumento che permette di collegarsi alle fonti di dati, analizzarle e trasformarle, visualizzarle, pubblicarle e metterle a disposizione di chi può e deve utilizzarle. Si tratta di una tecnologia gratuita che si chiama Power BI Desktop. È una soluzione Microsoft installabile su qualsiasi PC e decktop. Benedetti ha mostrato come funziona questo strumento partendo dallo scaricare degli open data dal sito ISTAT ottenendone un flusso di lavoro relativo alla ricerca e sviluppo. Sono stati scaricati i dati sugli stanziamenti delle amministrazioni centrali e locali per poi effettuale un’analisi su questi dati mettendo in luce tutte le caratteristiche del Power BI Desktop.
Per concludere è intervenuto Gabriele Maggioni, Head of Data Science & Research di The Adecco Group. Per Adecco il progetto sulla valorizzazione delle competenze è fondamentale, soprattutto adesso che questa realtà non è più soltanto un’agenzia interinale. Il gruppo oggi è infatti strutturato in tre verticali: Il primo si occupa, attraverso filiali sul territorio, di formazione, somministrazione e orientamento nel mondo del lavoro; il secondo “vertical” si occupa di selezione, ricerca per le aziende e outplacement, con percorsi di uscita dalle aziende per i senior manager; il terzo si occupa di consulenza IT, tecnologia ed engineering. Il progetto sviluppato in Adecco, e in generale l’utilizzo dei numeri all’interno dei ragionamenti business, avvalora la loro value proposition, e ciò avviene sia contribuendo a oggettivare ragionamenti «commerciali», sia fornendo autorevolezza, grazie all’utilizzo di standard europei e americani riconosciuti. (es: ESCO, ONET). Per 2 dei 3 verticali, Adecco partendo dalla competenza e collegandola alla dimensione del settore, del segmento, del luogo e del profilo, ha quantificato l’impatto che le skill hanno sul pricing. In un secondo caso d’uso, invece, l’obiettivo di Adecco è stato quello di essere a conoscenza dell’importanza delle competenze per ottenere una valorizzazione consapevole dei relativi servizi formativi da loro offerti. L’intervento si è concluso con alcuni spunti che sono partiti dai progetti prospettici di Adecco. Il primo riguarda l’integrazione dei dati relativi alla quantificazione del valore delle skill all’interno del concetto di Employability, che il gruppo utilizza come guida sul mercato del lavoro. Il secondo, sempre grazie a queste analisi, ma questa volta guardando agli aspetti della consulenza su aspetti molto tecnici offerti da Adecco (come nei casi dell’intelligenza artificiale e del machine learning) il gruppo è in grado di proporre al mercato un prezzo congruo al valore stesso di queste importanti competenze.