MILAN, Italy, January 11, 2024 - Workday Inc., (NASDAQ: WDAY), fornitore leader di applicazioni cloud aziendali per lagestione finanziaria e dellerisorse umane, ha pubblicato oggi la sua ultima indagine globale, da cui emerge una mancanza di fiducia nell’Intelligenza Artificiale sul posto di lavoro. I leader aziendali e i dipendenti concordano sul fatto che l’AI offra grandi opportunità per la trasformazione aziendale, tuttavia emerge una certa reticenza nella sua implementazione responsabile, con i dipendenti che manifestano un grado di scetticismo ancora più marcato rispetto ai propri dirigenti.
Tra i risultati principali:
- Solo il 62% dei leader aziendali (C-suite o i loro rapporti diretti) accoglie con favore l'Intelligenza Artificiale. Questo numero è ancora più basso tra i dipendenti (52%).
- Il 23% dei dipendenti non è sicuro che la propria organizzazione metta gli interessi dei dipendenti al di sopra dei propri quando implementa l'AI.
- Il 70% dei leader aziendali concorda sul fatto che l'Intelligenza Artificiale dovrebbe essere sviluppata in modo da consentire facilmente la revisione e l'intervento umani.
- Il 42% dei dipendenti ritiene che la propria azienda non abbia una chiara comprensione di quali sistemi dovrebbero essere completamente automatizzati e quali richiedono l'intervento umano.
- 3 dipendenti su 4 affermano che la propria organizzazione non collabora alla regolamentazione dell'Intelligenza Artificiale.
- 4 dipendenti su 5 affermano che la propria azienda non ha ancora condiviso le linee guida sull'uso responsabile dell'AI.
“Non si può negare che l’intelligenza Artificiale offra immense opportunità per la trasformazione aziendale. Tuttavia, la nostra ricerca evidenzia che leader e dipendenti mancano di fiducia e di comprensione delle intenzioni delle loro organizzazioni riguardo all’implementazione dell’Intelligenza Artificiale sul posto di lavoro”, ha affermato Jim Stratton, Chief Technology Officer di Workday. “Per ridurre questa mancanza di fiducia, le organizzazioni devono adottare un approccio globale alla responsabilità e alla governance dell’AI, ponendo particolare attenzione al sostegno di politiche che possano aiutare a trovare il giusto equilibrio tra innovazione e fiducia”.
“Gli standard etici nell’uso dell’Intelligenza Artificiale e del Machine Learning sono vitali per il successo a lungo termine. Man mano che introduciamo sempre più tecnologie basate sull’AI, ci concentriamo sulla creazione di rapporti di estrema fiducia con clienti e dipendenti”, ha affermato Dan Cohen, Chief Information Officer e Direttore delle operazioni presso The Amenity Collective. “Il nostro obiettivo è creare una cultura, come pilastro fondante del nostro brand, che adotti l’Intelligenza Artificiale e consenta ad ogni persona nella nostra azienda di utilizzarla per fare sempre la cosa giusta per i nostri clienti. Mi congratulo con Workday per l’impegno dimostrato nel comprendere e affrontare il sentiment di leader e dipendenti in modo da poter lavorare per colmare il gap di fiducia nell'Intelligenza Artificiale”.
Mancanza di fiducia a tutti i livelli della forza lavoro Quando si tratta dell'adozione e dell'implementazione responsabile dell'AI da parte delle organizzazioni, c'è una mancanza di fiducia a tutti i livelli della forza lavoro, in particolare tra i dipendenti. Solo il 62% dei leader accoglie con favore l’adozione dell’Intelligenza Artificiale nella propria organizzazione e la stessa percentuale di leader è fiduciosa che la propria organizzazione ne garantirà un’implementazione responsabile e affidabile. A livello dei dipendenti, questi numeri scendono ulteriormente, rispettivamente al 52% e al 55%.
Vi è anche incertezza, tra dipendenti e leader, sul fatto che la loro organizzazione implementerà l’Intelligenza Artificiale nel modo giusto. Il 23% dei dipendenti non è sicuro che la propria organizzazione metta gli interessi dei dipendenti al di sopra dei propri quando implementa l’AI, e i leader sono d’accordo: il 21% di questi ultimi dichiara di non essere sicuro che la propria organizzazione porrà al primo posto gli interessi dei dipendenti.
Intervento umano con l’AI Leader e dipendenti desiderano il coinvolgimento umano nei processi di Intelligenza Artificiale, ma non hanno ben chiaro il modo migliore per farlo. Il 70% dei leader aziendali concorda sul fatto che l’Intelligenza Artificiale dovrebbe essere sviluppata in modo da consentire facilmente la revisione e l’intervento umani. Tuttavia il 42% dei dipendenti ritiene che la propria azienda non abbia una chiara comprensione di quali sistemi dovrebbero essere completamente automatizzati e quali richiedono l’intervento umano.
Una precedente ricerca sull’AI commissionata da Workday conferma ulteriormente le preoccupazioni sulle capacità delle aziende d’implementare l’Intelligenza Artificiale in modo responsabile ed efficace: quasi tre leader su quattro (72%) hanno affermato che la propria organizzazione non ha le competenze per implementare pienamente l’Intelligenza Artificiale e il Machine Learning, e una percentuale leggermente più alta (76%) ha affermato che la propria conoscenza delle applicazioni AI e ML necessita di miglioramenti. Necessità di una Governance Intelligente dell'AI con Trasparenza Alla domanda di immaginare un futuro in cui l’Intelligenza Artificiale faccia parte della vita quotidiana, il 42% dei leader e il 36% dei dipendenti citano i quadri organizzativi e la regolamentazione come elementi più importanti per costruire un’AI affidabile.
Tuttavia manca una visione chiara, a livello aziendale, sulla regolamentazione e le linee guida dell’Intelligenza Artificiale. Tre dipendenti su quattro affermano che la loro organizzazione non sta collaborando alla regolamentazione dell’AI e quattro su cinque affermano che la loro azienda non ha ancora condiviso le linee guida sull’uso responsabile dell’Intelligenza Artificiale.
Workday ha lanciato questa ricerca in vista del meeting annuale del World Economic Forum, che si terrà a Davos, in Svizzera, dal 15 al 19 gennaio 2024.