Intelligenza artificiale, l’atteggiamento delle aziende

Giampiero Castellotti
15/01/2024
Tempo di lettura: 4 minuti
Robot,working,at,computer,among,people.,maschine,typing,on,keyboard

Come per tutti i cambiamenti epocali, la strada migliore per affrontarli è quella di gestirli al meglio. Sarà così anche per l’intelligenza artificiale, che già è entrata nella nostra quotidianità, ma siamo tutti consapevoli che siamo soltanto all’inizio di una nuova era. Ad esserne coinvolto è anche il mondo imprenditoriale.

“Non si può negare che l’intelligenza artificiale offra immense opportunità per la trasformazione aziendale – spiega Jim Stratton, chief technology officer di Workday, azienda fornitore di applicazioni cloud aziendali per la gestione finanziaria e delle risorse umane. “Tuttavia, una nostra ricerca evidenzia che leader e dipendenti mancano di fiducia e di comprensione delle intenzioni delle loro organizzazioni riguardo all’implementazione dell’intelligenza artificiale sul posto di lavoro. Per ridurre questa mancanza di fiducia, le organizzazioni devono adottare un approccio globale alla responsabilità e alla governance dell’AI, ponendo particolare attenzione al sostegno di politiche che possano aiutare a trovare il giusto equilibrio tra innovazione e fiducia”.

“Gli standard etici nell’uso dell’intelligenza artificiale e del machine learning sono vitali per il successo a lungo termine – aggiunge Dan Cohen, chief information officer e direttore delle operazioni presso The Amenity Collective. “Man mano che introduciamo sempre più tecnologie basate sull’AI, ci concentriamo sulla creazione di rapporti di estrema fiducia con clienti e dipendenti. Il nostro obiettivo è creare una cultura, come pilastro fondante del nostro brand, che adotti l’intelligenza artificiale e consenta ad ogni persona nella nostra azienda di utilizzarla per fare sempre la cosa giusta per i nostri clienti”.

Quando si tratta dell’adozione e dell’implementazione responsabile dell’AI da parte delle organizzazioni, c’è una mancanza di fiducia a tutti i livelli della forza lavoro, in particolare tra i dipendenti. Solo il 62% dei leader accoglie con favore l’adozione dell’intelligenza artificiale nella propria organizzazione – secondo la ricerca di Workday – e la stessa percentuale di leader è fiduciosa che la propria organizzazione ne garantirà un’implementazione responsabile e affidabile. A livello dei dipendenti, questi numeri scendono ulteriormente, rispettivamente al 52% e al 55%.

Vi è anche incertezza, tra dipendenti e leader, sul fatto che la loro organizzazione implementerà l’intelligenza artificiale nel modo giusto. Il 23% dei dipendenti non è sicuro che la propria organizzazione metta gli interessi dei dipendenti al di sopra dei propri quando implementa l’AI, e i leader sono d’accordo: il 21% di questi ultimi dichiara di non essere sicuro che la propria organizzazione porrà al primo posto gli interessi dei dipendenti.

Intervento umano con l’AI

Leader e dipendenti desiderano il coinvolgimento umano nei processi di intelligenza artificiale, ma non hanno ben chiaro il modo migliore per farlo. Il 70% dei leader aziendali concorda sul fatto che l’intelligenza artificiale dovrebbe essere sviluppata in modo da consentire facilmente la revisione e l’intervento umani. Tuttavia il 42% dei dipendenti ritiene che la propria azienda non abbia una chiara comprensione di quali sistemi dovrebbero essere completamente automatizzati e quali richiedono l’intervento umano.

Una precedente ricerca sull’AI commissionata da Workday conferma ulteriormente le preoccupazioni sulle capacità delle aziende d’implementare l’intelligenza artificiale in modo responsabile ed efficace: quasi tre leader su quattro (72%) hanno affermato che la propria organizzazione non ha le competenze per implementare pienamente l’intelligenza artificiale e il machine learning, e una percentuale leggermente più alta (76%) ha affermato che la propria conoscenza delle applicazioni AI e ML necessita di miglioramenti.

Alla domanda di immaginare un futuro in cui l’intelligenza artificiale faccia parte della vita quotidiana, il 42% dei leader e il 36% dei dipendenti citano i quadri organizzativi e la regolamentazione come elementi più importanti per costruire un’AI affidabile.

Tuttavia manca una visione chiara, a livello aziendale, sulla regolamentazione e le linee guida dell’intelligenza artificiale. Tre dipendenti su quattro affermano che la loro organizzazione non sta collaborando alla regolamentazione dell’AI e quattro su cinque affermano che la loro azienda non ha ancora condiviso le linee guida sull’uso responsabile dell’intelligenza artificiale.

Workday ha lanciato questa ricerca in vista del meeting annuale del World Economic Forum, che si tiene a Davos, in Svizzera, fino al 19 gennaio 2024.

I dati del Report provengono dallo studio globale “Closing the AI ​​Trust Gap”, un sondaggio commissionato da Workday e condotto da FT Longitude a novembre e dicembre 2023. Il sondaggio ha coinvolto 1.375 leader aziendali e 4.000 dipendenti in 15 paesi in tre regioni principali: Nord America; Asia-Pacifico e Giappone (APJ); Europa, Medio Oriente e Africa (EMEA). Questa ripartizione rivela una visione completa della gerarchia organizzativa, evidenziando le prospettive della leadership e della popolazione dipendente più ampia.

(immagine Shutterstock – Ludovica Pallotta/Espresso)

Giampiero Castellotti