di Francesco Paolo Capone, Segretario Generale UGL
Riprendendo il filo del discorso delle sfide che, come UGL, abbiamo scelto di accettare e di lanciare a noi stessi, perché non siamo un sindacato che si crogiola nel passato né guarda il mondo dallo specchietto retrovisore, va segnalato un importante approfondimento de Il Sole 24 Ore di oggi dedicato all’Intelligenza artificiale e ad un suo utilizzo: nella selezione del personale.
Si tratta di un “classico” esempio di come l’Ia sia in grado di svolgere compiti con una velocità e una precisione che superano le capacità umane. Per il Politecnico di Milano il 34% delle aziende fa ricorso all’Ia generativa ovvero quella che utilizza algoritmi di machine learning (cioè, di “apprendimento automatico”, come ChatGpt per intenderci), per generare nuovi contenuti basati sulla creatività, che possono essere testi, audio, immagini, video e codice informatico. L’area della ricerca e selezione del personale è la più interessata a tale tecnologia, utilizzata per fare uno screening dei curriculum con sistemi predittivi, cioè che arrivano a fare una “migliore” valutazione di quello che potrebbe accadere in futuro. L’Ia viene utilizzata, ad esempio, anche da agenzie per il lavoro come supporto ai selezionatori oppure per creare curricula, con strumenti gratuiti per personalizzare i cv in più lingue.
Si potrebbe, qui, immaginare uno scenario positivo in termini di meritocrazia e di valutazione dell’eventuale candidata e candidato, lasciando fuori, cioè, valutazioni e influenze di tipo personale o “amicale”, per intenderci. Ne siamo sicuri? No, infatti nello stesso articolo si evidenzia come la selezione del personale – e, in generale, la gestione delle risorse umane – sia uno di quei settori in cui il ricorso all’IA è considerato ad «alto rischio di violazioni dei diritti della persona dal regolamento europeo (Ai Act)», non solo perché, come impone l’Ai Act, è sempre necessaria la supervisione umana, ma perché l’Ia può replicare, se non amplificare, errori umani. Dietro a qualsiasi utilizzo dell’Ia, c’è sempre l’essere umano e, dunque, il rischio è che l’Ia amplifichi discriminazioni e pregiudizi, nei dati con cui viene aggiornata, che potrebbero rispecchiare, ad esempio, scelte che prediligono gli uomini in determinate posizioni o le donne in altre.
L’Ia è e resta uno strumento nelle mani di chi la utilizza, bias (cioè, distorsioni) comprese, perché, come opportunamente evidenzia l’articolo, la supervisione, non solo per legge, è sempre umana, ma perché l’automatizzazione funge da veicolo più efficace e veloce, anche quando si sbaglia. Su tutto ciò il sindacato è chiamato a vigilare, affinché il “quid” umano nel valutare una persona o nel presentarsi a un selezionatore resti insostituibile.