“AI” già pensato ai rischi pregiudiziali dei sistemi generativi in ambito HR?

Abstract:
L’Intelligenza Artificiale ha ormai pervaso qualsiasi settore e continua ad evolversi per sviluppare nuove modalità di applicazione. Nell’HR ha già preso piede per l’esaminazione dei candidati attraverso dei modelli statistici. Questi, però, si basano su dati reali, influenzati dalla naturale inefficienza umana. Se le persone esprimono le preferenze sulla base di pregiudizi, anche l’Intelligenza Artificiale, frutto dell’ingegno umano, ragiona seguendo la fotografia della società odierna. Tuttavia, per la statistica contano solo i grandi numeri.

Oggi si parla molto delle diverse applicazioni dell’Intelligenza Artificiale (AI) ed in particolar modo dei sistemi cosiddetti generativi (GenAI) come ChatGPT o Bard. Si cercano usi in qualunque campo della conoscenza e le risorse umane sono certamente uno di questi. Digital Punk ha già incontrato più di una realtà, o una specificamente progettata per fare una valutazione dei programmatori. Il sistema genera degli “esercizi” per i candidati, che devono scrivere del codice poi esaminato dal motore di AI. Al termine del processo vengono forniti dei parametri di valutazione sia sull’efficienza della persona che sul suo stile di programmazione: orientato a lavorare in team, facile da manutenere, di veloce esecuzione, ecc.

Più recentemente abbiamo incrociato un’altra soluzione che promette di valutare l’indole dei candidati riconoscendo come digitano le risposte ad alcune domande, ed un’altra ancora che si propone lo stesso risultato ma esaminando video-presentazioni. Sebbene sia presto per dare delle valutazioni ponderate sull’efficacia di queste applicazioni, non lo è per fermarsi a pensare sui possibili rischi legati alla tecnologia.

Cos’è la GenAI? Secondo la definizione di Wikipedia “è un tipo di Intelligenza Artificiale che è in grado di generare testo, immagini, video, musica o altri media in risposta a delle richieste dette prompt. I sistemi di Intelligenza Artificiale generativa utilizzano modelli generativi, che sono modelli statistici di una distribuzione congiunta di una variabile osservabile e di una variabile dipendente, che nel contesto del data mining è detta variabile target.” Detto in maniera più semplice (e anche semplificata) si tratta di sistemi che analizzano una mole di informazioni già presenti e da essa deducono delle regole per giungere a delle conclusioni. Ad esempio posso dare loro in pasto migliaia di foto di gatti e di cani, specificando quali animali siano, e la GenAI impara a riconoscerli sviluppando dei propri criteri. Non è difficile immaginare di fare la stessa cosa per i selezionatori, partendo da curriculum (o altri dati di input) ed una base dati di lavoratori efficienti, far generare loro una capacità di indicare i profili più consoni per una certa posizione.

È già stato fatto con risultati deludenti, non solo per l’efficacia, ma perché i sistemi si sono dimostrati sessisti. In sostanza per molte posizioni venivano prediletti gli uomini rispetto alle donne. Si tratta quindi non solo di un mero rischio, ma alla luce dei fatti, di una realtà, le cui cause si possono ricondurre a mio avviso a due macro-motivazioni. Primo, i sistemi generativi si basano su basi dati esistenti, ed oggi la forza lavoro ha già molte discriminazioni sia a livello culturale (“badante”? pensi ad una signora dell’est) sia nelle numeriche (le badanti sono perlopiù signore dell’est). Ora in alcuni casi la correlazione caratteristica-statistica può essere accettabile: cerco una giocatrice di pallacanestro? La maggior parte di quelle di successo sono alte, la cerco anche io alta (ma esistono anche atleti formidabili e di talento di statura inferiore). Il fatto che la maggior parte dei manager di successo siano uomini e bianchi non implica che siano intrinsecamente o geneticamente meglio delle donne o delle persone di etnie diverse. Solamente perché ad oggi sono quelli che in maggioranza rivestono quelle posizioni e quindi numericamente più significativi. I migliori studenti delle università facoltose sono figli di ricchi, ciò non perché i figli delle classi medie o meno agiate siano meno intelligenti, ma solo perché numericamente solo in pochi riescono ad accedere ad un’istruzione di elite e questo ha un diretto impatto sulla statistica. Ed il problema non è solo in campo HR, o di evoluzione della tecnologia, visto che in un altro recente esperimento i robot con l’intelligenza artificiale si sono dimostrati sessisti e razzisti.   Pregiudizi che sono già, purtroppo, umani, ma che con l’IA possono addirittura peggiorare. Già, perché mentre si spera che l’umanità sviluppi cultura e mentalità più aperte, gli algoritmi dei computer tendono ad amplificare ogni relazione effetto-causa (pensiamo solo alle bolle informative di oggi) con il rischio che se oggi i manager uomo bianco sono la maggioranza, per i computer potrebbero diventare quasi l’unica tipologia.

A cura di Paolo Pelloni, Digital Punk