ADV
HR: Human or Robotic?
L’illusione dell’oggettività. Oltre l’algoritmo
A cura di Antonella Cozzi
L’AI è ovunque: anche nel mondo HR
L’intelligenza artificiale non è più una novità: è diventata la normalità, parte integrante della nostra quotidianità. Dalle campagne di marketing alla diagnostica medica, dai motori di ricerca ai sistemi finanziari, l’AI interviene — silenziosa ma potente — cambiando il modo in cui comunichiamo, lavoriamo e prendiamo decisioni.
Anche il settore delle risorse umane, da sempre più cauto, sta abbracciando questa trasformazione digitale attraverso strumenti di screening automatico, valutazioni predittive, algoritmi che ordinano CV in pochi secondi.
E ora entriamo nel cuore della riflessione, partendo da ciò che troppo spesso l’AI non riesce a cogliere: l’umanità dietro ai dati.
Ciò che l’AI non vede nei candidati
Più studio questi strumenti, più mi accorgo che qualcosa rischia di andare perso. Non nei dati in sé, ma in ciò che i dati non raccontano. In quel dettaglio apparentemente insignificante che parla di tenacia. In un curriculum fuori dagli schemi che esprime intraprendenza. In una voce che trema, ma comunica una sincerità rara.
Diversi articoli pubblicati da Harvard Business Review — tra cui lo studio “Tap the Talent Your Hiring Algorithms Are Missing” — mettono in guardia sui bias presenti nei sistemi di intelligenza artificiale (AI) applicati al recruiting e su come questi possano svantaggiare i candidati con percorsi di carriera non convenzionali o con diversità esperienziale.
Il potenziale non si misura solo con i dati
L’AI è efficace nel fare ciò per cui è programmata. Ma scegliere un candidato non significa solo individuare il più qualificato: significa intravedere un potenziale grezzo, dare credito all’intenzione e non solo alla performance.
Non è l’intelligenza artificiale a preoccuparmi, ma un HR che smette di essere umano: proprio lì dove l’umano dovrebbe essere al centro.
Scrivo questo non per apparire tecnofobica, ma per ricordare che ogni strumento è solo un’estensione della nostra visione. E che, se non coltiviamo quello sguardo sensibile, attento, empatico — nessun algoritmo potrà farlo al posto nostro.
L’idea (pericolosa) di delegare
Quando l’AI prende il posto delle decisioni umane
Oggi molte aziende hanno scelto di affidarsi all’AI per scremare CV, condurre colloqui video, prevedere il rischio di turnover, misurare il livello di engagement. Esistono strumenti che analizzano il tono di voce, la postura, le parole usate. Altri software, applicano modelli psicometrici e machine learning per generare shortlist automatiche.
Queste tecnologie si basano sull’idea che l’AI sia in grado di vedere pattern che sfuggono all’occhio umano. E spesso è vero. Ma qui entra in gioco una domanda cruciale: a cosa stiamo rinunciando quando smettiamo di decidere?
Il rischio di replicare il passato
Delegare significa lasciare che qualcos’altro prenda decisioni al nostro posto. E se quel qualcosa è un sistema addestrato su dati storici, corriamo un rischio: replicare il passato anziché aprirci al nuovo.
L’AI amplifica ciò che trova nei dati di partenza. Se quei dati riflettono discriminazioni pregresse, il sistema le riprodurrà. Così facendo, l’AI rischia di trasformarsi in una lente che distorce l’umanità, invece che valorizzarla. E la distorsione peggiore è proprio quella che non si vede, quella che si nasconde dietro la pretesa di oggettività.
Per questo motivo, come sostiene la letteratura accademica più recente, è fondamentale un monitoraggio continuo degli algoritmi, per identificare e correggere eventuali pregiudizi.
Non si può dare per scontato che un sistema automatico sia neutro: i dati sono sempre figli del contesto sociale in cui sono stati raccolti, spesso segnati da bias storici.
Ma se l’AI ci imita troppo bene?
Il caso Amazon e i pregiudizi appresi
Uno dei casi che ho trovato più emblematici è quello di Amazon. L’azienda, fino a pochi anni fa, aveva sviluppato un sistema di selezione automatica per valutare i CV in ingresso. Dopo mesi, i tecnici scoprirono che penalizzava sistematicamente le candidate donne. Il motivo? I dati storici su cui era addestrato erano dominati da CV maschili. Il sistema aveva “imparato” che essere donna era un fattore negativo.
Amazon ha poi dismesso quel sistema. Ma l’episodio resta un esempio eloquente di quanto l’AI possa amplificare i nostri pregiudizi. E non è un caso isolato.
Quando il riflesso algoritmico è distorto
Il sistema COMPAS, usato per prevedere la recidiva negli USA, penalizza le persone nere. I software di riconoscimento facciale commettono più errori con volti non bianchi. Alcuni algoritmi sanitari sottostimano le esigenze cliniche dei pazienti afroamericani.
Il problema non è solo tecnico. È culturale.
L’AI è uno specchio. E se il nostro riflesso è distorto, anche l’output lo sarà.
L’illusione dell’oggettività algoritmica è pericolosa perché ci fa smettere di verificare. Ogni sistema è figlio del contesto in cui nasce. E quel contesto, oggi, è tutt’altro che neutro.
Per questo è fondamentale garantire trasparenza e spiegabilità nelle decisioni dell’AI. Non solo per capire come vengono prese le decisioni, ma per stimolare un dialogo e offrire la possibilità di contestazioni.
Quattro idee concrete per non finire anestetizzati
Pratiche per restituire complessità al processo decisionale
Come già detto : le tecnologie non sono mai neutre. Ma possiamo decidere come usarle. Ecco tre principi operativi – spesso trascurati – per restituire complessità al processo decisionale, anche quando (e forse soprattutto quando) è supportato dall’AI:
1. Randomizza (sul serio):
Inserisci una variabile casuale nel processo. Sì, davvero. Aggiungi un elemento di sorpresa nella short list. Inserisci un profilo escluso dal ranking automatico. Ti sorprenderà quanto spesso l’eccezione smentisce la regola.
2. Pensa in cerchio, non in scala:
L’AI ama le linee rette, i punteggi, le classifiche. Ma le persone non sono file Excel. Aggiungi loop, feedback, cicli. Rendi la valutazione un percorso, non un giudizio.
3. Invita chi subisce il filtro a capirlo:
Non basta dire che il sistema è trasparente. Bisogna che sia partecipato. Racconta ai candidati come funziona. Invitali a porre domande, a fornire feedback, a contestare.
4. Promuovi la formazione continua sull’AI:
Non basta usare questi strumenti: bisogna capirli, interpretarli, saperli interrogare. Solo così l’intelligenza artificiale può diventare un supporto critico, e non un automatismo cieco. Creare percorsi di alfabetizzazione digitale aiuta le persone a non subire la tecnologia, ma a guidarla.
Finché c’è errore, c’è speranza
L’AI come sfida identitaria, non solo tecnica
La vera sfida dell’intelligenza artificiale non è tecnologica. È identitaria.
Non si tratta solo di introdurre nuovi strumenti, ma di ridefinire i valori che guidano le organizzazioni.
Se le aziende scelgono trasparenza, coinvolgimento, formazione continua e processi non dogmatici, l’AI può diventare un alleato del benessere.
Proteggere l’umano nel margine d’errore
Il pericolo più grande non è perdere il lavoro, ma perdere noi stessi nel modo in cui usiamo l’AI: evitando il dubbio, delegando la fatica, spegnendo l’intuizione.
Eppure, il valore umano nasce proprio lì: nello spazio dell’incertezza, nella domanda che apre possibilità, nell’errore che fa nascere una storia nuova.
Finché c’è margine per l’imprevisto, c’è margine per l’umano.
Tornare al senso del lavoro
Tra i meriti dell’AI c’è sicuramente la possibilità di alleggerire i compiti, migliorare l’efficienza, restituirci tempo libero.
E, come ci ricorda Aristotele — che non era proprio uno qualunque — il fine del lavoro è proprio questo: avere tempo per vivere.
Se le tecnologie possono avvicinarci a questo equilibrio, che ben vengano. Ma senza dimenticare chi siamo, e cosa ci rende umani.
Costruire un futuro in cui persone e algoritmi collaborano in modo etico, trasparente e responsabile significa proteggere quel margine.
Perché è lì che nasce il senso.
È il frammento di futuro che l’algoritmo non aveva previsto.
***
Questo articolo è offerto da:
altri articoli di questo autore
Risorse aggiuntive
Potrebbero interessarti questi libri:
- [Book + Intervista] Alessandra Lazazzara e Stefano Za – Intelligenza Artificiale nei Processi HR. Una gestione aumentata del personale – Franco Angeli, 2025
- [Book + Intervista] Anna Rado, Alberto Giusti AI per HR Come l’intelligenza artificiale sta rivoluzionando le Risorse Umane e il futuro del lavoro – Brè, 2025
- [Book + Intervista] Ruben Razzante – L’algoritmo dell’uguaglianza
Intelligenza Artificiale, diritti della persona, crescita delle imprese – Franco Angeli, 2025
Potrebbero interessarti anche questi articoli
- AI: Assistente, Consulente o Burattinaio? Il Confine tra Delega e Controllo
- Intelligenza Artificiale in Azienda: spunti e consigli operativi
- Intelligenza Artificiale sul posto di lavoro: i risultati della Survey
- “IO & CATERINA”- sarà la S(volta) buona? | Marika Lupi
- IA, Video Game e Gamification nei Processi HRM | Domenico Piccininno
- Quale sarà l’Impatto dell’IA sul Lavoro nei Prossimi 5 Anni? | Massimo Bianca
- Digital4Human: innovare la Gestione HR
Per approfondire da fonti esterne:
- HRB “Tap the Talent Your Hiring Algorithms Are Missing”
- HRB – What Do We Do About the Biases in AI? – James Manyika, Jake Silberg and Brittany Presten
- HRB – Ethics and AI: 3 Conversations Companies Need to Have – Reid Blackman and Beena Ammanath
- Harvard Business School – “Hidden Workers: Untapped Talent”
FAQ
[clicca sulla domanda per visualizzare la risposta]
Perché l’intelligenza artificiale non può sostituire completamente l’intuito umano nelle risorse umane?
L’intelligenza artificiale è efficace nell’elaborare dati strutturati, ma fatica a cogliere sfumature emotive, intuizioni e potenzialità che emergono da percorsi non convenzionali. Il giudizio umano resta insostituibile quando si tratta di valutare elementi qualitativi come sincerità, resilienza o capacità di adattamento.
Quali sono i rischi di affidare i processi HR esclusivamente all’intelligenza artificiale?
I principali rischi includono la riproduzione di bias storici, la perdita di diversità nei team, decisioni impersonali e l’illusione di un’oggettività inesistente. L’AI riflette il contesto in cui è stata addestrata, quindi può replicare discriminazioni preesistenti se non correttamente monitorata.
Cos’è l’approccio “Human-in-the-loop” e perché è importante in ambito HR?
È un modello decisionale in cui l’intelligenza artificiale affianca, ma non sostituisce, il giudizio umano. Serve a garantire trasparenza, responsabilità e capacità critica, riducendo il rischio di automatismi ciechi. In HR, questo significa scelte più inclusive e riflessive.
In che modo l’AI può penalizzare i candidati “non convenzionali”?
Molti algoritmi vengono addestrati su dati storici che premiano profili standardizzati. Ciò porta a scartare automaticamente CV con esperienze atipiche, che potrebbero però nascondere un alto potenziale. L’intelligenza artificiale, così, rischia di premiare la conformità a scapito dell’innovazione.
Quali strategie possono rendere l’uso dell’AI più etico e consapevole nei processi di selezione?
Le strategie includono: inserire variabili casuali nella selezione, creare processi circolari con feedback continui, coinvolgere i candidati nella comprensione dei meccanismi decisionali e promuovere percorsi di formazione sull’uso dell’AI. Così si stimola una cultura della riflessione e dell’equità.
Glossario
-
Intelligenza Artificiale (AI): Tecnologia che simula l’intelligenza umana attraverso sistemi informatici capaci di apprendere, ragionare e prendere decisioni.
-
Bias algoritmico: Pregiudizio involontario nei risultati prodotti da un algoritmo, causato da dati di addestramento distorti o non rappresentativi.
-
Human-in-the-loop: Modello decisionale in cui l’intervento umano è integrato nei processi automatizzati per aumentarne trasparenza e qualità.
-
Machine Learning: Metodo di apprendimento automatico che consente ai sistemi di migliorare le proprie prestazioni analizzando grandi quantità di dati.
-
Shortlist automatica: Lista di candidati selezionati generata automaticamente da un software in base a criteri predeterminati.
-
Psicometria: Disciplina che misura abilità mentali e caratteristiche psicologiche attraverso test standardizzati.
-
Spiegabilità algoritmica (Explainability): Capacità di un sistema AI di rendere comprensibile all’utente il processo decisionale seguito.
HR: Human or Robotic? – L’illusione dell’oggettività. Oltre l’algoritmo
Sintesi
L’articolo riflette sull’utilizzo crescente dell’intelligenza artificiale nel settore HR, sottolineando i rischi di un’automazione acritica dei processi decisionali. L’autrice mette in luce come gli algoritmi possano perpetuare bias storici, penalizzando percorsi non convenzionali e diversità esperienziale. Viene criticata l’idea di delegare totalmente il giudizio all’AI, evidenziando l’importanza di un approccio “Human-in-the-loop”, dove l’elemento umano resta centrale. Si propone un uso più consapevole dell’AI, valorizzando il dubbio, la lentezza riflessiva e la trasparenza nei processi. In conclusione, l’intelligenza artificiale può essere un’alleata se utilizzata con senso critico, formazione continua e visione etica.