Negli ultimi mesi, sempre più imprese hanno iniziato a integrare l’intelligenza artificiale generativa nei propri processi interni. Non solo per il marketing o la stesura di documenti tecnici: oggi si affida a ChatGPT (o simili) la redazione di contratti di lavoro, risposte a quesiti dei dipendenti e persino la gestione di processi HR che dovrebbero essere delicati, umani e calibrati sul contesto aziendale.
Il risultato? Una sensazione diffusa che definire “disumanizzazione aziendale” non è poi così esagerato.
Dal “fai una brochure” al “fai una policy HR”
La parabola è chiara: prima si usava l’AI per scrivere una presentazione, poi un testo creativo, e oggi sempre più manager pensano di risparmiare tempo anche in ambiti strategici e sensibili. Redigere una policy interna sulla flessibilità lavorativa? Basta chiedere a ChatGPT. Scrivere un contratto per un neoassunto? L’AI fa copia-incolla da template globali. Rispondere a una richiesta delicata su ferie, malattia o smart working? Una bella frase preconfezionata, tanto per “essere consistenti”.
Peccato che l’AI sia stata addestrata su regole, normative e best practice che non sempre hanno nulla a che vedere con la legislazione locale, la cultura aziendale o i bisogni concreti delle persone.
Il falso mito dell’efficienza
Le aziende si illudono di guadagnare efficienza: l’AI risponde veloce, scrive in modo ordinato, non si distrae, non chiede aumenti e non si ammala. Ma a ben vedere, questa velocità rischia di produrre più danni che benefici se non integrata con percorsi decisionali e un tocco 'human' dei responsabili HR.
Un contratto scritto da ChatGPT può contenere clausole illegali nel paese in cui operi. Una policy sulle ferie copiata da modelli americani rischia di essere ridicola se applicata in Italia. Una risposta standardizzata a un dipendente in difficoltà può sembrare disumana, se non addirittura offensiva.
HR: Human o Robot Resources?
Le risorse umane si chiamano così perché richiedono sensibilità, capacità di interpretare contesti, leggere situazioni e ascoltare le persone. La gestione dei conflitti, il supporto a chi rientra da un periodo difficile, l’onboarding di un nuovo collega: tutto questo non può essere affidato a un algoritmo.
Il rischio è che le aziende, nell’ansia di ottimizzare e tagliare costi, scivolino verso un modello in cui l’HR diventa un “call center automatizzato”, incapace di generare fiducia o di rappresentare la voce umana dell’organizzazione.
Le regole degli altri non sono le tue
Un altro problema strutturale è che ChatGPT, per quanto potente, non conosce i dettagli della tua azienda. Non conosce i tuoi valori, la tua contrattazione interna, il tuo clima organizzativo. Può attingere a un immenso archivio di testi, ma difficilmente restituirà una risposta allineata alle specificità locali.
Questo porta a una contraddizione lampante: mentre si parla di personalizzazione, cultura aziendale, engagement dei talenti, si affidano processi cruciali a un sistema che replica generalizzazioni e normative scritte altrove.
Una nuova forma di disumanizzazione
Non si tratta di demonizzare l’AI. Può essere utile come supporto, come strumento di brainstorming o come spunto per strutturare un documento. Il problema nasce quando si confonde lo strumento con la soluzione finale.
Un’azienda che risponde ai propri dipendenti con testi scritti dall’AI, senza revisione né contestualizzazione, comunica un messaggio chiaro: non abbiamo tempo per ascoltarti. Sei un numero, una casella da spuntare, un problema da processare con rapidità.
In un mondo del lavoro già segnato da burnout, ansia da prestazione e ricerca di autenticità, la delega cieca all’AI rischia di amplificare la distanza tra lavoratori e azienda.
Conclusione: l’HR è un mestiere umano
La tecnologia avanza, ed è giusto sfruttarla. Ma l’HR non può ridursi a un chatbot. Dietro ogni contratto c’è una persona che investe parte della sua vita nell’azienda. Dietro ogni policy c’è un equilibrio tra diritti, doveri e cultura organizzativa. Dietro ogni richiesta c’è un essere umano con aspettative, fragilità e speranze.
Se delegare a ChatGPT il compito di scrivere una presentazione è efficiente, affidargli la gestione delle persone è semplicemente miope. L’illusione di efficienza non giustifica la perdita di senso e di empatia. Perché un giorno, quando i dipendenti cominceranno a sentirsi trattati da numeri generati da un algoritmo, non basterà un prompt per convincerli a restare.