C’è un nuovo spettro che si aggira negli uffici, nei tribunali del lavoro, nelle scuole e nei servizi clienti. Non si tratta di un sindacato particolarmente agguerrito o di una nuova ondata di scioperi, ma di qualcosa (o meglio, qualcuno) di ben più pervasivo, instancabile e sorprendentemente convincente: l’intelligenza artificiale.
Negli ultimi mesi, un numero crescente di datori di lavoro, avvocati, membri di consigli scolastici e responsabili delle risorse umane ha notato un fenomeno curioso e, per certi versi, allarmante. Una valanga di lettere di reclamo dettagliate, ben scritte, dense di riferimenti giuridici, e soprattutto generate in tempi sorprendentemente rapidi. Il sospetto – ormai quasi certezza – è che queste comunicazioni non siano più frutto della penna di un lavoratore scontento, ma della tastiera invisibile di un chatbot.
I reclami non dormono mai
A raccontare questo cambiamento è Sarah Harrop, partner in uno studio legale londinese specializzato in diritto del lavoro. “Abbiamo notato un’impennata di lettere molto più articolate e strutturate rispetto al passato”, spiega. “Il linguaggio è formale, i riferimenti normativi sono numerosi – anche se non sempre accurati – e la mole di documenti che giungono ai tribunali è diventata ingestibile”. In alcuni casi si parla di dozzine di email inviate nel giro di pochi giorni, una mole impossibile da produrre senza l’ausilio di un assistente artificiale.
Non si tratta solo di un aumento quantitativo, ma qualitativo. Le lettere sono ben formattate, persuasive, e spesso scritte in un linguaggio tecnico-giuridico che inganna facilmente anche l’occhio più esperto. L’AI sembra avere imparato non solo a scrivere correttamente, ma anche a indignarsi con stile.
Dall’ufficio alla scuola: la protesta automatizzata
Il fenomeno, racconta il Financial Times, non si limita agli ambienti di lavoro. Anche in contesti educativi, come i consigli scolastici, si assiste a una crescita esponenziale di reclami generati (o almeno co-redatti) da strumenti di AI. Genitori esasperati o semplicemente desiderosi di far valere i propri diritti hanno trovato in ChatGPT e simili un alleato instancabile e sorprendentemente abile nell’arte della lamentela. “Negli ultimi 18 mesi abbiamo ricevuto lettere dai toni accorati e piene di riferimenti legali. All’apparenza sono documenti inoppugnabili, anche se poi spesso si rivelano privi di fondamento”, racconta un membro di un consiglio scolastico.
L’AI come spada a doppio taglio
Il problema, ovviamente, non sta nell’uso dell’AI in sé, ma nel suo abuso. Un reclamo ben argomentato può rappresentare un importante strumento di giustizia, soprattutto per chi non ha le competenze o le risorse per redigerlo da solo. Ma quando le lamentele diventano automatizzate, ripetitive e potenzialmente fuorvianti, il sistema rischia il collasso. Le risorse umane, i legali e i dipartimenti pubblici si trovano sommersi da un flusso continuo di contenuti difficili da ignorare ma spesso inconsistenti. Con conseguenze economiche e operative pesantissime.
Come racconta Pilita Clark nel suo articolo, basta fare una prova: chiedere a un sito di AI di scrivere un reclamo sulla sproporzione tra bagni maschili e femminili in un ufficio. In pochi secondi, il sistema sforna una lettera impeccabile, che parla di discriminazione di genere, impatto sull’immagine aziendale e violazione delle norme sull’equità. Il risultato? Una lamentela tecnicamente ineccepibile, anche se nata da un dettaglio marginale.
Quando anche le risposte sono automatizzate
Il vero paradosso è che questa ondata di reclami potrebbe spingere anche chi li riceve ad affidarsi all’AI per rispondere. Si prospetta uno scenario da commedia distopica: chatbot che litigano tra loro a colpi di riferimenti normativi, mentre gli esseri umani aspettano il verdetto finale. Una prospettiva esilarante, finché non ci si rende conto che è molto meno irreale di quanto sembri.
“Non credo arriveremo mai al punto in cui lasceremo ai bot il compito di scontrarsi tra loro e comunicarci l’esito,” scrive Clark con una punta d’ironia. “Ma possiamo davvero esserne certi?”
Verso un’etica dell’AI nella comunicazione
A fronte di questa nuova realtà, diventa urgente avviare una riflessione sull’uso responsabile dell’intelligenza artificiale nella sfera comunicativa. Serve trasparenza: i documenti redatti da AI dovrebbero poter essere identificati facilmente, proprio come oggi segnaliamo l’uso di software per la traduzione automatica. Serve anche formazione, perché chi riceve questi testi – dai giudici del lavoro agli insegnanti – deve poter riconoscere una “bufala” algoritmica prima di sprecarci tempo ed energie.
Infine, serve equilibrio. L’AI può essere un alleato per far valere i propri diritti, ma non può trasformarsi in un’arma di dissuasione o di vendetta automatica. Se non vogliamo che i conflitti diventino semplici simulazioni fra algoritmi litigiosi, dobbiamo recuperare il valore del confronto umano, fatto di ascolto, empatia e – perché no – anche di buonsenso.