Un algoritmo per selezionare il miglior candidato da assumere, promuovere il miglior dipendente, costruire il team più efficiente, individuare il lavoratore improduttivo. Magari anche elaborando i like ad una marca di patatine fritte digitati su Facebook o le coordinate residenziali che segmentano i quartieri, e le relative appartenenze etniche, di una determinata città.
Benvenuti nel mondo del lavoro al tempo di “big data”, dove «il codice è la legge» (copyright del guru di Harward, Lawrence Lessing) e il presente e il futuro di un operaio o di un impiegato possono essere decisi combinando enormi volumi di dati (anche personali, commerciali, geografici e comportamentali) provenienti da internet, social network, telefoni cellulari, navigatori satellitari… Uno schema che in teoria potrebbe ridurre al minimo le variabili soggettive e i pregiudizi nei rapporti di lavoro – perché un numero dovrebbe essere più imparziale delle eventuali simpatie o antipatie di un datore di lavoro o di un capo – ma che invece spalanca le porte a rischi di discriminazione molto più raffinati e impalpabili.
Non è la versione 4.0 di un film di Ken Loach, ma una realtà che negli Stati Uniti ha già preso piede da tempo e che è sbarcata in Europa dove, non a caso, Bruxelles è corsa ai ripari con il Regolamento che verrà applicato nel nuovo anno (per l’esattezza dal 25 maggio 2018) e che aggiornerà e una Direttiva (la 46 del 1995, praticamente la preistoria dell’era digitale e delle dot-com) per la tutela dagli abusi nello sfruttamento dei dati personali. La materia prima più preziosa dell’economia moderna.
Il nuovo Regolamento, che in Italia dovrà interagire con le norme sulla privacy e con il Jobs Act, pur riconoscendo l’importanza (e le potenzialità positive) di “big data”, fissa dei paletti rigorosi, vietando ad esempio la valutazione della personalità degli individui e rafforzando le norme sul consenso all’utilizzo dei dati, la revoca del consenso, il diritto di rettifica e quello all’oblio. «L’automatizzazione spinta che caratterizza certe pratiche – scrive Emanuele Dagnino, ricercatore di Adapt, in uno studio approfondito sulla “People Analytics” – e che interessa non solo la fase di analisi dei dati ma sempre più anche quella decisionale e gestionale, sembra poter produrre un rischio di de-umanizzazione del lavoro. Le informazioni potrebbero essere utilizzate per capire fino a che punto è possibile “spremere” un dipendente o per selezionare solo i dipendenti che si prestino ai più elevati standard di performance, escludendo così tutti quei lavoratori che per condizioni soggettive (tanto di salute, quanto educative e formative) non siano in grado di rispettare tali standard o ancora individuare quei lavoratori che potranno soffrire in futuro di determinate patologie così da evitare di assumerli o promuoverli». Il Regolamento europeo dovrà scongiurare questi rischi, ma quanto già successo concretamente negli Stati Uniti (dove, ad onor del vero, le norme di tutela sono meno rigorose) dimostra che le aziende sono in grado, con dolo o involontariamente, di costruire modelli, codici e algoritmi che apparentemente neutrali e in regola, nascondo in realtà meccanismi discriminatori. È un po’ come la storia del doping, con la rincorsa dell’antidoping sempre un passo indietro rispetto ai progressi della chimica proibita.
I casi “di scuola” sono tanti e, quasi sempre, si riferiscono a rilevazioni statistiche all’apparenza banali (e non vietate dalle norme) ma che, se inserite in un algoritmo, si trasformano in strumenti di discriminazione: così, un’indagine sulle preferenze alimentari fornirebbe elementi sulla produttività di un lavoratore (P.T.Kim in “Data-Driven Discrimination” sostiene che sussiste una correlazione statistica tra mettere un like su Facebook alle curly fries – patatine fritte – e l’intelligenza di una persona), o allo stesso modo l’utilizzo del Codice di avviamento postale escluderebbe candidati all’assunzione di una certa origine etnica. «Le modalità di funzionamento degli algoritmi sono spesso oscure e pococomprensibili agli stessi addetti ai lavori – spiega ancora Dagnino – senza contare che questi servizi sono forniti da società che sottopongono i loro modelli a regimi di segretezza». Ecco perché il Regolamento europeo si focalizza sulla fase di design degli algoritmi, con l’obiettivo di evitare decisioni automatizzate discriminatorie. «Il fine della People Analytics dovrebbe essere, certo, quello di un miglioramento produttivo. Ma anche delle condizioni dei lavoratori», sostiene Dagnino che, in questo senso, auspica il coinvolgimento dei sindacati nella strutturazione degli algoritmi.
«È un fenomeno inquietante e il sindacato deve essere in prima fila – ammette Massimo Bonini, segretario generale della Cgil di Milano, impegnato da sempre per la tutela dei lavoratori nell’era digitale -. Penso soprattutto alle multinazionali, dove il nostro ruolo è in salita. L’uso dei social network rende tutto più complicato, perché sfuggono a regolazioni o vincoli. Bisognerà inoltre vedere come ogni singolo Stato si adeguerà al Regolamento europeo vista la transnazionalità di molte aziende. Noi, comunque, siamo pronti alla sfida». Perché il codice sarà pure legge, ma lo sono ancor di più i diritti e la dignità dei lavoratori.
Repubblica – 26 ottobre 2017