Rischio di discriminazione algoritmica

Il rischio di discriminazione algoritmica

L’impatto delle decisioni automatizzate sulle libertà fondamentali degli individui: il problema del rischio di discriminazione algoritmica

 

Inquadramento: cos’è il rischio di discriminazione algoritmica?

Come è ormai evidente nella realtà empirica, l’uso di algoritmi elaborati tramite logiche di intelligenza artificiale per prendere decisioni automatiche o semiautomatiche si sta esponenzialmente diffondendo in molti ambiti della vita umana.  Infatti, gli strumenti che implementano questa tecnologia vengono impiegati ampiamente, oltre che nella ricerca scientifica, anche in settori come l’istruzione, la sanità ed il mercato del lavoro[1].

Si può essere d’accordo con l’affermazione per cui gli algoritmi – in particolare gli algoritmi di nuova generazione definiti di machine learning[2] – siano utili alla semplificazione e razionalizzazione dei processi e decisioni che gravano sulle spalle dell’individuo. Essi permettono di valutare grandi quantità di dati in tempi brevissimi limitando al contempo l’arbitrarietà dei decisori umani e migliorando la precisione e la qualità delle valutazioni, il tutto ad un costo molto inferiore[3].

Tuttavia questi risultati, al pari di quelli umani, possono avere un impatto sui diritti e le libertà dell’individuo. Per questa ragione implicano una serie di problematiche che, se trascurate, rischiano di amplificare anziché ridurre le discriminazioni presenti nella realtà odierna.

In questo quadro si inserisce il fenomeno del rischio di discriminazione algoritmica. Esso si fonda sulla constatazione che questi strumenti tecnologici possono avere un impatto negativo sui diritti fondamentali se non vengono adeguatamente regolati, poiché rischiano, ogni volta che i dati da cui apprendono sono incompleti o non corretti, di trasporre su modelli automatizzati di larga scala[4] le discriminazioni presenti nelle società.

 

In cosa consiste il rischio di discriminazione algoritmica?

La discriminazione algoritmica si realizza, come già sottolineato, quando nei sistemi di A.I. alcuni errori sistematici e ripetibili distorcono l’elaborazione dei risultati generando output discriminatori. A questo proposito, occorre evidenziare che gli algoritmi, pur essendo strumenti neutrali che si basano su calcoli oggettivi e razionali, sono comunque progettati da esseri umani e producono risultati sui dati da essi forniti. Per questo motivo è fondamentale la qualità dei dataset utilizzati, che devono essere sufficientemente completi e ampi da non ricreare i pregiudizi e le discriminazioni presenti nella realtà sociale.

Da questi bias si possono generare diversi tipi di discriminazione[5]. Ad esempio, le c.d. distorsioni del passato, che si realizzano quando i dati di input sono distorti per un particolare motivo, come il caso di un algoritmo di screening di curricula che si nutre di dati con un bias di genere.

Oppure, bias di correlazione (anche detto proxy discrimination), che si realizza quando avviene la correlazione di diversi insiemi di dati da parte di un algoritmo, come ad esempio associare il genere a una minore produttività a lavoro, non a causa di una relazione causale ma per un pregiudizio sociale (ad esempio, storicamente le donne sono state valutate negativamente rispetto agli uomini a parità di prestazione).

In base alla logica garbace in – garbage out, infatti, dati inesatti o non aggiornati non possono produrre altro che risultati inaffidabili. Nell’ambito del lavoro su piattaforme digitali, per esempio, è il caso del già citato Deliveroo, il cui algoritmo Frank adottava un sistema di profilazione dei riders altamente discriminatorio dal punto di vista dei parametri relativi alle cause di assenza da lavoro[6].

 

Come si inserisce nell’ambito del diritto antidiscriminatorio?

Inizialmente, la preoccupazione relativa all’utilizzo di sistemi di A.I. si è focalizzata sulla violazione di diritti specifici che possono derivare dall’utilizzo di tecnologie automatizzate, come ad esempio il diritto alla tutela della privacy e riservatezza[7].

Tuttavia, poco più tardi si è delineato il problema specifico del rischio di discriminazione algoritmica.

Nel nostro ordinamento, il divieto di discriminazione “classico” si configura come corollario del principio di uguaglianza, enunciato all’Art. 3 della Costituzione[8], nella parte prima riferita proprio ai principi fondamentali dell’ordinamento.

È a livello europeo che tale divieto acquisisce la connotazione specifica indagata in questa trattazione. Negli ultimi anni sono stati realizzati da parte delle istituzioni europee una serie di documenti che affrontano il tema del rischio di discriminazione algoritmica, fra i quali i più rilevanti sono:

  • il Libro Bianco della Commissione Europea[9] e
  • la recente Proposta di Regolamento sull’AI[10].

 

La discriminazione può consistere in due comportamenti differenti[11]: può essere diretta o indiretta. Per discriminazione diretta si intende il caso in cui una persona è trattata in un modo meno favorevole rispetto ad un’altra persona in una situazione comparabile, a titolo esemplificativo per ragioni quali sesso, razza, etnia, religione, orientamento sessuale, età e disabilità. Si definisce discriminazione indiretta invece la situazione in cui un criterio o una pratica apparentemente neutri mettono una persona in una posizione di svantaggio rispetto agli altri. Questa seconda tipologia è molto più sottile poiché può essere messa in atto in modo involontario e, proprio per questo motivo, può essere più difficile da individuare.

 

Alcuni esempi di discriminazione algoritmica

A questo riguardo, è utile citare alcuni esempi reali accaduti nell’ambito del lavoro su piattaforme digitali, che hanno evidenziato la presenza di discriminazioni indirette per quanto riguarda l’impiego di modelli di A.I. nell’ambito del lavoro.

Ad esempio, considerando Uber[12], la retribuzione dei lavoratori viene calcolata da un algoritmo che individua la somma utilizzando criteri come il tasso di disponibilità e la valutazione dei clienti; entrambi questi criteri possono essere soggetti a distorsioni a causa di stereotipi che creano disuguaglianza. Nell’esempio citato, il pregiudizio diffuso della non affidabilità delle donne al volante influenzava in una certa misura i clienti nella valutazione della loro guida e quindi determinava svantaggi nel calcolo delle loro retribuzioni.

Un secondo esempio riguarda le discriminazioni in fase di selezione: l’algoritmo usato da Amazon esaminava e classificava i dipendenti tramite un set di dati di addestramento che presentava i profili dei dipendenti assunti in passato. Sebbene il genere o l’etnia non facessero parte dell’insieme di variabili inserite nel modello, l’algoritmo  autonomamente correlava (proxy discrimination) queste caratteristiche alle prestazioni dei candidati. In conclusione, i dati finivano per riflettere le discriminazioni sociali presenti nel contesto sociale e amplificarle su un grande numero di individui[13].

 

Conclusioni: è possibile superare il rischio di discriminazione algoritmica?

Come è stato spesso affermato nella presente trattazione, l’alert è rivolto in via principale ai lavori in fase di programmazione ed elaborazione dei data set: gli algoritmi di A.I., se programmati correttamente, sono in grado di elaborare risultati efficienti concretamente in grado di semplificare i processi umani. Il problema sta nel cogliere i malfunzionamenti strutturali di questi sistemi non sempre facilmente visibili all’operatore, in quanto il rischio di discriminazione algoritmica si riferisce a pregiudizi e credenze che sono spesso radicate nel contesto sociale e sono individuabili solamente a seguito di un’attenta analisi imparziale ed informata.

La soluzione, dunque, potrebbe essere focalizzare l’attenzione sul lavoro umano di programmazione a monte e sul controllo degli output risultanti a valle.

A questo riguardo, la strategia UE si è dotata di un forte armamentario di cui la proposta di regolamento sull’A.I. è solo l’ultimo tassello in ordine temporale. Ad esempio, già in una comunicazione della Commissione europea del 2019 “creare fiducia nell’intelligenza artificiale antropocentrica[14], veniva definito indispensabile l’intervento e la sorveglianza umana sui processi algoritmici come paradigma di riferimento per garantire un clima di fiducia e sicurezza nei confronti dell’A.I. e prevederne i risultati imprevisti.

In conclusione, il fine da raggiungere è la trasparenza, che si declina sia nella comprensibilità degli algoritmi più complessi agli individui, di modo da permetterne la supervisione; sia al fine di poter determinare le responsabilità in caso di problematiche. Se questi due requisiti sono presenti l’inevitabile corollario è la creazione di un clima di fiducia da parte degli individui che possono essere sottoposti a decisioni automatizzate, in ambito lavorativo come in altri ambiti della vita sociale.

Informazioni

Taramundi M. D. “Le sfide della discriminazione algoritmica” in “GenIUS”, rivista di studi giuridici sull’orientamento sessuale e l’identità di genere, 2022 -1, ISSN 2384-9495.

Xenidis R., Senden L. “EU non-discrimination law in the era of artificial intelligence: Mapping the challenges of algorithmic discrimination” in Ulf Bernitz et al (eds), General principles of EU law and the EU Digital Order (Kluwer Law International, 2020).

Tommasi S. “Algoritmi e nuove forme di discriminazione: uno sguardo al diritto europeo” in Revista de Direito Brasileira, Florianopolis, SC v. 27, n.10, p. 112-129, Set/Dez. 2020.

Pagano F.F. “Pubblica amministrazione e innovazione tecnologica” in La rivista “Gruppo di Pisa”, Fascicolo n. 3/2021, ISSN 2039-8026.

Libro Bianco sull’intelligenza artificiale: un approccio europeo all’eccellenza e alla fiducia (2020).

Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione (2021).

La tutela dei riders: i lavoratori atipici delle consegne a domicilio, DirittoConsenso. Link: La tutela dei riders: i lavoratori atipici delle consegne a domicilio – DirittoConsenso.

[1] Per un esempio pratico, si può considerare l’algoritmo Frank impiegato nella gestione dei rapporti di lavoro dei riders utilizzato da Deliveroo (v. M.D. Taramundi Le sfide della discriminazione algoritmica”); ovvero, l’algoritmo utilizzato in relazione all’applicazione della legge n. 107/2015 c.d. buona scuola, al fine di decidere le assegnazioni dei richiedenti a seguito dello svolgimento del concorso pubblico (v. F. F. Pagano).

[2] Diverse tecniche accomunate dal fatto che il sistema di A.I. è in grado, grazie ai dati di addestramento inseriti dal soggetto umano, di trovare in autonomia delle soluzioni tramite un processo razionale più o meno complesso. Diversamente dagli algoritmi deterministici, che utilizzano pura logica matematica e sono dunque comprensibili al soggetto umano (c.d. transparency by design), i processi eseguiti dagli algoritmi di machine learning non sono completamente conoscibili data la loro elevatissima complessità (c.d. effetto black box).

[3] Taramundi.

[4] Si definisce, in particolare, rischio di “scaling up”: accelerazione nella riproduzione di distorsioni algoritmiche che rispecchiano i dati di addestramento dovuta alla rapidità di elaborazione, che conseguentemente rende difficile intervenire tempestivamente per mitigare il rischio.

[5] Taramundi.

[6] In particolare, non distingueva fra assenza da lavoro senza giustificazione da quella garantita da diritti costituzionali, come ad esempio il diritto allo sciopero o alla salute (Tommasi S.).

[7] Il Considerando 71 del GDPR dice, ad esempio, che il titolare del trattamento dei dati deve garantirne la sicurezza e impedire effetti discriminatori nei confronti di persone fisiche (…).

[8] Consultabile a questo link:  https://www.senato.it/istituzione/la-costituzione/principi-fondamentali/articolo-3.

[9]Libro Bianco sull’intelligenza artificiale: un approccio europeo all’eccellenza e alla fiducia”, in cui è contenuta una riflessione puntuale sui rischi specifici di violazione di diritti fondamentali, raggiungibile al link: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52020DC0065.

[10] Nel dettaglio, “Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione”, che ha l’obiettivo di creare una normativa di carattere generale, al seguente link: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52021PC0206.

[11] Taramundi.

[12] Per dettagli approfonditi vedere R. Xenidis, L. Senden “EU non-discrimination law in the era of artificial intelligence: Mapping the challenges of algorithmic discrimination”.

[13] R. Xenidis, L. Senden.

[14] Com/2019/168 consultabile: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52019DC0168.


Distacco transnazionale

Il distacco transnazionale come causa di dumping sociale nell'Unione Europea

Come si configura il lavoratore nell’ambito di un distacco transnazionale?  Il difficile bilanciamento fra parità di tutela e promozione della libera circolazione del lavoro nel mercato unico europeo

 

Cos’è il distacco transnazionale?

Si definisce distacco transnazionale la situazione in cui, nell’ambito di una prestazione di servizi, un’impresa con sede in un dato paese distacca uno o più lavoratori in un’altra impresa con sede in un altro paese dell’Unione Europea[1].

Per fare un esempio, potrebbe essere il caso di un’impresa edile italiana con sede legale in Italia che distacca un gruppo di lavoratori presso un’azienda spagnola con sede legale in Spagna per svolgere – spesso in regime di appalto o subappalto – una determinata prestazione lavorativa, come la costruzione di un immobile.

Il datore di lavoro, per quanto riguarda la normativa nazionale, trova legittimazione all’impiego del distacco transnazionale nell’ambito del potere direttivo attribuitogli dal Codice civile, grazie al quale ha la facoltà di modificare il luogo della prestazione lavorativa di un proprio lavoratore subordinato[2].

Una delle problematiche più evidenti si concretizza nel fatto che nel mercato unico, dove in base al principio della libera circolazione dei lavoratori sancito agli artt. 45 e seguenti del TFUE[3] è consentito alle imprese reperire professionalità provenienti da qualsiasi Stato membro, si è sviluppata la tendenza all’utilizzo di dinamiche di concorrenza deregolativa[4].  La conseguenza più evidente si riflette nelle difficoltà di raccordo tra i sistemi di diritto del lavoro e di relazioni industriali degli Stati membri.

In questo contesto pone le basi il dibattito sul dumping sociale e salariale[5] che interessa i lavoratori distaccati nell’ambito del distacco transnazionale, soprattutto a seguito del comportamento ampiamente diffuso di imprese che hanno sfruttato l’esistenza di squilibri sul piano del costo del lavoro andando ad inficiare uno degli stessi principi cardine dell’Unione Europea, ossia la leale concorrenza.

 

Le difficoltà nel superare la direttiva 96/71/CE

Il distacco transnazionale è regolato principalmente dalla direttiva 96/71/CE, la cui funzione dovrebbe essere quella di conciliare le esigenze delle imprese di prestare servizi transnazionali senza inficiare le tutele dei lavoratori distaccati tramite meccanismi di dumping sociale. Come si vedrà, tale direttiva non è in grado di contrastare efficacemente il fenomeno.

Negli anni successivi sono state adottate ulteriori normative da parte dell’Unione Europea, come la c.d. direttiva enforcement (n. 2014/67/CE), che non hanno però modificato nella sostanza le norme della direttiva 96/71.

Allo stesso modo, nel 2016 la Commissione Europea ha presentato una proposta di revisione della direttiva del 1996 con l’obiettivo di stabilire regole più favorevoli per gli Stati che subiscono il dumping sociale in ragione dei più alti standard di tutela garantiti dal loro sistema di diritto del lavoro[6]. Ma anche in questo caso non si sono verificate modifica sostanziali.

 

I principi ricavabili dal TFUE: la sentenza Rush Portuguesa

La Corte di Giustizia dell’Unione Europea (CGUE) ha nel tempo affrontato il tema del distacco transnazionale interpretando il fenomeno alla luce dei principi generali del mercato unico, contenuti nel TFUE.

In una delle prime pronunce, in luogo della sentenza Rush Portuguesa[7],  la Corte ha chiarito che il lavoratore impiegato in un distacco transnazionale in un altro Stato membro non può rivendicare i diritti garantiti dal principio della libertà di circolazione dei lavoratori ex art. 45 TFUE perché non è garantita la parità di trattamento rispetto ai lavoratori dello Stato ospitante.

È invece l’impresa che lo distacca a poter invocare la libertà di prestare servizi in un altro Stato membro ai sensi dell’art. 56 TFUE. La parità di trattamento tra i lavoratori, infatti, si configura come un ostacolo all’esercizio di questa libertà se determina un aggravio del costo del lavoro a causa degli eventuali maggiori oneri previsti dalla legislazione dello Stato membro dove avviene il distacco transnazionale[8] .

La Corte di Giustizia, in una successiva sentenza, specifica che lo Stato ospitante può imporre il rispetto delle norme di diritto del lavoro interno solo nel caso in cui questo sia giustificato da overriding reasons of public interest, ossia ragioni di interesse pubblico; e purché ciò avvenga nel rispetto del principio di non discriminazione e del principio di proporzionalità[9].

 

La nozione di tariffe minime salariali: la sentenza Ruffert

Sulla base delle riflessioni fino ad ora discusse occorre considerare l’art. 3[10] della direttiva 96/71/CE, nella parte in cui, al paragrafo 1, elenca le norme di protezione minima. Tra esse sono incluse le c.d. “tariffe minime salariali” (da qui in avanti TMS), dalla quale dipende nel concreto la possibilità per le imprese di attuare dumping salariale nello Stato dove operano il distacco transnazionale.[11]

Inizialmente la Corte con la sentenza Ruffert[12] sembrava aver negato la possibilità di aumentare le TMS, andando contro ad uno dei principi fondanti del diritto del lavoro, ossia il “trattamento più favorevole”[13].

Nel tempo, ha modificato la propria posizione fino ad accettare di introdurre temperamenti all’interpretazione iniziale.  La Corte ha così ammesso che uno Stato possa introdurre diversi livelli salariali come previsti dagli inquadramenti dei contratti collettivi di settore, e non un unico minimo standard salariale a livello nazionale. Per esempio, nella sentenza ESA[14] si è ammessa la possibilità di erogare di un’indennità giornaliera per distacco.

 

I nodi ancora da sciogliere

Come abbiamo visto, la Corte nel corso dei decenni ha ampliato le tutele relative al lavoratore nell’ambito del distacco transnazionale. Tuttavia, non si può propriamente parlare dell’eliminazione dei fenomeni di dumping sociale e salariale.

La stessa sentenza ESA, che di primo acchito sembrerebbe garantire agli Stati la possibilità di difendersi dal fenomeno permettendo l’applicazione ai lavoratori distaccati di standard salariali sostanzialmente equivalenti a quelli rispettati dalle imprese nazionali, nel concreto non lo consente.

In primo luogo, perché la libertà degli Stati membri nell’identificare le componenti delle TMS è sempre sottoposta al giudizio di proporzionalità. In secondo luogo, perché i sistemi di diritto del lavoro e relazioni industriali dei vari paesi sono differenti fra loro, di conseguenza anche la determinazione delle TMS sarà diversa.

Da queste riflessioni risulta evidente come questi fattori possano ancora alimentare fenomeni di dumping[15].

La Commissione Europea, in una comunicazione del 2016, ha proposto di sostituire la nozione di TMS con quella omnicomprensiva di “retribuzione”[16], comprendente in particolare “tutti gli elementi della retribuzione resi obbligatori da disposizioni legislative, regolamentari o amministrative nazionali, da contratti collettivi  o da arbitrati dichiarati di applicazione generale e/o, in mancanza di un sistema di dichiarazione di applicazione  generale di contratti collettivi o di arbitrati, da altri contratti collettivi o arbitrati ai sensi del paragrafo 8, secondo  comma, nello Stato membro nel cui territorio è distaccato il lavoratore”. Tuttavia, in questo modo non vengono risolti i problemi sopra esposti.

Allo stesso modo, anche la Confederazione Europea dei Sindacati (CES) ha sostenuto la necessità di dare piena libertà agli Stati nel definire il contenuto della retribuzione fissata dai contratti collettivi e di restituire alla direttiva 96/71 il carattere di direttiva che fissa standard minimi, riconoscendo esplicitamente il principio del “trattamento più favorevole” per i lavoratori interessati da distacco transnazionale.

Informazioni

Orlandini, G. “Distacco transnazionale e dumping salariale nell’Unione europea”. EUROPEANRIGHTS NEWSLETTER, 63, 1-10. 2017

Codice Civile

Direttiva 96/71/CE

Corte Giust. 27.3.1990, causa C-113/89

Corte Giust. CE 23.11.19999, causa C-369/96 e C-376/96

Corte Giust. 3.4.2008, causa C-346/06

Corte Giust. 12.2.2015, causa C-396/13

Il diritto derivato dell’UE: Regolamenti e Direttive, DirittoConsenso. Link: Regolamenti e direttive dell’UE – DirittoConsenso.

[1] Si consideri che il distacco transnazionale può anche interessare paesi extra UE, ma ai fini della trattazione del presente approfondimento vengono presi in considerazione soltanto i distacchi fra paesi membri dell’Unione Europea, data la peculiarità della normativa che si andrà ad indagare.

[2] Vedere artt. 2086 e 2094 Codice civile

[3] Per visionare il testo degli artt.: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:12016E045

[4] Orlandini G. “Distacco transnazionale e dumping salariale nell’Unione europea”

[5] Nella dottrina economica il dumping è un termine usato per indicare lo sfruttamento dell’international price discrimination, ossia la vendita di beni e servizi in un mercato estero ad un prezzo più basso rispetto a quello praticato nel proprio mercato interno, provocando fenomeni di concorrenza sleale. L’espressione dumping sociale è stata coniata per esprimere in fenomeno in ambito giuslavoristico, attraverso lo sfruttamento delle differenze nell’ambito delle legislazioni dei singoli paesi che determinano differenze nel costo del lavoro. Vedere Pessi R. “dumping sociale e diritto del lavoro, in W.P. Libertà, lavoro e sicurezza sociale, n. 3/2011”

[6] Orlandini G.

[7] Corte Giust., 27.3.1990, causa C-113/89, Rush Portuguesa Lda. Il caso riguardava dei lavoratori portoghesi inviati in Francia per eseguire lavori di costruzione di una linea ferroviaria in base ad un contratto di subappalto.

[8] Orlandini G.

[9] Corte Giust. CE, 23.11.1999, causa C-369/96 e C-376/96, Arblade, per cui rispettivamente alle imprese straniere non possono essere imposti obblighi che non gravano su quelle nazionali; limiti alle libertà economiche sono ammissibili solo adottando le misure strettamente necessarie.

[10]Per la visione integrale dell’articolo: https://eur-lex.europa.eu/legal-content/it/ALL/?uri=CELEX%3A31996L0071  

[11] Orlandini G.

[12] Corte Giust., 3.4.2008, causa C-346/06, Rüffert.

[13] Orlandini G. Nella sentenza veniva affrontato il caso di un appalto vinto da azienda polacca per la costruzione di un carcere in Germania che, tramite il subappalto, distaccava un certo numero di lavoratori polacchi. Il Land tedesco interessato imponeva alle imprese aggiudicatrici di rispettare le retribuzioni stabilite dal contratto collettivo di lavoro del luogo di esecuzione della prestazione del lavoro. Tuttavia, durante un controllo era emerso che per i lavoratori polacchi non erano state rispettate le condizioni di lavoro prescritte dal contratto vigente in loco, ma che percepivano una retribuzione nettamente inferiore. La direttiva sul distacco transnazionale prescrive l’obbligo di rispettare i minimi salariali fissati da disposizioni legislative o da contratti collettivi di applicazione nazionale vigenti nel paese di distacco. Tuttavia, nel caso in questione, il contratto collettivo vigente in loco non era di applicazione generale ai sensi del diritto tedesco, poiché si applicava solo agli appalti pubblici. Di conseguenza, il livello salariale prescritto non poteva essere considerato un minimo salariale e costituiva una limitazione alla libertà di prestazione dei servizi. Questo però si traduceva in una disparità di trattamento tra i lavoratori “del luogo” ed i suddetti lavoratori distaccati, impiegati nel medesimo appalto.

[14] Corte Giust., 12.2.2015, causa C-396/13, Sähköalojen ammattiliitto ry v Elektrobudowa Spolka Akcyjna (ESA)

[15] Orlandini G.

[16] COM. 2016/128, p. 13-14


Art. 4 Statuto dei Lavoratori

L'art. 4 dello Statuto dei Lavoratori sui controlli a distanza

I limiti posti al potere di controllo del datore da parte dell’art. 4 dello Statuto dei Lavoratori nell’epoca della digitalizzazione del lavoro

 

Il potere di controllo a distanza ai sensi dell’art. 4 dello Statuto dei Lavoratori

Il potere di controllo rappresenta uno degli strumenti che il datore di lavoro ha a disposizione nei confronti del lavoratore. In particolare, il datore ha la facoltà di controllare che il lavoratore compia la propria prestazione lavorativa ai sensi degli artt. 2104 e 2105 del c.c.[1], cioè con la diligenza necessaria, rispettando le disposizioni impartite e secondo il generale dovere di fedeltà.

La legge 300 del 1970, anche detta Statuto dei Lavoratori, all’art. 4 rubricato “Impianti audiovisivi e altri strumenti di controllo” si occupa di una particolare tipologia di controllo datoriale, ossia il c.d. controllo a distanza. Per comprendere meglio, si tratta del controllo effettuato tramite strumenti tecnologici che permettono la vigilanza a distanza sia spaziale che temporale sul lavoratore[2].

Negli ultimi anni, a seguito della rapida evoluzione delle nuove tecnologie, dalle “classiche” videocamere posizionate nelle aree lavorative le potenzialità di questo tipo di controllo si sono estese a quasi la totalità degli strumenti utilizzati dal lavoratore per compiere la propria prestazione lavorativa, come i pc ed i telefoni aziendali. Questo ha contestualmente aumentato enormemente il rischio di violazione della dignità e della privacy del lavoratore stesso[3].

 

Cosa affermava il vecchio art. 4?

Fin dalla prima stesura dello Statuto dei Lavoratori era prevista una normativa specifica per il controllo a distanza.

Inizialmente, l’art. 4 disponeva un generale divieto nell’uso di impianti audiovisivi o altri strumenti per finalità di controllo a distanza dell’attività dei lavoratori ed ammetteva l’installazione di tali apparecchiature solamente nel caso in cui queste fossero richieste da esigenze organizzative, produttive o di sicurezza del lavoro; e comunque previo accordo con le RSA.

Come appare chiaro, al tempo non venivano utilizzati smartphone o computer in modo massivo e di conseguenza la tecnologia impiegata non consentiva la registrazione e archiviazione delle modalità e delle tempistiche della prestazione svolta dal dipendente, come avviene oggi.

L’obiettivo del legislatore era dunque quello di tutelare la dignità e riservatezza del lavoratore da un potenziale controllo troppo pervasivo del datore di lavoro che, senza una disciplina legislativa adeguata, avrebbe rischiato di sfociare nel concreto in controlli continui e sproporzionati rispetto all’attività da svolgere. Per esempio, si trattava del caso dell’installazione di telecamere che per tutta la durata della prestazione fossero fisse sui lavoratori senza le adeguate giustificazioni organizzative o di sicurezza.

 

Cosa afferma il nuovo art. 4 dello Statuto dei Lavoratori?

Oggi l’impiego di computer, tablet e smartphones sul luogo di lavoro per svolgere la prestazione lavorativa rende la normativa dell’originario art. 4 dello Statuto dei Lavoratori anacronistica e inapplicabile. Questi dispositivi, pur non essendo catalogabili in teoria come strumenti di controllo, nella pratica consentono la registrazione puntuale dell’attività lavorativa. Per esempio, tramite il salvataggio automatico della cronologia si fornisce al datore la possibilità di acquisire una quantità enorme di informazioni sui modi ed i tempi di lavoro, come anche sui tempi di non lavoro[4].

In questo contesto si inserisce la modifica del Jobs Act che, agendo sull’intera disciplina del rapporto di lavoro, introduce modificazioni anche all’art. 4 sui controlli a distanza[5]. Il criterio guida è quello della revisione della disciplina alla luce dell’evoluzione tecnologica, al fine di bilanciare con successo le esigenze di controllo datoriali e la tutela della dignità e riservatezza del lavoratore[6].

In particolare, si verifica l’abrogazione del divieto generale di utilizzo di apparecchiature per finalità di controllo a distanza.

Ad un primo sguardo potrebbe sembrare che l’abolizione di questo divieto vada a danno dei lavoratori, lasciando “carta bianca” al datore sui controlli che può effettuare. In realtà restano validi i criteri precedenti, ossia il previo accordo con l’RSA e l’assoluto divieto di controlli a distanza diretti all’esclusivo monitoraggio dell’attività lavorativa, sganciato dalle causali previste.

La nuova stesura, infatti, sembra piuttosto indicare un cambiamento radicale di approccio alla questione, perché l’attenzione viene spostata dalle ipotesi vietate a quelle autorizzate, nell’ottica di una maggiore malleabilità della disciplina rispetto alle sfide tecnologiche del futuro.

 

Quali sono le eccezioni?

A seguito delle modifiche introdotte dal Jobs Act, al comma 2 dell’art. 4 dello Statuto dei Lavoratori si prevede la non applicazione delle causali di installazione agli strumenti utilizzati dal lavoratore per rendere la prestazione lavorativa e agli strumenti di registrazione degli accessi e delle presenze.

Come abbiamo già evidenziato, infatti, scopo della nuova normativa è quello di semplificare la disciplina in materia di controlli a distanza rispetto agli sviluppi tecnologici. Prevedendo questa deroga alla normativa generale si rende più agevole per il datore l’organizzazione degli strumenti di uso quotidiano, come per esempio i computer per gli impiegati od i badge di ingresso e uscita nelle aziende di medie e grandi dimensioni.

Tuttavia, poiché i suddetti dispostivi spesso contengono quantità enormi di dati, non sempre riconducibili ad un ambito esclusivamente lavorativo (come, per esempio, il caso in cui il lavoratore utilizza uno smartphone sia per fini lavorativi che personali), il Ministero del Lavoro ha ritenuto opportuno fare alcune specificazioni.

Nel particolare, con nota del 18 giugno 2015[7], ha chiarito che qualsiasi modifica sugli strumenti indispensabili per il lavoratore per svolgere la propria prestazione per attuare un controllo a distanza comporta un’automatica declassificazione di questi a strumenti di controllo. Per esempio, l’installazione di un software di registrazione della navigazione o di localizzazione sui computer dei lavoratori.

 

Le Linee Guida del Garante della privacy su internet e posta elettronica

Nel 2007 il Garante privacy ha pubblicato delle Linee Guida di orientamento per i datori di lavoro su come gestire i controlli a distanza in relazione alla posta elettronica ed internet senza sfociare nell’illegittimità[8].

Il provvedimento prescrive ai datori di lavoro l’adozione di un’informativa contenente indicazioni chiare e dettagliate sull’utilizzo degli strumenti aziendali e le modalità di esecuzione dei controlli, di modo che il lavoratore abbia chiare le azioni che può compiere con tali strumenti e quelle che invece determinerebbero una sanzione disciplinare.

Occorre rispettare il principio di proporzionalità e limitazione rispetto al fine, perché il controllo deve essere proporzionato e rispettoso della riservatezza e dignità del lavoratore. Per esempio, non è possibile effettuare controlli che consistono nella sorveglianza continua e capillare della cronologia delle pagine web visualizzate dal lavoratore o dei messaggi della posta elettronica.

Nel caso in cui si verifichi anche il trattamento di dati personali del lavoratore, come accade ad esempio per la posta elettronica, occorre consegnare un’ulteriore informativa ai sensi della disciplina sul trattamento dei dati personali contenuta nel GDPR[9] (General Data Regulation Protection).

Informazioni

GIUSELLA FINOCCHIARO, I limiti posti dal Codice in materia di  protezione dei dati personali al controllo del datore di lavoro, in << Diritti e libertà in internet>>,  Frosini E., Pollicino O., Apa, E, Bassini M. (a cura di), Mondadori Education S.p.A., Milano, 2017.

C. R. Romita , Trattamento dei dati nell’uso di internet ed e-mail aziendale in Memento Lavoro, 2022.

L. n. 300/1970.

Nota n. 20, 18 giugno 2015, Ministero del Lavoro e delle Politiche Sociali.

Lavoro: le linee guida del Garante per posta elettronica e internet, Gazzetta Ufficiale n. 58 del 10 marzo 2007.

I diritti presenti nel GDPR – DirittoConsenso.

Codice Civile.

[1] Art. 2014 c.c. (Diligenza del prestatore di lavoro) “Il prestatore di lavoro deve usare la diligenza richiesta dalla natura della prestazione dovuta,  dall’interesse dell’impresa e da quello superiore della produzione nazionale. Deve inoltre osservare le disposizioni per l’esecuzione e per la disciplina del lavoro impartite dall’imprenditore e dai collaboratori di questo dai quali gerarchicamente dipende”. E Art. 2015 c.c. (Obbligo di fedeltà) “Il prestatore di lavoro non deve trattare affari, per conto proprio o di terzi, in concorrenza con l’imprenditore, ne’ divulgare  notizie attinenti all’organizzazione e ai metodi di produzione  dell’impresa, o farne uso in modo da poter recare ad essa pregiudizio”. Anche consultabili su https://www.gazzettaufficiale.it/anteprima/codici/codiceCivile

[2] Consultabile su https://www.normattiva.it/uri-res/N2Ls?urn:nir:stato:legge:1970-05-20;300!vig=

[3] G. Finocchiaro , I limiti posti dal Codice in materia di  protezione dei dati personali al controllo del datore di lavoro in Diritti e Libertà in Internet, 2017

[4] G. Finocchiaro

[5] Vedere il D. lgs. 151/2015 per l’articolo completo, https://www.gazzettaufficiale.it/eli/id/2015/09/23/15G00164/sg

[6] G. Finocchiaro

[7] Consultabile su  https://www.lavoro.gov.it/stampa-e-media/Comunicati/Pagine/20150618-Controlli-a-distanza.aspx

[8] Vedi https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/1387522 e, per ulteriori approfondimenti, C. R. Romita , Trattamento dei dati nell’uso di internet ed e-mail aziendale in Memento Lavoro, 2022

[9] In particolare, il comma 3 dell’art. 4 dello Statuto recita  “Le informazioni raccolte ai sensi dei commi 1 e 2 sono utilizzabili a tutti i fini connessi al rapporto di lavoro a condizione che sia data al lavoratore adeguata informazione delle modalità d’uso degli strumenti e di effettuazione dei controlli e nel rispetto di quanto disposto dal decreto legislativo 30 giugno 2003, n. 196”. Occorre puntualizzare che il riferimento al Codice Privacy (d.lgs. 196/2003) deve essere interpretativamente sostituito dal Regolamento europeo 679/2016 (GDPR), direttamente applicabile nel nostro ordinamento ma entrato in vigore successivamente alla stesura del citato comma 3.