Una direttiva dalla lunga elaborazione: dalla proposta del 2021 alle novità del testo definitivo - Dopo quasi una intera legislatura di tentativi è stata finalmente approvata in via definitiva, il 23 ottobre 2024, la direttiva sul miglioramento delle condizioni di lavoro dei lavoratori che operano tramite piattaforme digitali (2024/2831)[1].
La versione approvata merita una attenzione specifica, perché contiene significative innovazioni rispetto alla proposta originaria del 2021, sulla quale mi sono già espresso anche con annotazioni critiche [2].
Tralascio qui di occuparmi della prima parte della direttiva, quella riguardante i criteri di qualificazione dei rapporti di lavoro attivati per il tramite delle piattaforme (la direttiva di occupa solo delle piattaforme che organizzano prestazioni di lavoro sia dipendente che autonomo).
Ricordo che l’ utilizzo della presunzione a fini qualificatori così configurata dalla direttiva ha già dato luogo a dubbi circa la sua efficacia da parte sia sindacale sia dai primi commentatori.
Da ultimo Adalberto Perulli ha mostrato che le modalità con cui sono indicati gli elementi per l’ operare della presunzione di lavoro subordinato sono tali da doversi concludere che non di presunzione legale si tratta ma di presunzione semplice, con le conseguenze del caso[3].
In ogni caso ritengo che la considerazione della Commissione a riconsiderare la questione della natura giuridica dei rapporti di lavoro digitali, e quindi delle tutele da garantire ai lavoratori, vada raccolta dagli attori nazionali cui spetta la responsabilità primaria delle scelte in questa delicatissima materia.
Le innovazioni del cap. III. Gestione algoritmica - La seconda parte della direttiva merita di ricevere attenzione specifica, maggiore di quella ad essa finora dedicata, perché riguarda implicazioni dell’uso di queste tecnologie destinato ad assumere rilievo generale per il futuro della regolazione dei rapporti di lavoro.
Anzitutto per il motivo che queste piattaforme, animate da sistemi di intelligenza artificiale, o come li chiama la normativa, da meccanismi automatici di decisione, stanno diventando uno strumento sempre più diffuso per la gestione di molti aspetti dei rapporti di lavoro.
In prospettiva questi meccanismi dotati di intelligenza artificiale, assumeranno molte decisioni che finora sono state parte essenziale delle responsabilità manageriali nella gestione delle risorse umane, ponendo problemi e rischi nuovi per le condizioni di lavoro e per i diritti dei lavoratori.
Per questo la direttiva sottolinea la necessità di considerare non solo l’impatto quantitativo della digitalizzazione sul mercato del lavoro, ma anche le sue conseguenze sulla qualità e sulle condizioni di lavoro, per valutarne sia le opportunità sia i rischi per i diritti dei lavoratori.
L’uso di questi strumenti e degli algoritmi che li governano mette in discussione le tecniche e gli obiettivi della regolazione legislativa e contrattuale.
Il loro impiego riduce infatti l’efficacia di interventi regolativi sulle singole condizioni di lavoro; richiede invece procedure legali e contrattuali capaci di incidere in tempo utile, anzi in anticipo, sulla logica del funzionamento delle macchine intelligenti che determinano la gestione dei rapporti di lavoro.
Queste implicazioni delle nuove tecnologie sono considerate da altre recenti normative della UE in argomento, dalla direttiva Due diligence (2024/1760) al regolamento sulla intelligenza artificiale (AI Act 2024/1689)[4], che hanno avvertito la inadeguatezza degli strumenti regolatori tradizionali per assicurare il controllo umano su queste tecnologie onde evitare che il loro utilizzo pregiudichi i fondamentali diritti delle persone e la salvaguardia dell’ambiente.
Norme comuni alle recenti normative: procedure e divieti - Una indicazione comune a queste normative intesa a perseguire tale obiettivo è di aver predisposto procedure di identificazione e valutazione dei rischi per tali diritti conseguenti all’ uso di tali strumenti intelligenti e di avere stabilito obblighi per le aziende di adottare misure sia per prevenire e/o minimizzare i possibili rischi sia per neutralizzare gli eventuali effetti negativi accertati.
Anche la direttiva Platform Works contiene innovazioni normative volte all’ obiettivo di garantire il controllo umano sull’ uso di questi meccanismi automatici per evitare che essi pregiudichino diritti fondamentali dei lavoratori.
Il tempo trascorso dalla prima versione a quella attuale della direttiva ha dato modo di integrare la normativa del GDPR su punti che la esperienza e i rilievi critici a questa rivolti hanno indicato come carenti. Si tratta di un caso virtuoso di coordinamento/integrazione fra le normative.
Anzitutto il nuovo articolo 7 della direttiva ha aggiunto il divieto di processare una serie di categorie di dati personali potenzialmente pericolosi per i lavoratori e per i loro diritti, superando le eccezioni ammesse dalla normativa del GDPR: dati relativi allo stato emozionale e psicologico delle persone, alle conversioni private, inclusi gli scambi con i rappresentanti sindacali, dati personali usati per prevedere l’ esercizio di diritti fondamentali, per desumere l’origine razziale o etnica, lo status di migrante, le opinioni politiche, dati biometrici, ecc.
L’art. 7 ha altresì precisato che tali disposizioni si applicano non solo quando i sistemi automatizzati prendono le decisioni in questione, ma anche quando intervengono per sostenere le decisioni umane.
La direttiva (art. 10) vieta inoltre decisioni dirette a limitare, sospendere o terminare il rapporto e ogni altra decisione avente analogo effetto che non sia presa da un essere umano; anche qui con un divieto che esclude le deroghe previste dal GDPR che le ammette in presenza di “contractual necessity clauses” (art. 22).
Inoltre la norma pone un divieto all’uso di sistemi automatici che pongano pressioni indebite sui lavoratori o creino rischi per la loro sicurezza e salute fisica o mentale. Questo divieto peraltro è riferito solo ai lavoratori dipendenti, con una scelta diversa da altre della direttiva che invece allargano le tutele ai lavoratori autonomi o senza specifico contratto.
Il considerando 39 alla direttiva segnala che nel caso specifico del lavoro su piattaforma non si può presumere che il consenso dei lavoratori al trattamento dei loro dati personali venga prestato liberamente, dato lo squilibrio di potere col datore di lavoro. E conclude che quindi le piattaforme non dovrebbero trattare i dati di queste persone sulla base della presenza del loro consenso, come invece permesso dalla normativa del GDPR. Un simile rilievo, già espresso dai commentatori del GDPR, non risulta tuttavia recepito nella nuova normativa della direttiva.
Gli obblighi di informazione della piattaforma - Le garanzie procedurali previste (anche) nella versione finale del testo si incentrano sugli obblighi di informazione e di trasparenza posti in capo alla impresa piattaforma. Si tratta di una strumentazione procedurale comune, come dicevo, a molte recenti normative recenti in materia.
Ma la novità anche in questo caso è che la versione attuale supera ambiguità e incertezza di alcune di queste normative estendendo l’obbligo “a tutti i tipi di decisioni assunte o sostenute da sistemi automatici” [5].
Analogamente attribuisce un significato pregnante agli obblighi di informazione specificandone che devono includere non solo il fatto che siano in uso sistemi automatici di monitoraggio o di decisione, ma anche le categorie di dati e di azioni su cui tali meccanismi intervengono, l’obiettivo del monitoraggio e i destinatari dei dati trattati, i parametri usati nel processo decisionale e la loro importanza relativa, i motivi per le decisioni che incidono sul contenuto del rapporto, come retribuzione, conclusione del rapporto.
Infine una norma di chiusura estende l’obbligo di informazione tutte le decisioni che Incidono in ogni modo sulle persone che lavorano tramite piattaforma.
Si precisa altresì che tali informazioni devono essere fornite per iscritto, prima dell’utilizzo dei meccanismi in questione e comprendere tutte le caratteristiche degli stessi.
Inoltre le stesse informazione devono essere rese disponibili non solo al singolo lavoratore interessato, ma anche alle rappresentanze sindacali.
Una norma di particolare rilevanza per le sue implicazioni è quella inserita nella ultima versione dell’ art. 11, che si intitola al riesame umano.
La richiesta di riesame delle decisioni: del lavoratore e delle sue rappresentanze - Nella prima versione si prevedeva che i lavoratori interessati potessero avanzare richiesta di riesame della decisione dell’algoritmo a cui la impresa piattaforma era tenuta a rispondere motivatamente. Una simile regolazione che prevedeva solo il rapporto del singolo con la piattaforma non poteva essere ritenuta adeguata a rendere effettivo il principio del controllo umano [6].
La nuova versione del testo integra la normativa stabilendo che la richiesta di riesame può essere avanzata non solo dal lavoratore ma anche dalle rappresentanze sindacali e inoltre
che la impresa piattaforma deve rispondere alla richiesta di riesame oltre che al lavoratore anche alle sue rappresentanze.
Inoltre prevede che non è sufficiente che la impresa piattaforma dia una qualunque motivazione, e che invece debba fornire una giustificazione in modo trasparente e comprensibile (art. 11,1) alle decisioni prese dai sistemi automatici relative al rapporto di lavoro. .
Qualora la decisione violi i diritti dei lavoratori si richiede che la piattaforma la rettifichi senza ritardo e che, se ciò non sia possibile, offra un’ adeguata compensazione; in ogni caso che adotti le misure necessarie, compresa se del caso la modifica del sistema decisionale automatizzato, per evitare simili decisioni in futuro.
La importanza del nuovo obbligo di giustificazione delle decisioni prese dai sistemi automatici si può apprezzare considerando la difficoltà di accertare la logica di tali decisioni e i potenziali effetti pregiudizievoli dei diritti dei lavoratori.
Le analisi e i primi casi relativi all’ impiego della intelligenza artificiale segnalano diversi interventi necessari per controllare le decisioni prese dai sistemi di intelligenza artificiale.
Le verifiche sul funzionamento degli algoritmi e i loro limiti - Un intervento previsto in generale dalla direttiva Due Diligence consiste nella attivazione di procedure di prevenzione e valutazione del rischio della attività aziendale per i diritti dei lavoratori; procedure cui è tenuta anche l’impresa piattaforma che rientri per le sue dimensioni nell’ambito di applicazioni della direttiva.
In secondo luogo si ritiene importante verificare sia le istruzioni e i modelli su cui si basa il funzionamento dei sistemi automatici sia la affidabilità e qualità dei dati da questi utilizzati per individuare la presenza di eventuali bias che possono riprodurre distorsioni e discriminazioni delle pratiche esistenti in materia di relazioni di lavoro e personale .
Ma questo tipo di controllo può non essere sufficiente a evitare risultati discriminatori in presenza di sistemi di intelligenza artificiale non deterministici ma dotati di una relativa autonomia di funzionamento. Perciò può essere necessario integrarle con verifiche periodiche in itinere e con indagini ex post volte ad accertare la presenza di fattori intervenienti atti a produrre effetti discriminatori. Una simile scelta è adottata dall’ accordo quadro stipulato nel 2020 fra le parti sociali europee che prevede procedure di informazione e consultazione relative a tutte le fasi di progettazione, introduzione e utilizzo delle piattaforme digitali che gestiscono rapporti di lavoro, finalizzandole a verificare il rispetto dei diritti dei lavoratori e del principio del controllo umano sulla machine intelligenti. Ma per i caratteri del sistema, anche con queste verifiche, può essere molto difficile stabilire direttamente se e quanto la decisione sia stata determinata o influenzata in modo significativo da fattori discriminatori [8] .
L’obbligo di giustificazione : le decisioni degli algoritmi e le sue implicazioni - In presenza di simili difficoltà si spiega l’intervento della direttiva che chiede di dare una giustificazione della decisione a chi utilizza il sistema automatico chiarendo il modo di funzionamento di questo cioè i procedimenti seguiti per decidere.
Detto questo sulla importanza del diritto degli interessati ad avere la giustificazione delle decisioni a loro pregiudizievoli, resta da valutare quali siano le conseguenze dell’eventuale rifiuto di fornire la giustificazione richiesta o della presentazione di una giustificazione inadeguata.
Se non si ritiene di concludere per la invalidità della decisione non adeguatamente giustificata, una alternativa può essere di ritenere che la mancanza di tale giustificazione determini la inversione dell’onere della prova, ponendo a carico della impresa piattaforma l’onere di fornire motivi non discriminatori della decisione.
Ovviamente è sempre possibile per la impresa piattaforma adottare la soluzione indicata dalla direttiva, cioè rettificare la decisione non giustificata e, ove ciò non sia possibile, offrire una compensazione adeguata (art. 8,3).
A conclusione di queste prime note va sottolineata la importanza delle modalità con cui il nostro legislatore recepirà le indicazioni della direttiva, specie sui punti più controversi e suscettibili di diverse applicazioni: dalla definizione degli elementi rilevanti per l’ operare della presunzione di lavoro subordinato delle prestazioni tramite piattaforma, al chiarimento delle conseguenze della mancata giustificazione delle decisioni della piattaforma; alla previsione della titolarità e dei caratteri degli strumenti di enforcement delle norme su cui ampi margini lasciati ai legislatori nazionali.
Articolo pubblicato su Sole 24 Ore Guida al Lavoro a cura di Tiziano Treu WST Law & Tax.
[1] Vedi i primi commenti in S. Rainone, A. Aloisi, The EU platform work directive, ETUC, Policy Brief, agosto 2024; G. Smorto, A. Donini, L’approvazione della direttiva sul lavoro mediante piattaforma digitale, prima lettura, Law issue, 2024, p. 25 ss.
[2] T. Treu, Diritti e politiche sociali dell’Unione Europea dopo la Conferenza sul futuro dell’Europa, in LD, 2023, p. 79 ss., ora in Trasformazioni del lavoro, Giappichelli, 2024, p. 368.
[3] A. Perulli, Lavoro e diritti nella rivoluzione di internet, in LDE, I, 2022, p. 5 ss.; vedi anche i rilievi critici di M. Magnani La proposta di direttiva sul lavoro mediante piattaforma digitale, in Cnel, Rapporto sul mercato del lavoro e contrattazione collettiva, 2022, p. 265.
[4] Si tratta di regole di diversa natura e contenuto che richiederanno una complessa attività di coordinamento su cui ha promesso di intervenire la Commissione, ma che dovrebbe impegnare anche i legislatori nazionali nella fase di recepimento delle norme europee.
[5] S. Rainone, A. Aloisi, The EU platform works, directive, cit.
[6] Vedi i rilievi di T. Treu, Diritti e politiche sociali dell’Unione Europea, cit. p. 370 ss.; e S. Rainone, A. Alois, The EU platform work directive, cit., p. 6
[7] Vedi per casi e commenti G. Gometz, Intelligenza artificiale, profiliazione e nuove forme di discriminazioni, in Teoria e storia del diritto privato, NS 2022, p. 28 ss.; J. Adams, Prassll, What if you boss is an algorithm, Comp. Lab. Law Policy, Journal, 2019, 41 (I), p. 123.
[8] Vedi per tutti, anche per le implicazioni giuridiche G. Gometz, Intelligenza artificiale, cit.; M. Barbera, Discriminazioni algoritmiche e forme di discriminazione, LL Issues, 2021, n. 1, p. 1 ss.