Stampa

Sistemi IA e riconoscimento delle “emozioni” del lavoratore


Il divieto stabilito dal AI Act - Fra le pratiche considerate capaci di generare un rischio inaccettabile  per i diritti delle persone e, per questo, vietate, l’art. 5, lett. f, del AI Act (Regolamento UE 2024/1689) fa rientrare anche  “…l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di sistemi di IA per inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro …, tranne laddove l’uso del sistema di IA sia destinato ad essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza”.

E’ questa una disposizione da considerare avendo presente quanto lo stesso AI Act precisa relativamente a:

-“sistema di  riconoscimento delle emozioni”, inteso come “un sistema di IA finalizzato all’identificazione o inferenza di emozioni o intenzioni di persone fisiche sulla base di dati biometrici” ( art. 3, n. 39);

-“dati biometrici”, intesi come “i dati personali ottenuti da un trattamento tecnico specifico relativi alla caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica, quali le immagini facciali o i dati dattiloscopici” ( art. 3, n. 34).

Le ragioni del divieto e alcune precisazioni - Linee guida, emanate dalla Commissione europea allo scopo di agevolare l’interpretazione e l’applicazione dell’art. 5, lett.f),   fanno propri i dubbi circa la base scientifica dei sistemi di IA volti a rilevare lo stato emotivo  espressi dal considerando n. 44 del AI Act,  dove ne viene sottolineata  la potenziale  dannosità  per i diritti e le libertà delle persone in un contesto, come quello lavorativo, caratterizzato da uno squilibrio di potere e nel quale il diretto coinvolgimento personale nell’esecuzione del lavoro espone particolarmente alla pervasività di sistemi del genere. 

Per meglio tratteggiare la fattispecie vietata, le Linee guida, da una parte,   si rifanno alla definizione di  sistema di riconoscimento delle emozioni visto e, dall’altra, ribadiscono come il divieto riguarda i sistemi per identificare o dedurre emozioni sulla base di dati biometrici, come la voce o l’espressione facciale.

Le Linee guida distinguono fra identificazione e inferenza di emozioni, sottolineando che l’inferenza ricorre quando “… le informazioni sull’emozione non si basano esclusivamente  sui dati raccolti sulla persona fisica, ma vengono dedotte da altri dati, compresi gli approcci di apprendimento automatico che imparano dai dati  a rilevare le emozioni”.

Il divieto di cui alla citata lettera f) dell’art. 5 non risulta rispettato, secondo le esemplificazioni fatte dalle Linee  guida, da sistemi che operino per verificare le emozioni durante il processo di assunzione,  per monitorare il tedio (boredom) dei lavoratori ma anche in  applicazioni volte a rendere i lavoratori più felici (happier).

Emozioni: come intenderle? - Gli orientamenti della Commissione si rifanno al considerando n.18 del AI Act, condividendone le esemplificazioni -  felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna”  -  e anche alcune precisazioni: la nozione di emozioni non comprende “ … stati fisici, quali dolore o affaticamento, compresi, ad esempio, i sistemi utilizzati per rilevare lo stato di affaticamento dei piloti o dei conducenti professionisti al fine di prevenire gli incidenti. Non comprende neppure la semplice individuazione di espressioni, gesti o movimenti immediatamente evidenti, a meno che non siano utilizzati per identificare o inferire emozioni”.

 Infine, non deve sfuggire che il divieto riguarda i sistemi di rilevazione delle emozioni “nell’ambito del luogo di lavoro”, riferimento che le Linee guida suggeriscono di interpretare in senso ampio.

Laddove sia tecnologicamente possibile che il sistema rilevi emozioni di un lavoratore impegnato a  rendere la prestazione da remoto, non si non si può escludere l’operare del  divieto. Comporta questa conclusione l’accenno che le Linee guida fanno allo spazio di lavoro “virtuale”. 

WST Law & Tax