Il social scoring come pratica vietata - L’art. 5 del AI Act (Regolamento UE 2024/1689) vieta una serie di pratiche che impiegano l’intelligenza artificiale. Si tratta di pratiche considerate capaci di generare un rischio inaccettabile per i diritti delle persone.
Fra le pratiche vietate, la lett. c) dell’art. 5, menziona il cosiddetto social scoring, ossia la “… immissione sul mercato, la messa in servizio o l'uso di sistemi di IA per la valutazione o la classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, inferite o previste …”.
Fattispecie che ancora l’art. 5, lett. c), considera integrata ove l’operare di un sistema IA porti ad attribuire un “punteggio sociale”, ossia una valutazione tratta dalla osservazione del comportamento sociale o da caratteristiche personali o della personalità, e dal punteggio scaturisca almeno uno dei seguenti scenari:
“i)un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti;
“ii)un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità”.
Il social scoring nel concorso di diverse normative... - Per come definita dall’art. 5, lett. c), la fattispecie appare subito complessa, comprendendo sia l’osservazione/valutazione o l’osservazione/classificazione allo scopo della attribuzione del “punteggio sociale” sia gli effetti “dannosi” di operazioni del genere.
Nel trattarne, non si può non osservare che l’assenza di effetti “dannosi” nel caso concreto e, quindi, il mancato perfezionamento della pratica di IA vietata ai sensi dell’art. 5, lett.c, non pregiudica affatto l’applicazione di altre disposizioni dello stesso AI Act.
Difatti, la pratica può comunque ricadere fra quelle poste in essere tramite sistemi IA ad alto rischio, con l’applicazione del nucleo normativo più consistente dell’AI Act riguardante proprio tali sistemi, come può comunque ricadere nel campo di applicazione di altre fonti normative e, in primo luogo, del GDPR .
Non manca nello stesso art. 5, lett. c), un riferimento ai “dati” e, facilmente, nel social scoring i dati sono dati personali.
Il riferimento a “caratteristiche personali o della personalità” di singole persone o di gruppi di persone, che come si è visto compare nell’art. 5, lett. c), espone, inoltre, a verifiche a stregua delle normative antidiscriminatorie, a prescindere da effetti “dannosi” verificatisi o meno.
Integrare l’ intelligenza artificiale nella funzione HR. Cosa c’è da sapere.
Il social scoring riguardante lavoratori - Il social scoring può intervenire anche nell’area del lavoro e, avendolo presente, vien fatto di pensare alla possibilità che, in particolare, baleni nella selezione iniziale del personale.
Sistemi IA, ad esempio, potrebbero trarre dati dai profili social dei partecipanti alla selezione.
In situazioni del genere, potrebbe essere eccepita la violazione del divieto proprio per l’utilizzo di dati ricavati dall’attivismo nei social media, attivismo finalizzato a coltivare relazioni sociali, affettive e, quindi, riguardanti comportamenti tenuti in contesti sociali diversi da quello lavorativo.
Un ulteriore esempio è presentato direttamente dalle Linee guida emanate dalla Commissione europea con lo scopo di agevolare l’interpretazione e applicazione dei divieti posti dall’art. 5 dell’AI Act.
L’esempio è questo: un'agenzia del lavoro utilizza un sistema di intelligenza artificiale per assegnare un punteggio ai disoccupati sulla base di un colloquio e di una valutazione basata sull'intelligenza artificiale e, in ipotesi, incappa nel divieto se Il punteggio attribuito ai disoccupati tramite il sistema sia legato anche variabili raccolte o dedotte da dati e contesti senza apparente connessione con lo scopo della valutazione, come lo stato civile, i dati sanitari relativi a malattie croniche, le dipendenze, ecc.
Un ulteriore ambito su cui potrebbe riflettersi l’art. 5, lett. c) è individuabile nella prassi di attribuire dei punteggi ai lavoratori anche sulla base di giudizi espressi da clienti dell’azienda, prassi presente soprattutto nelle piattaforme digitali della gig economy. Nelle suddette Linee guida viene operata una distinzione fra social scoring e valutazioni individuali degli utenti che valutano la qualità di un servizio reso, ad esempio, da un autista in una piattaforma di car-sharing online.
Tali valutazioni, si afferma nelle Linee guida, sono la mera aggregazione di punteggi umani individuali che non coinvolgono necessariamente l'IA, a meno che i dati non siano combinati con altre informazioni e analizzati dal sistema di IA per valutare o classificare gli individui in modo da soddisfare tutte le condizioni richieste per potere applicare l'articolo 5, lett c), dell’AI Act.
Queste ultime considerazioni e, prima ancora, il modo in cui è in generale definito il divieto, fonte di possibili incertezze nel distinguere fra pratiche legittime e pratiche vietate, raccomandano molto prudenza nell’impiego di sistemi IA, anche in considerazione delle consistenti sanzioni previste dall’AI Act per la violazione del divieto stesso.
WST Law & Tax