La discriminazione algoritmica

Indice

Rimanendo vicini all’intelligenza artificiale, è necessario affrontare un tema caro tanto ai giuristi, quanto agli umanisti: il principio di discriminazione applicato alla tecnologia e, nello specifico, agli algoritmi.

Che cosa è la discriminazione

Il termine discriminazione significa: “distinzione, diversificazione o differenziazione, operata fra persone, cose, casi o situazioni” (Fonte: Treccani).

È chiaramente un processo che, per essere valutato correttamente, richiede di essere inserito nel giusto contesto operativo; operare una distinzione algoritmica significa prevedere che un algoritmo si comporti diversamente a seconda di persone, cose, casi o situazioni. In alcuni contesti la discriminazione può essere richiesta, operata in modo volontario, persino ricercata: si pensi, ad esempio, a contesti statistici in cui i calcoli possono differire per condizioni predeterminate, note e volontarie.

Eppure il termine discriminazione soffre anche dell’eventualità che tale diversificazione sia utilizzata come processo riprovevole di penalizzazione. È in particolare questo caso che viene preso in esame dal presente articolo: l’eventualità in cui la discriminazione produca danni a terzi per cause colpose o dolose.

Discriminazione dolosa

La più evidente forma di discriminazione dolosa è il razzismo: un processo di separazione dei diritti e delle libertà dettato dall’origine razziale dell’individuo e non supportato da motivazioni realmente sostenibili. La discriminazione dolosa si basa essenzialmente su ragioni prevalentemente umane quali, ad esempio, paura e profitto.

Per profitto s’intende un vantaggio che può essere di natura economica ma anche sociale, politica, tecnica, lavorativa. Si intende una posizione di dominanza, ottenuta a scapito di una minoranza che viene privata di qualcosa di cui avrebbe diritto senza una reale ragione.

La paura è quel propulsore perfetto per comportamenti e attività che ritroviamo in termini come xenofobia, razzismo, antisemitismo, omofobia, ossia in comportamenti di esclusione e penalizzazione di tutto ciò che non viene ritenuto adeguato per essere accettato. Operare una discriminazione algoritmica dolosa, significa addestrare volontariamente l’algoritmo perchè penalizzi una minoranza dell’universo statistico preso in esame.

La discriminazione colposa

Esiste, tuttavia, un tipo di discriminazione involontaria che potremmo chiamare discriminazione colposa e che genera fenomeni simili a quella dolosa ma, per l’appunto, involontari e non ricercati. Le ragioni alla base della discriminazione colposa sono le medesime: un addestramento errato nei dati e/o nel processo e quindi una reiterata attività di diversificazione dell’universo statistico di riferimento secondo criteri non ricercati. Nel corso del 2022, il Sole 24 Ore dedicò un articolo agli algoritmi che penalizzavano le donne. Nell’articolo di Silvia Pagliuca si legge chiaramente:

La piattaforma di reclutamento automatico di Amazon che è stata programmata per vagliare migliaia di domande in pochissimi secondi. Tuttavia, questi algoritmi incamerano profondi pregiudizi di genere: poiché la maggior parte delle assunzioni fatte in passato da Amazon sono maschili, l’algoritmo tende a penalizzare i cv che includono la parola «donna».

L’addestramento e il problema delle fonti

La fase di addestramento algoritmico è fondamentale. Che si verifichi per cause colpose, o per cause dolose, l’addestramento rischia di essere il punto debole dell’intera catena di utilizzo dell’intelligenza artificiale. Nel medesimo articolo, Silvia Pagliuca fornisce una spiegazione utile in merito alle cause discriminatorie:

Ciò accade sia perché apprendono da serie storiche sia perché possono essere stati settati con dati distorti e non del tutto rappresentativi.

Questa spiegazione ci riporta al problema principale dell’intelligenza artificiale (e non solo): l’affidabilità delle fonti e la relativa comprensione. Al momento attuale, quando si richiede ad un algoritmo di menzionare le fonti utilizzate alla base del calcolo algoritmico, si ottiene una risposta negativa: non viene fornita alcuna informazione soddisfacente.

Oggi internet soffre di una carenza incredibile di affidabilità, potremmo dire che tutto è fonte e niente è fonte, tutto è informazione e niente è informazione. In più riprese è stato commentato il termine infoma utilizzato da Byung Chul Han per descrivere quegli “agenti che elaborano le informazioni“. Questo aspetto, nell’epoca di internet, è ulteriormente aggravato dalla diffusione delle fonti informative. Se in origine le fonti informative erano note e l’informazione poteva pertanto essere definita come “Notizia, dato o elemento che consente di avere conoscenza più o meno esatta di fatti, situazioni, modi di essere.” (Fonte: Treccani), oggi si è passati da una conoscenza per informazioni ad una conoscenza per opinioni dove per opinione s’intende “concetto che una o più persone si formano riguardo a particolari fatti, fenomeni, manifestazioni, quando, mancando un criterio di certezza assoluta per giudicare della loro natura” (Fonte: Treccani).

Con una conoscenza per opinione non è possibile creare un addestramento affidabile, perché vengono meno quei requisiti che rendono le fonti “affidabili”.

Gestire l’addestramento

L’uomo ha usato la razionalità per controllare i fenomeni scientifici: questo è un dato di fatto incontrovertibile su cui si basano per prime le discipline scientifiche. Si tratta di un processo che Weber Weber come “quell’azione che, basata su una valutazione delle sue possibili conseguenze, si presenti come la più adeguata al conseguimento dello scopo desiderato” (Fonte: Treccani). Ciò comporta che l’addestramento algoritmico, che nasce con un obiettivo neutrale e non condizionato da ragioni dolose, sarà per lo più raggiunto ma potrà comunque andare incontro a fenomeni di rumore dettati da elementi di disturbo, quali per l’appunto fonti dati non idonee.

Il premio Nobel per l’economia Daniel Kahenam ha scritto un libro denominato “Rumore: Un difetto del ragionamento umano” ponendo l’attenzione sul concetto di rumore e distinguendolo dal bias. Se il bias è la differenza prevedibile in alcuni risultati (ad esempio nelle risposte, nei giudizi), l’errore si può definire come una differenza non prevedibile (e nemmeno voluta) tra tali risultati. Ma il rumore è presente, scontato, parte della natura umana e delle attività sociali e sottrarsene è un compito arduo ma possibile solo con processi di controllo tesi alla sua riduzione. Per operare questa riduzione si sono sviluppati processi che potremmo definire di “standardizzazione decisionale”, nati per ridurre al minimo le influenze individuali nel processo cognitivo. Lo dimostrano le scienze forensi, che pur di preservare la prova giuridica, hanno creato procedure finalizzate a ridurre il rumore al minimo sulla base di risultati tecnico-scientifici e su buone prassi.

Un’immagine è una fonte certa? E un testo?

Quando si parla di addestramento, si parla di un processo di esercitazione che fa uso di strumenti, materiali, dati, e ciò solleva un ulteriore problema. Un’immagine, di cui magari si ignora la fonte, è comunque una fonte certa? Una fotografia, almeno apparentemente, è immutabile nel suo significato indipendentemente dalla fonte che la fornisce, proviamo a fare un esempio.

L’immagine di sinistra mostra un contesto di guerra, di questo non vi è dubbio e ciò viene veicolato dalla fotografia in modo assolutamente inequivocabile. L’immagine di per se è una fonte attendibile a ritrarre il contesto ma questa immagine è in realtà artefatta poiché proviene da una scena di un film e non ha alcuna pretesa documentaristica ma solo narrativa. Tratta una realtà verosimile ma non reale. Anche la foto di destra mostra un contesto di guerra ma è più affidabile, in quanto è scattata direttamente da un giornalista dell’epoca. Entrambe potrebbero essere ritenute affidabili, entrambe sembrano raccontare il medesimo scenario ma solo una delle due è deputata realmente a farlo preservando la caratteristica di affidabilità.

In questo caso le informazioni essenziali sono quindi due: la prima informazione riguarda il contesto rappresentato, ma la seconda informazione riguarda la fonte originale che valorizza più l’immagine di destra rispetto a quella a sinistra. In definitiva a parità di contesto: una delle due è più importante dell’altra perchè sia avvantaggia dell’originalità.

Eppure la fonte non è immediatamente comunicata, anzi, la fonte va cercata e verificata. Eppure è l’elemento che fa la differenza nel valore tra le due immagini.

Conclusioni

Nell’articolo si è cercato di spiegare come la discriminazione sia una conseguenza “umana” al processo di razionalizzazione e come esso possa assumere caratteristiche tanto dolose, quanto colpose. Il tentativo di procedere ad una limitazione della discriminazione richiede processi basati su buone prassi acquisite e verificabili: le cui fonti siano note e autorevoli. L’addestramento si basa su almeno due soggetti: l’addestratore e l’addestrato; il primo deve avere competenze specifiche necessarie al secondo ma anche il metodo adeguato per trasmetterle. Certamente la sfida verso un’intelligenza artificiale trasparente ed efficace è appena all’inizio.

2 Responses

  1. Un altro caso interessante di discriminazione – cd. indiretta – approdato al Tribunale di Bologna (ordinanza 31/12/2020), fu quello della nota azienda “Deliveroo” che utilizzava l’algoritmo “Frank”, addestrandolo in modo tale da generare una situazione di svantaggio a danno dei rider che non rispettavano le sessioni di lavoro prenotate, per motivi diversi dall’infortunio sul lavoro o dalle cause imputabili allo stesso datore di lavoro (ad es. nei casi di scioperi spontanei, malattia, cura dei figli minori, ecc.).
    La vicenda è ben illustrata dall’articolo della rivista giuridica “Ius in itinere”: https://www.iusinitinere.it/la-discriminazione-degli-algoritmi-il-caso-deliveroo-trib-bologna-31-dicembre-2020-34892#_ftn2