Un rapido esame dell’AI Act

Indice

Con oltre 450 pagine dedicate all’intelligenza artificiale, l’AI Act è un risultato storico ottenuto dall’Europa a vantaggio dei suoi cittadini. L’AI Act però è un testo particolare e di una certa complessità, proviamo ad esaminarne gli aspetti essenziali.

Informazioni preliminari

Composizione del Regolamento

Il Regolamento si compone come segue:

  • 180 “considerando” che stabiliscono i principi chiave intorno a quali dovrà fondarsi l’adozione dell’intelligenza artificiale all’interno dei vari ambiti di applicazione.
  • 113 articoli di regolamentazione suddivisi come segue:
    • Capo I: Disposizioni generali
    • Capo II: Pratiche di intelligenza artificiale vietate
    • Capo III: Sistemi di IA ad Alto Rischio
    • Capo IV: Obblighi di trasparenza per i fornitori e deployer di determinati sistemi di IA
    • Capo V: Modelli IA per finalità generali
    • Capo VI: Misure a sostegno dell’innovazione
    • Capo VII: Governance
    • Capo VIII: Banca Dati dell’UE per i sistemi di IA ad alto rischio
    • Capo IX: Monitoraggio successivo all’immissione sul mercato, condivisione delle informazioni, vigilanza del mercato
    • Capo X: Codici di condotta e orientamenti
    • Capo XI: Delega di potere e procedura di comitato
    • Capo XII: Sanzioni
    • Capo XIII: Disposizioni finali
  • 13 allegati così suddivisi:
    • Allegato 1: Elenco della normativa di armonizzazione dell’Unione
    • Allegato 2: Elenco dei reati per cui è consentito l’uso dell’IA nel riconoscimento facciale
    • Allegato 3: Elenco dei settori in cui operano i sistemi di IA ad alto rischio
    • Allegato 4: Documentazione tecnica di cui deve dotarsi un sistema IA
    • Allegato 5: Dichiarazione di conformità UE
    • Allegato 6: Procedura di valutazione della conformità basata sul controllo interno
    • Allegato 7: Conformità basata su una valutazione del sistema di gestione della qualità e su una valutazione della documentazione tecnica
    • Allegato 8: Informazioni da presentare all’atto della registrazione di sistemi di IA ad alto rischio in conformità dell’articolo 49
    • Allegato 9: Informazioni da presentare all’atto della registrazione dei sistemi di IA ad alto rischio elencati nell’allegato III in relazione alle prove in condizioni reali in conformità dell’articolo 60
    • Allegato 10: Atti legislativi dell’Unione sui sistemi IT su larga scala nello spazio di libertà, sicurezza e giustizia
    • Allegato 11: Documentazione tecnica di cui all’articolo 53, paragrafo 1, lettera a) — documentazione tecnica per i fornitori di modelli di IA per finalità generali
    • Allegato 12: Informazioni sulla trasparenza di cui all’articolo 53, paragrafo 1, lettera b) documentazione tecnica per i fornitori di modelli di IA per finalità generali ai fornitori a valle che integrano il modello nel loro sistema di IA
    • Allegato 13: Criteri per la designazione dei modelli di IA per finalità generali con rischio sistemico di cui all’articolo 51

Gli attori principali dell’AI Act

Prima di procedere con la descrizione di alcuni dei contenuti ritenuti rilevanti, è fondamentale chiarire alcuni dei ruoli citati più avanti.

  • Deployer: “la nozione di “deployer” […] dovrebbe essere interpretata come qualsiasi persona fisica o giuridica, compresi un’autorità pubblica, un’agenzia o altro organismo, che utilizza un sistema di IA sotto la sua autorità, salvo nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale. A seconda del tipo di sistema di IA, l’uso del sistema può interessare persone diverse dal deployer.” [considerando 13]
  • Fornitore: “è opportuno che una specifica persona fisica o giuridica, definita come il fornitore, si assuma la responsabilità dell’immissione sul mercato o della messa in servizio di un sistema di IA ad alto rischio, a prescindere dal fatto che tale persona fisica o giuridica sia la persona che ha progettato o sviluppato il sistema.” [considerando 79]

☝︎Torna all’indice

Alcuni esempi di divieto: il riconoscimento delle emozioni

L’impiego dell’IA nel Regolamento è assoggettato anche ad alcuni divieti specifici tra cui, ad esempio, il riconoscimento delle emozioni. Il considerando 18 chiarisce che le emozioni (felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione, divertimento), vanno distinte dagli stati fisici (dolore, affaticamento). Vanno inoltre distinte dalle espressioni di base che sono, ad esempio l’aggrottamento delle sopracciglia, un sorriso, determinati movimenti di braccia o testa o alcune caratteristiche della voce della persona. Queste espressioni di base possono essere senza dubbio usate per identificare o inferire emozioni. In tal senso l’Articolo 5 comma 1 lettera F) specifica che è vietata “l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di sistemi di IA per inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l’uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza“.

Lo scopo dell’articolo 5 è quello di vietare alcune pratiche di adozione dell’IA che possano basarsi su “tecniche volutamente manipolative o ingannevoli aventi lo scopo o l’effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, pregiudicando in modo considerevole la sua capacità di prendere una decisione informata, inducendo pertanto una persona a prendere una decisione che non avrebbe altrimenti preso, in un modo che provochi o possa provocare a tale persona, a un’altra persona o a un gruppo di persone un danno significativo“.

Deroghe all’articolo 5 e il refuso

L’Allegato 2 al Regolamento contiene l’elenco dei reati oggetto di deroga al divieto d’uso dell’I.A., da parte delle autorità. Questo significa che, in presenza di uno o più di quei reati, è possibile utilizzare sistemi d’intelligenza artificiale anche per i casi normalmente vietati dalla legge. L’Allegato 2 menziona l’articolo di riferimento citando l’articolo 5, paragrafo 1, lettera e), punto iii) ma è un errore. In realtà il riferimento dovrebbe puntare all’articolo 5, paragrafo 1, lettera h), punto iii).

La lettera h) infatti sostiene che “l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi” ed il punto iii) specifica ulteriormente “la localizzazione o l’identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un’indagine penale, dell’esercizio di un’azione penale o dell’esecuzione di una sanzione penale per i reati di cui all’allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni“. I reati a cui si fa riferimento nell’Allegato 2 (pag. 421) sono:

  • terrorismo,
  • tratta di esseri umani,
  • sfruttamento sessuale di minori e pornografia minorile,
  • traffico illecito di stupefacenti o sostanze psicotrope,
  • traffico illecito di armi, munizioni ed esplosivi,
  • omicidio volontario, lesioni gravi,
  • traffico illecito di organi e tessuti umani,
  • traffico illecito di materie nucleari e radioattive,
  • sequestro, detenzione illegale e presa di ostaggi,
  • reati che rientrano nella competenza giurisdizionale della Corte penale internazionale,
  • illecita cattura di aeromobile o nave,
  • violenza sessuale,
  • reato ambientale,
  • rapina organizzata o a mano armata,
  • sabotaggio,
  • partecipazione a un’organizzazione criminale coinvolta in uno o più dei reati elencati sopra.

☝︎Torna all’indice

Ambito sanitario e interesse pubblico

Ad oggi l’ambito sanitario è uno di quelli maggiormente impattati dall’intelligenza artificiale: la tecnologia può migliorare la qualità dei servizi offerti, arrivando persino a fare la differenza tra la vita e la morte. Il Regolamento se ne rende perfettamente conto e nel considerando 47 riporta chiaramente l’orientamento dell’Unione Europea: “Analogamente, nel settore sanitario, in cui la posta in gioco per la vita e la salute è particolarmente elevata, è opportuno che i sistemi diagnostici e i sistemi di sostegno delle decisioni dell’uomo, sempre più sofisticati, siano affidabili e accurati“. Le tecnologie di ambito sanitario sono definibili, non a caso, d’interesse pubblico e nel caso dell’intelligenza artificiale è molto interessante quanto riportato dall’articolo 59 “Ulteriore trattamento dei dati personali per lo sviluppo nello spazio di sperimentazione normativa per l’IA di determinati sistemi di IA nell’interesse pubblico“.

A questo proposito sono presenti una serie di casistiche che vengono riportate nel Regolamento tra cui “la sicurezza pubblica e la sanità pubblica, compresi l’individuazione, la diagnosi, la prevenzione, il controllo e il trattamento delle malattie e il miglioramento dei sistemi sanitari“. L’articolo poi prevede alcune possibilità d’impiego e tutela dei dati personali; uno di quelli interessanti è riportato al comma 1 punto c) che prevede l’impiego della valutazione d’impatto del GDPR (Reg. UE 2016/679): “esistono meccanismi di monitoraggio efficaci per individuare eventuali rischi elevati per i diritti e le libertà degli interessati di cui all’articolo 35 del regolamento (UE) 2016/679 e all’articolo 39 del regolamento (UE) 2018/1725 durante la sperimentazione nello spazio di sperimentazione e meccanismi di risposta per attenuare rapidamente tali rischi e, ove necessario, interrompere il trattamento” ma soprattutto quello riportato all’interno del punto d) “i dati personali da trattare nel contesto dello spazio di sperimentazione sono in un ambiente di trattamento dei dati funzionalmente separato, isolato e protetto sotto il controllo del potenziale fornitore e solo le persone autorizzate hanno accesso a tali dati“.

☝︎Torna all’indice

Aspetti legati alla vigilanza sul mercato

Istituzione di una banca dati dell’UE

Il Capo VIII affronta un argomento molto rilevante, la “Banca dati dell’UE per i sistemi di IA ad alto rischio“. Si tratta di una banca dati atta a contenere i dati del fornitore della tecnologia d’intelligenza artificiale; tali dati possono essere inseriti direttamente “dal deployer che è un’autorità, un’agenzia o un organismo pubblico” (art.71 c.3). La capacità di tracciabilità offerta dalla banca dati va, probabilmente, inserita in un più alto contesto d’azione in cui si sta muovendo l’Europa: che si tratti di nuove tecnologie, di prodotti certificati, di vulnerabilità, tutto deve essere contenuto in apposite banche dati; l’Europa, insomma, deve sapere cosa accade al suo interno. L’iniziativa della banca dati non è di per sé innovativa, anzi è un’idea quasi scontata ma s’inserisce in un contesto che merita attenzione, quale è quello dell’I.A. L’art. 71 comma 4 fornisce ulteriori informazioni interessanti: “le informazioni contenute nella banca dati dell’UE registrate a norma dell’articolo 49 sono accessibili e disponibili al pubblico in modo facilmente fruibile. Le informazioni dovrebbero essere di facile consultazione e leggibili meccanicamente. Le informazioni registrate a norma dell’articolo 60 sono accessibili solo alle autorità di vigilanza del mercato e alla Commissione, a meno che il fornitore o il potenziale fornitore non abbia dato il suo consenso anche a rendere tali informazioni accessibili al pubblico“.

La banca dati conterrà quindi le informazioni e i dati di contatto delle “persone fisiche responsabili della registrazione del sistema e aventi l’autorità legale di rappresentare il fornitore o il deployer“(art.71 c.5). Il fatto che all’interno della banca dati debbano essere presenti i dati di contatto delle persone fisiche apre alle considerazioni sull’aggiornamento di questa banca dati, soprattutto nel caso di movimentazioni interne dell’organizzazione. Questa banca dati, per poter mantenere la sua efficacia, dovrà essere mantenuta aggiornata e sarà necessario compiere delle verifiche su essa.

Monitoraggio sul mercato e comunicazione degli incidenti

Se la banca dati rappresentava uno degli strumenti di trasparenza, ve ne è un altro atto a garantire il medesimo risultato: il monitoraggio successivo all’immissione sul mercato delle tecnologie d’intelligenza artificiale. L’art. 72 c.1 afferma che “I fornitori istituiscono e documentano un sistema di monitoraggio successivo all’immissione sul mercato che sia proporzionato alla natura delle tecnologie di IA e ai rischi del sistema di IA ad alto rischio.” L’azione di monitoraggio interessa l’intero ciclo di vita del sistema di I.A. e anche l’eventuale interazione con altri sistemi di I.A..

L’art. 73 disciplina il modo in cui devono essere comunicati gli incidenti da parte dei fornitori. Il comma 1 chiarisce che “I fornitori di sistemi di IA ad alto rischio immessi sul mercato dell’Unione segnalano qualsiasi incidente grave alle autorità di vigilanza del mercato degli Stati membri in cui tali incidenti si sono verificati“. La comunicazione dell’incidente alle autorità di vigilanza deve essere fatta immediatamente dopo averne stabilito il nesso causale tra il sistema I.A. e l’incidente vero e proprio. Anche in questo caso, tuttavia, si applica il principio presente anche nel GDPR per i data breach: la ragionevole certezza, il comma 2 afferma infatti “quando stabilisce la ragionevole probabilità di tale nesso e, in ogni caso, non oltre 15 giorni dopo che il fornitore o, se del caso, il deployer, è venuto a conoscenza dell’incidente grave“. Il meccanismo è in tutto e per tutto simile a quanto previsto per i data breach, inclusa la possibilità di presentare una relazione iniziale incompleta a cui far seguire quella completa. La comunicazione di un incidente comprende una valutazione del rischio dell’incidente nonchè le relative misure correttive.

☝︎Torna all’indice

Considerazioni generali

Sono veramente molte le restrizioni imposte dall’UE nell’applicazione dell’intelligenza artificiale e hanno tutte lo scopo di salvaguardare l’individuo e i suoi diritti essenziali. Sarà complesso capire come i deployer riusciranno a rispettarle mantenendo inalterata l’efficienza dei loro algoritmi. Quello che è certo è che l’Europa ha lanciato al mondo un guanto di sfida; non solo in termini di evoluzione tecnologica ma di evoluzione dei diritti legati alla tecnologia e questo è senza dubbio molto importante.

Un’altra considerazione da fare è legata alla massiccia diffusione della tecnologia che ha obbligato l’Europa a fare una necessaria distinzione tra le intelligenze artificiali ad alto impatto e tutte le altre. Le intelligenze artificiali ad alto impatto sono quelle che hanno un’ampia diffusione ed un’efficacia sulla società. L’Allegato XIII lettera F) dice “il modello ha un alto impatto sul mercato interno in considerazione della sua portata, che viene presunta quando il modello stesso è stato messo a disposizione di almeno 10.000 utenti commerciali registrati stabiliti nell’Unione“.

Per i modelli ad alto impatto,inoltre, sono previste regole di addestramento e trasparenza obbligatorie fin dal principio della loro attività. Per tutti gli altri sistemi, tali obblighi valgono dal momento in cui i servizi vengono commercializzati.

Conclusioni

Senza dubbio l’AI Act traccia numerose buone iniziative per la regolamentazione della tecnologia ma è naturale avere alcune perplessità. Già oggi il meccanismo di segnalazione degli incidenti informatici (data breach) è poco impiegato, ancor meno la creazione di analisi di rischio e valutazioni d’impatto. Le comunicazioni fatte da soggetti privati e pubblici in merito ai data breach risultano carenti di informazioni e spesso minimizzano l’accaduto. Cosa impedirà di assumere comportamenti analoghi anche nell’ambito dei sistemi d’intelligenza artificiale? È chiaro che ogni paese dovrà esercitare un controllo ben più stringente di quanto fatto fino ad ora nel contesto del GDPR. L’AI Act è una sfida a tutti gli effetti: senza dubbio l’Europa ha messo in campo il guanto di sfida, ora si tratterà di vedere in che modo i fornitori e i deployer raccoglieranno tale sfida.


Risorse utili

Testo della normativa

Il testo completo dell’AI Act esaminato in questo sito è scaricabile in inglese da qui e in italiano da qui.