IA, Foto, Emozioni e Indicizzazione

Indice

Ormai è acclarato che i motori di intelligenza artificiale, incaricati di realizzare immagini e disegni, stanno diventando sempre più popolari. I loro lavori sono spesso eccellenti ma forse dovrebbero far riflettere su alcuni aspetti meno noti ma più interessanti.

Dalla IA alle emozioni

L’ICO è l’Information Commissioner’s Office e si occupa di monitorare il corretto rispetto della privacy nel Regno Unito. In un articolo rilasciato al The Guardian, l’ICO ha messo in allerta sul rischio di utilizzare l’intelligenza artificiale allo scopo di analizzare foto e video per individuare le emozioni. Questo problema, ben noto a chi conosce la materia dell’intelligenza artificiale, si pone da sempre: gli algoritmi di riconoscimento dei volti, degli animali, degli oggetti, sono ad un livello molto avanzato così come quelli utilizzati per rintracciare felicità, tristezza e altre emozioni “evidenti”. Andiamo per gradi, secondo la psicologia moderna le emozioni principali sono sei:

  1. gioia;
  2. tristezza;
  3. rabbia;
  4. disgusto;
  5. paura (o ansia);
  6. sorpresa.

In particolare, la sesta fu aggiunta dopo gli studi compiuti dal Dott. Elkman e dal Dott. Friesen. Queste sei emozioni sono presenti in tutto il mondo, in tutte le popolazioni (dalla più nota a quella più remota) e per tal motivo sono identificabili mediante alcune contrazioni della muscolatura facciale. In sostanza, nonostante il volto delle persone sia diverso, la configurazione assunta dai muscoli facciali risulta essere molto identificabile e quindi riconoscibile.

Gli algoritmi di intelligenza artificiale sono stati istruiti con miliardi di foto da analizzare e il margine di errore si è assottigliato così tanto che oggi nelle nostre case abbiamo computer ai quali possiamo chiedere di identificare oggetti, persone, luoghi e anche emozioni. Eppure queste informazioni non sono quelle che abbiamo fornito consapevolmente al sistema al momento dello scatto; bensì sono quelle che sono state estratte dall’analisi della foto attraverso un algoritmo e che consentono di aiutarci nel ritrovamento di ricordi e di situazioni sfumati nel tempo.

Quanto contano le nostre emozioni?

Rispondere a questa domanda non è facile: indubbiamente tanto secondo l’ICO che durante l’intervista al The Guardian ha affermato.

There’s a lot of investment and engagement around biometric attempts to detect emotion […] But if you’re using this to make important decisions about people – to decide whether they’re entitled to an opportunity, or some kind of benefit, or to select who gets a level of harm or investigation, any of those kinds of mechanisms … We’re going to be paying very close attention to organisations that do that. What we’re calling out here is much more fundamental than a data protection issue. The fact that they might also breach people’s rights and break our laws is certainly why we’re paying attention to them, but they just don’t work

L’ICO si domanda, come d’altronde gli altri Garanti, come regolamentare qualcosa che domani potrebbe essere usato a scopo d’indagine oltre che a scopo pubblicitario, sollevando questioni che riguardano la sicurezza delle informazioni, la loro attendibilità ma soprattutto la loro liceità. Il problema risiede, non a caso, nella frase:

The fact that they might also breach people’s rights and break our laws is certainly why we’re paying attention to them, but they just don’t work

Ed in effetti le emozioni contano: contano quando si tratta di capire quale prodotto piace di più, contano quando rimaniamo stupiti da una pubblicità o commossi da un’altra. Contano quando ci viene posta una domanda apparentemente innocua che, magari, ha un doppio fine. L’azienda Realeyes, nel 2019 ha guadagnato oltre 12 milioni di dollari per aiutare i suoi clienti nella vendita dei loro prodotti attraverso l’analisi delle espressioni facciali e l’emotion detection. Il fatto viene raccontato in un articolo riportato da VentureBeat del 2019 (LINK). Ma teniamo anche conto che la stessa Amazon sta utilizzando la voce acquisita mediante i dispositivi Alexa per un’analisi emotiva del soggetto parlante (LINK).

La difficoltà nell’applicazione della legge consiste nel fatto che le tecnologie che stiamo implementando su computer, smartphone, tablet, sono nativamente capaci di raccogliere dettagli successivamente analizzabili da remoto senza particolari requisiti bloccanti: per cui diviene primaria l’attenzione ad un’etica nel trattamento del dato. L’ICO fa un esempio particolarmente efficace: oggi è possibile utilizzare delle normali fotocamere ad alta risoluzione per ottenere un’impronta digitale da remoto e autorizzare così operazioni particolarmente delicate.

For example, it is possible to use high resolution cameras to capture fingerprints remotely.

Fonte: “Biometric Insight”, ICO, 2022, Pg. 6

Alcuni documenti interessanti

Per chi fosse interessato ad approfondire questo particolare aspetto dell’Intelligenza Artificiale, ossia quello legato alle analisi emozionali e del decision-making, ci sono alcuni documenti ufficiali dell’ICO che vale la pena tenere in considerazione, oltre ad un’interessante riflessione di Ross Harper denominata “Ethics of Emotion AI”.

  • “Explaining decisions made with AI”, ICO ,    (LINK)
  • “Biometric Insight”, ICO, (LINK) del 22/10/2022
  • “Immature biometric technologies could be discriminating against people”, ICO, (LINK) del 26/10/2022
  • “Ethics of Emotion AI”, Ross Harper, (LINK) del 19/06/2019