Trova le tue foto, e quelle dei tuoi sosia, in Rete

“La natura ti dà la faccia che hai a vent’anni; è compito tuo
meritarti quella che avrai a cinquant’anni.”
Coco Chanel

Il dibattito sull’utilizzo dei sistemi di riconoscimento facciale per minare le nostre libertà individuali è ancora in corso e, complice le proteste del #blacklivematters, stanno prendendo una piega interessante e inaspettata. Adesso non voglio scomodare i sistemi di riconoscimenti facciale professionale, in dotazione a governi e forze dell’ordine, che comunque rappresentano una seria minaccia per la nostra vita democratica. Usando semplicemente alcuni degli strumenti gratuiti messi a disposizione sul web, possiamo renderci conto di quanto la tecnologia d’identificazione facciale si sia evoluta divertendoci a scovare le nostre foto in Rete (e quelle dei nostri sosia).

Face Search, PimEyes

Iniziamo da Face Search di PimEyes che, sfruttando le tecnologie di riconoscimenti facciale unite al machine learning, “will help you find the face you are looking for in the Internet.

Sono rimasto abbastanza sconvolto dai risultati: questo servizio scova il volto che vogliamo cercare in milioni di foto. Non è un semplice “pattern matching” ma una vera e propria analisi facciale, capace di trovare il volto anche in foto sfocate, di gruppo, con espressioni diverse…

Considerando che si tratta di un servizio gratuito e limitato (la versione “premium“, con risultati più accurati e il riferimento della sorgente, è a pagamento), che chiunque può usare utilizzando una delle tante foto disponibili in Rete e sui social, il rischio per la nostra privacy è concreto: una vera pacchia per stalker, investigatori e maniaci vari, non credete?

BetaFace

Se volete addentrarvi nel mondo dell’analisi facciale, il portale BetaFace offre un interessante spaccato della tecnologia, descrivendo i fattori che rendono unico il nostro viso. Provando con una mia vecchia foto, ho ottenuto una lunga lista di indicatori, e relativo punteggio:

5oclock shadow: yes (15%), age: 51 (60%), arched eyebrows: no, attractive: no (54%), bags under eyes: yes (69%), bald: yes (20%), bangs: no, beard: yes (32%), big lips: no (95%), big nose: yes (25%), black hair: no, blond hair: no (50%), blurry: no (26%), brown hair: no (34%), bushy eyebrows: no (87%), chubby: yes (20%), double chin: yes (5%), expression: neutral (60%), gender: male (98%), glasses: no, goatee: no (3%), gray hair: yes (31%), heavy makeup: no (98%), high cheekbones: no (60%), mouth open: no, mustache: yes (7%), narrow eyes: yes (32%), oval face: no (2%), pale skin: no (22%), pitch: -9.96, pointy nose: no (81%), race: white, receding hairline: yes (36%), rosy cheeks: no, sideburns: yes (4%), straight hair: yes (1%), wavy hair: no (91%), wearing earrings: no, wearing hat: no (60%), wearing lipstick: no, wearing necklace: no, wearing necktie: yes (60%), yaw: 0.65, young: no (61%),

Si, lo so: sull’età non c’ha azzeccato. All’epoca avevo poco più di 30 anni e l’algoritmo me ne assegna 51. Consoliamoci: sarò semplicemente venuto male 😉

Tante volte ho parlato dei rischi di pubblicare le nostre foto sui social (ma soprattutto quelle dei nostri figli) e, in generale, sul web. Anche foto scattate in occasione di eventi, pubblici o meno, che comunque consentono a questi servizi di “indicizzare” il nostro viso. Un business che si è evoluto anche grazie ad app come FaceTime che, a fronte del caricamento di un volto, ritornano all’utente una versione invecchiata di sé. Ma che memorizzano i dati biometrici in chissà quale database per chissà quale scopo. E’ facile immaginare che tutta questa collezione di volti serva per migliorare gli algoritmi di riconoscimento facciale, poi sfruttati anche per scopi di prevenzione ma anche –purtroppo– di repressione.

Facciamo un attimo chiarezza sulla terminologia.

  1. Facial Detection — La capacità d’individuare la presenza di un volto in uno spazio bidimensionale (generalmente una foto/frame video);
  2. Facial Recognition — Identificare e individuare lo stesso volto in un insieme di volti o situazioni diverse. Richiede l’analisi dei dati biometrici del volto;
  3. Emotion Detection — La capacità di distinguere le emozioni espresse dal volto, come rabbia, sorpresa, felicità, disgusto…

Ormai alcune di queste tecnologie, come la Facial Detection, sono incluse anche nei nostri smartphone o macchine fotografiche digitali. Altre, come l’Emotion Detection, vengono già usate per alcune pubblicità interattive (digital signage), di cui abbiamo già parlato qui. La Facial Recognition è quella che più mi spaventa: la capacità d’identificare e individuare uno specifico volto, magari nelle riprese delle migliaia di videocamere che ormai hanno invaso ogni angolo delle nostre città, impone una seria riflessione sul dove stiamo andando. Su come sarà il nostro diritto alla libertà di movimento (anche se già i nostri smartphone “fanno la spia), alla libertà d’incontrarsi con altre persone, di manifestare.

Spesso neppure serve mettere in atto queste tecnologie: alcuni studi hanno dimostrato come basta semplicemente la paura che possano essere utilizzate per modificare il comportamento dei cittadini! Guardate ad esempio l’effetto deterrente delle telecamere di sorveglianza: i video non sono costantemente visionati (almeno per ora) ma basta solo la loro presenza, più o meno reale, per modificare il comportamento di chi vi transita davanti.

Le tecnologie di riconoscimento facciale possono essere anche di aiuto, come ad esempio per identificare persone scomparse (anche se dovremmo interrogarci sul diritto di poter scomparire), ricercati e criminali. L’uso, però, deve essere fortemente regolamentato e controllato, per evitare che possa avere effetti deleteri sulla nostra Democrazia e Libertà.

Nella foto di copertina: volto di nobile egizio dal Museo Egizio di Torino

Questo articolo è stato visto 1.671 volte (Oggi 10 visite)

Hai trovato utile questo articolo?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.