bacheca social

FAI UNA DONAZIONE





Sostieni questo progetto


A tutti i nostri lettori

A tutti i nostri lettori . Andremo dritti al punto: vogliamo chiederti di proteggere l’indipendenza dello Specchio Magazine. Se tu e tutti coloro che stanno leggendo questo avviso donaste un caffè, potremmo permetterci di far crescere l’Associazione lo Specchio e le sue attività sul territorio. Tutto quello di cui abbiamo bisogno è il prezzo di una colazione o di una rivista nazionale. Questa è la maniera più democratica di finanziarci. Con il tuo aiuto, non negheremo mai l’accesso a nessuno. Grazie.
luglio 2019
L M M G V S D
« Giu   Ago »
1234567
891011121314
15161718192021
22232425262728
293031  

Diaologhi in corso. FaceApp Challenge: Tutti i rischi del riconoscimento facciale.

fonte: linkiesta.it

fonte: linkiesta.it

by linkiesta.it

È una tecnologia veloce, comoda e che ha dei vantaggi. Ma già nel 2011 Eric Schmidt, ai tempi Ad di Google, la definiva “inquietante”. Eppure il riconoscimento facciale sarà presto onnipresente: se vogliamo evitare abusi, la legislazione non deve rimanere indietro

Il riconoscimento facciale è una tecnologia con cui stiamo familiarizzando.  Facebook negli ultimi giorni ha iniziato a mandare avvisi per abilitarlo, Apple lo usa per sbloccare gli iPhone X e in Cina Alibaba ha di recente lanciato la possibilità di “pagare con un sorriso”. Funziona come un proiettore: ti spara in faccia una griglia di più di 30.000 puntini in modo da misurare la distanza tra i tratti più importanti del viso e creare una mappa 3D del tuo volto. È veloce, comodo e ha molti vantaggi. Ma porta con sé altrettanti rischi.

Partiamo dall’ultima novità: Facebook. Il social network aveva tentato di introdurre il riconoscimento facciale in Europa nel 2012, ma era stato costretto a bloccare l’iniziativa su pressione della Commissione irlandese per la protezione dei dati. Negli ultimi giorni è tornato alla carica, mandando avvisi per chiedere il consenso alla tecnologia che – scrive Facebook – “permetterà di capire quando potresti essere presente nelle foto o nei video”, sarà utile “ per proteggerti dagli sconosciuti che usano le tue foto, trovare le foto in cui sei presente ma non ti hanno taggato” e per “suggerire alle persone chi potrebbero voler taggare”. Esempi che il sito di tecnologia TechCrunch ha definito “manipolatori” sostenendo che tramite queste modalità di avviso la piattaforma spingerebbe a dare una risposta “giusta” per i suoi interessi. Anche negli Usa Facebook ha avuto difficoltà con la tecnologia. Un giudice dell’Illinois ha autorizzato una causa collettiva contro il riconoscimento facciale, poiché lo Stato vieta la raccolta di informazioni biometriche. Secondo l’accusa avrebbe usato la tecnologia senza il consenso degli utenti. Il social network si è difeso dicendo che “il caso non ha alcun merito”.

Nella città di Shenzen, il riconoscimento facciale è utilizzato per individuare le persone che attraversano col rosso. Il viso dei trasgressori viene proiettato su maxi-schermi per umiliarli in pubblico

Ma perché una tecnologia simile alimenta tante preoccupazioni? Quali sono, effettivamente, i rischi legati ad essa? Per capirlo bisogna vedere alcuni controversi casi in cui il riconoscimento facciale è già stato applicato. In primis, in Cina. Nel Paese ci sono circa 170 milioni di telecamere di sorveglianza e l’installazione di altre 400 è prevista nei prossimi tre anni. Ma la svolta è arrivata con gli occhiali “intelligenti” a disposizione della polizia. Assomigliano ai Google glass, ma sono dotati del riconoscimento facciale, e sono usati per individuare sospetti criminali. Nello Xinjiang – regione autonoma nel nord-ovest della Cina in cui vivono soprattutto gli uiguri, minoranza etnica musulmana accusata dal governo di separatismo e terrorismo – un sistema di allarme a riconoscimento facciale avverte quando le persone sotto sorveglianza si allontanano più di 300 metri da una ‘safe zone’ compresa tra le loro case e il posto di lavoro. Nella città di Shenzen, il riconoscimento facciale è utilizzato per individuare le persone che attraversano col rosso. Il viso dei trasgressori viene proiettato su maxi-schermi per umiliarli in pubblico. In Russia, esiste un’app chiamata FindFace che dalla foto di una persona risale al suo profilo su VKontakte, il social network più popolare del Paese, con un’affidabilità del 70%.

Ma certe cose non succedono solo in Russia o in Cina: in Inghilterra la polizia ha usato il riconoscimento facciale per scansionare il volto di migliaia di persone al carnevale di Nothing Hilll, uno dei più grandi del mondo. Un sistema che ha portato la polizia a fermare e interrogare per sbaglio una persona. In un report il commissario alla biometrica Paul Wiles ha riferito che l’uso della tecnologia è andato ben oltre gli obiettivi iniziali. Ha dichiarato che il database nazionale della polizia, al luglio 2016, aveva custodite 19 milioni di fotografie, di cui centinaia di migliaia di persone innocenti. Oltreoceano, secondo quanto svelato dai ricercatori del Georgetown Law School Center for Privacy and Technology, la metà dei cittadini statunitensi adulti sarebbe schedata in un database a riconoscimento facciale.

Le domande fondamentali riguardo il riconoscimento facciale, che dovrebbero sempre essere chiare a chi viene scansionato per evitare qualsiasi tipo di abuso, appaiono molto simili a quelle che – a scoppio ritardato – tutti hanno iniziato a farsi sulla raccolta dei dati dopo l’esplosione del caso Cambridge Analytica: dove sono archiviati i nostri dati facciali? Quanti sono? Chi vi può accedere? Per cosa possono essere usati e per quanto tempo?

La tecnologia non si limita al connettere un volto con informazioni già presenti online. Un software sviluppato dall’Università di Stanford è riuscito ad azzeccare l’orientamento sessuale (gay o etero) a partire dai tratti somatici delle persone con una precisione del 74% nelle donne e dell’81% negli uomini. Una percentuale molto più alta rispetto a quelle registrate dagli esseri umani a cui è stato dato il solito compito. Un’ultima applicazione della tecnologia potrebbe avvenire nel mondo del marketing. In primis sotto forma di cosiddetti “prezzi dinamici”. Uno studio dell’Università di Toronto, infatti, ha suggerito come i tratti somatici possano dare utili indizi sulle condizioni socio-economiche di una persona. Questo potrebbe avere effetti sui prezzi delle cose che compriamo che, lo sappiamo bene, ormai non vengono più scritti su fogli di carta ma su etichette digitali. In un futuro non troppo lontano potremmo veder comparire prezzi personalizzati in base al compratore, non solo online. Fantascienza? No, una strategia già usata dalle agenzie di viaggio. Ma in un mondo di prezzi “su misura”, avverte l’Economist, gli sconti svaniscono e i ricavi per chi vende aumentano. Tutto questo a discapito dei consumatori. Il riconoscimento facciale, inoltre, potrebbe “spiare” le nostre reazioni davanti alla pubblicità di un prodotto (o magari di un manifesto politico), e dal livello di attenzione o da una particolare reazione potrebbe capire molto dei nostri gusti.

Le domande fondamentali riguardo il riconoscimento facciale, che dovrebbero sempre essere chiare a chi viene scansionato per evitare qualsiasi tipo di abuso, appaiono molto simili a quelle che – a scoppio ritardato – tutti hanno iniziato a farsi sulla raccolta dei dati dopo l’esplosione del caso Cambridge Analytica: dove sono archiviati i nostri dati facciali? Quanti sono? Chi vi può accedere? Per cosa possono essere usati e per quanto tempo?

Il Gdpr, il nuovo regolamento sulla privacy, si muove in questa direzione, ponendo dei paletti alla raccolta di dati biometrici. Ciononostante, il monito lanciato lo scorso autunno dalle colonne Financial Times, rimane più che mai attuale: «La tecnologia si svilupperà rapidamente. Se il riconoscimento facciale diventa onnipresente prima che siano prese decisioni sui limiti legali, potrebbero essere i fatti, anziché i principi liberali, a determinare le risposte».

Invia un commento

Puoi utilizzare questi tag HTML

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>