Forse non sono lontani i tempi in cui vedremo le polizie di tutto il mondo indossare occhiali con realtà aumentata. Probabilmente questa strumentazione sarà prodotto a dalla Vuzix, società di Rochester, con sede a New York, che è stata di gran lunga quella che ha dato maggior fiducia alla tecnologia della realtà aumentata, collaborando con aziende di tutto il mondo, tra cui la NNTC o la famigerata Clearview AI, per integrare algoritmi di riconoscimento facciale nei suoi device indossabili.
Questo potrebbe cambiare molto le cose per i corpi di polizia e, più in generale, per gli addetti all’ordine pubblico. Infatti, tra non molto tempo si potranno identificare le persone sospette in tempo reale attraverso il riconoscimento facciale e senza infrastrutture come le telecamere a circuito chiuso, che richiedono un tempo maggiore di elaborazione del dato.
A fine febbraio 2020 Gizmodo, blog altamente specializzato, affermava che Vuzix stava lavorando con Clearview AI per portare la propria tecnologia di riconoscimento facciale a miliardi di persone con gli occhiali a realtà aumentata, non solo nell’ambito della sicurezza, ma anche nel settore sanitario, a paramedici e soccorritori, nella vendita al dettaglio e nel settore ricettivo/alberghiero.
Vuzix non è la sola compagnia a muoversi in questa direzione. Dall’altra parte del mondo, in Cina, la società tecnologica Rokid sembra aver condotto testi per verificare l’efficacia di algoritmi di riconoscimento facciale. Nel frattempo, un’altra società cinese, la LLVision, sta producendo occhiali dotati di riconoscimento facciale che assomigliano ai compianti Google Glass.
A latere dell’attuale stato dell’arte, che vede diverse compagnie fare a gara nel trovare la tecnologia più efficace, sorge naturalmente un problema etico che comporta una serie di domande sulla privacy. Infatti il riconoscimento facciale di questi futuristici occhiali solleva tutti gli stessi problemi della tecnologia quando questa viene installata nelle telecamere a circuito chiuso, tra cui i principali sono privacy e precisione.
In aggiunta a questo, lo Small Form Factor, ovvero il lavoro sui vari fattori di forma del computer per ridurre al minimo il volume e l’impronta dello stesso, fanno sorgere ulteriori dubbi, come quali scorciatoie saranno prese per eseguire algoritmi di riconoscimento facciale su chip più piccoli e più deboli, oppure se i match tra immagini e database saranno ricontrollati (da un essere umano) per evitare errori di identificazione.
Si tratta di preoccupazioni legate a un malfunzionamento della tecnologia, perché non è stata ancora sviluppata una esattezza tale che la metta in sicurezza da errori.
Pensiamo alle persone incensurate: molto raramente avrebbero voglia di essere scansionate e inserite in un database per il riconoscimento facciale: non solo gli errori della tecnologia sono ancora molto alti, ma si tratta anche di una diffidenza generale nell’essere schedati a priori!
A corollario delle sperimentazioni in ambito di sicurezza, l’AI sul riconoscimento facciale sta facendo molto progressi positivi che possono essere impiegati in diversi settori. Si pensi ad Esempio a IBM, che ha deciso di creare un algoritmo per la sorveglianza predittiva, ma sostiene che non può essere distorto perché il sistema non tiene esplicitamente conto della razza o del genere (anche se la geolocalizzazione può dire molto sulla razza della persona da identificare).
Un’altra tecnologia AI è la S2IGAN (Speech-to-Image Generation via Adversarial Learning), che sembra essere particolarmente necessaria al giorno d’oggi e si basa su un algoritmo capace di generare un’immagine basata solo sulla descrizione che stiamo facendo del soggetto.
Man mano che il riconoscimento facciale istantaneo diventa più diffuso in tutto il mondo e si adatta a fattori di forma convenienti per le Forze dell’Ordine, le questioni di responsabilità e trasparenza diventano esponenzialmente più importanti. Le tech company che si prodigano nella ricerca in questo senso sono chiamate non solo a sviluppare una tecnologia efficace, ma, parallelamente, a fare dare garanzie sufficienti alla maggioranza della popolazione, giustamente preoccupata per la propria privacy.