13 novembre 2017

L'intelligence artificielle : Un nouvel outil contre le crime

L'intelligence artificielle : Un nouvel outil contre le crime

La police de l'État américain du Delaware, dans l'est des É-U, s'apprête à équiper ses véhicules de « caméras intelligentes » afin d'aider les autorités à détecter un véhicule ayant à son bord un fugitif, un enfant disparu ou une personne âgée désorientée.

Les vidéos captées par ces caméras seront analysées par des logiciels d'intelligence artificielle qui sont en mesure d'identifier les véhicules grâce à leur plaque d'immatriculation ou d'autres caractéristiques, et donner ainsi « des yeux supplémentaires » aux agents en patrouille, explique David Hinojosa de la société Coban Technologies, qui fournit ce matériel.

« Nous aidons les policiers à rester concentrés sur leur travail », ajoute-t-il, qualifiant cette nouvelle technologie de « caméra embarquée sous stéroïdes ».

Le programme s'inscrit dans une utilisation croissante de l'alliance entre l'intelligence artificielle et la vidéo pour lutter contre la criminalité, une tendance qui inquiète les défenseurs de la vie privée et des droits civils.

L'entreprise américaine Deep Science utilise la même technologie pour aider les commerçants à détecter en temps réel un vol à main armée, en identifiant des armes ou des agresseurs masqués, ce qui permet de déclencher des alarmes automatiques.

Selon le cofondateur de Deep Science et ancien ingénieur au Pentagone, Sean Huver, cette technologie est plus efficace et moins coûteuse que les gardes de sécurité humains. 

Le problème avec les gardes de sécurité, c'est qu'ils s'ennuient.

Sean Huver, cofondateur de Deep Science

Écoles, hôtels, magasins
Les technologies de vision assistée par ordinateur sont déjà utilisées pour les véhicules autonomes ou les drones, afin de reconnaître et interpréter l'environnement, explique Saurabh Jain, chef de produit pour le groupe d'infographie Nvidia qui fabrique des puces informatiques pour ces nouveaux systèmes de sécurité.

L'entreprise Nvidia, bien connue pour ses périphériques vidéo, compte déjà une cinquantaine de partenaires qui utilisent sa technologie. Umbo Computer Vision, l'un de ses partenaires basé en Californie, a développé un système de surveillance qui peut être utilisé dans les écoles, les hôtels ou d'autres endroits publics, en analysant la vidéo pour détecter les intrusions et les menaces en temps réel et envoyer une alerte aux gardes de sécurité.

« Une vidéo n'est pas structurée, on ne peut faire des recherches dedans », explique Amit Gavish, directeur général de Briefcam aux États-Unis. Sans intelligence artificielle, dit-il, « il faudrait visionner des centaines d'heures d'images en utilisant seulement avance rapide et retour rapide ».

Source : Youtube / BriefCam

« Grâce à l'I.A., nous détectons, suivons, extrayons et classons chaque objet dans la vidéo pour en faire une base de données. »

Ainsi les enquêteurs peuvent trouver rapidement des suspects dans les images de vidéosurveillance, un système déjà utilisé par les forces de l'ordre dans des centaines de villes à travers le monde, dont Paris, Boston et Chicago, précise M. Gavish.

« Ce n'est pas seulement un gain de temps. Dans bien des cas, ça ne serait pas possible parce que les gens qui regardent des images vidéo deviennent inefficaces après 10 à 20 minutes », affirme-t-il.

L'entreprise Vision Labs utilise la technologie Nvidia de reconnaissance faciale pour identifier les voleurs à l'étalage ou les clients fauteurs de troubles dans les casinos. 

« Nous pouvons déployer (cette technologie) n'importe où », s'enthousiasme Vadim Kilimnichenko, chef de projet chez Vision Labs.

Ses clients comprennent aussi des banques pour lesquelles la reconnaissance faciale peut aider à déterminer si quelqu'un utilise une fausse identité.

Les risques sur la vie privée
Pour Marc Rotenberg, président de l'Electronic Privacy Information Center (l'EPIC), la croissance rapide de ces technologies soulève des risques pour la vie privée et appelle à un contrôle réglementaire sur la façon dont les données sont stockées et utilisées. 

Certaines de ces techniques peuvent être utiles, mais il existe d'énormes problèmes de confidentialité lorsque les systèmes sont conçus pour capturer l'identité et prendre une décision basée sur des données personnelles.
C'est là que les problèmes de profilage, de partialité et de précision entrent en ligne de compte.
L'utilisation des systèmes d'intelligence artificielle en justice doit faire l'objet de garanties juridiques et de transparence

Marc Rotenberg, président de l'EPIC

Dans un article de blogue publié plus tôt cette année, Shelly Kramer de Futurum Research expliquait que l'intelligence artificielle est très prometteuse pour les forces de police, que ce soit pour la surveillance, l'identification de menaces sur les réseaux sociaux ou l'utilisation de « bots » (robots informatiques) pour détecter des messages mensongers (fake news).

« Une encourageante promesse qui s'accompagne cependant d'une foule de risques et de responsabilités », mentionne-t-elle.


Source : Agence France-Presse
Crédit photo : Extrait de la vidéo briefcam.com
Tous droits réservés © Prodige Média – 2017
Politique de confidentialité | Termes et conditions
view_count(); (function(i,s,o,g,r,a,m){i['GoogleAnalyticsObject']=r;i[r]=i[r]||function(){ (i[r].q=i[r].q||[]).push(arguments)},i[r].l=1*new Date();a=s.createElement(o), m=s.getElementsByTagName(o)[0];a.async=1;a.src=g;m.parentNode.insertBefore(a,m) })(window,document,'script','https://www.google-analytics.com/analytics.js','ga'); ga('create', 'UA-9604211-1', 'auto'); ga('send', 'pageview');