technologie L’intelligence artificielle (IA) au service de la police : où est la ligne rouge ?

Regionalis

Infos Bot
Membre du Staff
Il y a des avantages évidents à l’utilisation de l’IA par la police, mais un certain nombre de groupes de défense des droits de l’homme et d’experts en IA ont exprimé des préoccupations quant à l’utilisation abusive potentielle de cette technologie.

Les organismes d’application de la loi du monde entier envisagent d’utiliser l’intelligence artificielle pour prévenir et résoudre les crimes.

AdobeStock_370144857-718x523.jpegIl existe différentes façons d’utiliser la technologie de l’IA dans le maintien de l’ordre, telles que la surveillance, la surveillance des foules, l’analyse des zones probables de criminalité et la technologie de reconnaissance faciale pour identifier les criminels. La reconnaissance faciale est déjà utilisée par les groupes d’application de la loi, en particulier en Chine et aux États-Unis. Le département américain de la Sécurité intérieure fait également pression pour le partage international des données biométriques.

Son programme international de partage de données vise à créer une « capacité de partage d’informations biométriques et biographiques pour soutenir la sécurité des frontières et le contrôle de l’immigration », selon des documents récemment partagés par Statewatch. La discussion sur l’IA et la police s’est étendue à l’Irlande ces derniers mois, alors que le ministère de la Justice vise à permettre l’utilisation de la technologie de reconnaissance faciale par leur police nationale dans le cadre de la réglementation prévue.

À la suite de cette nouvelle, le sénateur irlandais Malcolm Byrne, a souligné les avantages de la technologie de reconnaissance faciale lorsqu’elle est utilisée par les forces de l’ordre, ainsi que les risques de son utilisation. « Par exemple, en Inde, jusqu’à 10 000 enfants portés disparus ont été identifiés à l’aide de la technologie de reconnaissance faciale », a déclaré Byrne lors d’un débat au parlement le mois dernier.

« En revanche, nous avons la Chine, qui est effectivement devenue une société de surveillance grâce à l’utilisation de la technologie de reconnaissance faciale. Il est important que si nous déployons cette technologie, cela se fasse avec une consultation publique complète et éclairée par les droits de l’homme et l’éthique. »


« Nous devons déterminer dans quel type de société nous voulons vivre »

SERGE DROZ

Serge Droz, expert en sécurité informatique et ancien président de FIRST (Forum for Incident Response and Security Teams), a déclaré qu’il y a une « valeur énorme » à utiliser l’IA à des fins d’application de la loi, mais qu’il y a aussi « une multitude de risques » qui doivent être pris en compte. « Dans la société, nous devons toujours trouver un équilibre entre la vie privée et la sécurité. Les droits de l’homme vous garantissent les deux et c’est un dilemme », a déclaré Droz. « La technologie a tendance à changer ces choses et c’est quelque chose dont nous devons discuter. »

Questions relatives à la protection de la vie privée

La protection de la vie privée est l’une des principales questions soulevées lorsqu’il s’agit de la technologie de l’IA dans les services de police. Le Conseil irlandais pour les libertés civiles (ICCL) a publié une déclaration en mai contre l’utilisation de la technologie de reconnaissance faciale par la police nationale, protection de la vie privée étant l’une des grandes préoccupations.

Le groupe a déclaré qu’il était aligné sur plus de 170 organisations à travers le monde qui appellent à « une interdiction pure et simple de la surveillance biométrique dans les espaces publics ».

« [La technologie de reconnaissance faciale] et d’autres outils de surveillance biométrique permettent une surveillance de masse et une surveillance ciblée discriminatoire », a déclaré l’ICCL. « Ils ont la capacité d’identifier et de suivre les gens partout où ils vont, ce qui porte atteinte au droit à la vie privée et à la protection des données, au droit à la liberté de réunion et d’association, et au droit à l’égalité et à la non-discrimination. »

Droz a également souligné l’abus potentiel de ce type de technologie, avec un risque de « sur-maintien de l’ordre » par les organismes d’application de la loi. « Être capable de suivre certains à travers une ville entière est assez envahissant pour la vie privée », a déclaré Droz. « C’est tout à fait acceptable pour les crimes graves, mais nous ne voulons pas vraiment que les forces de l’ordre le fassent pour quelqu’un qui n’a pas payé de contravention de stationnement. »

Lacunes en matière de réglementation

Le Dr Kris Shrishak, chercheur en technologie à l’ICCL, a déjà parlé des défis de la réglementation en matière de technologie de reconnaissance faciale. L’un des principaux problèmes qu’il a soulevés est qu’une grande partie de cette technologie est développée par de grandes entreprises privées telles que Clearview AI, qui pourraient trouver des failles dans la réglementation.

Par exemple, les entreprises peuvent affirmer qu’il n’y a pas de technologie de reconnaissance faciale dans leurs caméras de vidéosurveillance, mais les images peuvent toujours être déplacées sur des serveurs qui utilisent cette technologie.

Shrishak a déclaré que cela pouvait également s’appliquer aux caméras utilisées dans les drones des forces de l’ordre. C’est un sujet qui pourrait se poser en Irlande, car les forces de défense irlandaises se sont associées à des scientifiques pour développer un nouveau drone capable de surveiller la zone offshore irlandaise, a récemment rapporté The Irish Times.

« Même lorsque les drones eux-mêmes ne peuvent pas effectuer beaucoup de calculs ou ont un stockage limité, les enregistrements des drones peuvent être envoyés et analysés sur des serveurs dotés de capacités puissantes », a déclaré Shrishak. Alors que l’UE et d’autres pays s’efforcent de réglementer l’IA, la vitesse à laquelle la technologie se développe peut entraîner des lacunes dans la réglementation et créer un risque d’utilisation abusive de la technologie.

Theresa Kushner est une experte en données qui travaille chez NTT Data en tant que responsable de son centre d’innovation en Amérique du Nord. Kushner a déclaré qu’il était important non seulement de considérer la technologie, mais aussi « comment nous, en tant que personnes, la traitons ». « J’utilise toujours l’exemple d’une voiture autonome. Les voitures autonomes sont merveilleuses jusqu’à ce qu’une voiture frappe quelqu’un, alors qui est responsable? » Kushner a dit. « Il n’y a personne qui conduit la voiture, la police et toutes ses procédures n’ont pas rattrapé la technologie elle-même.

« Donc, lorsque vous commencez à regarder la reconnaissance faciale, en particulier dans les forces de l’ordre, pour être en mesure d’identifier les personnes qui ont fait quelque chose de mal ou tout ce que vous essayez d’identifier, vous courez beaucoup de risques. »

Le risque de déviance​

Les progrès de l’IA et de l’apprentissage automatique ouvrent de nouvelles possibilités pour les forces de police, y compris la capacité de prédire les crimes futurs.

En juin, des spécialistes des données et des sciences sociales de l’Université de Chicago ont déclaré avoir développé un nouvel algorithme capable de prédire les crimes une semaine à l’avance avec une précision d’environ 90%.

cover-r4x3w1000-5ad0b0db2fc81-chine-web.jpgCependant, une préoccupation commune avec les modèles d’IA est le risque de déviance dans les données sur lesquelles les systèmes sont formés, ce qui a été mis en évidence dans l’étude. Les chercheurs ont déclaré que l’algorithme devrait être ajouté à une « boîte à outils de politiques urbaines et de stratégies policières », plutôt qu’à un moyen de diriger l’application de la loi.

Noel Hara, directeur technique du secteur public de NTT Data, a déclaré que le risque de préjugés raciaux est « un très gros problème » avec l’IA et l’apprentissage automatique, en raison de la formation de modèles sur des données potentiellement biaisées. En 2020, une bibliothèque d’images du MIT utilisée pour former l’IA a été retirée après qu’il a été constaté qu’elle contenait des termes racistes et misogynes. « Si les statistiques montrent que les personnes d’un certain groupe racial commettent plus de crimes, le système le remarquera automatiquement et s’il n’est pas correctement programmé, les personnes de ce groupe ethnique au score plus élevé seront désignées quasi systématiquement les auteurs des crimes », a déclaré Hara.

Quelle société voulons-nous ?

L’IA a attiré l’attention des régulateurs, son utilisation dans l’application de la loi étant mise en évidence dans les propositions de l’UE.

Le projet de règlement de l’UE suggère de classer l’IA dans quatre catégories de risques, les systèmes de risque inacceptables – ceux considérés comme une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes – étant carrément interdits. Cela inclut les soi-disant scores de crédit social, tels qu’un système controversé vu en Chine, et les applications qui manipulent le comportement humain.

Les cas d’utilisation « à haut risque » incluraient l’utilisation de l’IA dans les infrastructures critiques, l’application de la loi, la migration et la patrouille frontalière, l’emploi et le recrutement, et l’éducation. Ces cas d’utilisation seraient restreints mais pas interdits, et les propositions ont été critiquées par les organismes de surveillance européens pour ne pas aller assez loin en matière de reconnaissance faciale en direct dans les lieux publics.

La discussion mondiale sur la façon dont l’IA devrait être mise en œuvre par les forces de l’ordre est loin d’être terminée. Des groupes comme l’ICCL appellent à une interdiction totale, tandis que d’autres experts comme Hara estiment que cette technologie devrait être utilisée, mais de manière responsable.

Hara a donné l’exemple de festivals ou de grands événements, où les gens pouvaient « choisir » d’échanger leur droit à la vie privée afin d’obtenir des avantages pratiques, tels que la reconnaissance faciale utilisée à la place d’un billet pour accélérer les temps d’attente. Ce type de technologie aurait été utilisé pour des événements en Allemagne l’année dernière.

Droz a déclaré que les politiciens et le public doivent décider du type d’équilibre qu’ils veulent avec l’utilisation de cette technologie, car il ne s’agit « pas d’un problème technique » mais d’un problème sociétal.

« Nous devons déterminer dans quel type de société nous voulons vivre », a déclaré Droz. « Si vous allez en Chine, la reconnaissance faciale est partout, vous déposez vos bouteilles dans le bac de recyclage, une photo est prise, vous obtenez des crédits sociaux. Si vous traversez en dehors des clous, votre photo est prise et vous déduisez vos crédits sociaux.

« Voulons-nous vivre dans une société comme celle-ci ? »
 

Pièces jointes

  • AdobeStock_370144857-718x523.jpeg
    AdobeStock_370144857-718x523.jpeg
    69,5 KB · Vues: 170
  • cover-r4x3w1000-5ad0b0db2fc81-chine-web.jpg
    cover-r4x3w1000-5ad0b0db2fc81-chine-web.jpg
    119,9 KB · Vues: 0

Bad Karma

Membre
Par exemple, les entreprises peuvent affirmer qu’il n’y a pas de technologie de reconnaissance faciale dans leurs caméras de vidéosurveillance, mais les images peuvent toujours être déplacées sur des serveurs qui utilisent cette technologie.
Et probablement que certaines entreprises vendent le service de reconnaissance faciale en ces termes, pas de reconnaissance live mais possibilité d'analyser les images a posteriori ce qui finalement en terme de respect de la vie privée est la même chose.

La réflexion que je retiens de cet article c'est que la législation n'arrive pas à suivre le rythme de la technologie : d'une part parce que les sociétés tech sont dans un rythme de création et d'innovation rapide et d'autre part nos systèmes législatifs sont relativement lents. Lents parce que les lois sont passés à la moulinette de nos parlements qui veillent (en règle générale) à protéger les citoyens de lois qui porteraient atteinte à leur vie privée ou à leurs libertés.
 

Albert Ø

Membre
La solution est d'interdire toute nouvelle technologie IA pouvant porter atteinte à la vie privée jusqu'à que le législatif ait pondu une loi nous protégeant de son éventuelle dérive.
 

Thomas

Membre
On ne peut pas interdire une nouvelle technologie mais son utilisation.
Et puis on peut légiférer pour ce qui se passe dans notre pays assez facilement, en Europe également mais ailleurs c'est compliqué voir impossible. Comment empêcher la NSA de suivre une personne en France avec leur satellite ? Ils font à peu près ce qu'ils veulent partout dans le monde avec une technologie de pointe qui permet par exemple de lire une plaque d'immatriculation depuis l'espace.

En 1967 les satellites permettaient ce genre de photo, ici le Pentagone

corona.jpg

Actuellement des satellites destinés à l'agriculture permettent ce genre de photo

5c74df109f3aa.jpg

Et quand tu vois la précision de Google Maps alors que c'est artificiellement bridé justement pour ne pas empiéter sur la vie privée... T'imagines les satellites des services de renseignement en 2022...
 
Haut