Actions

Nos Publications

Article

Intelligence artificielle et sécurité : un engagement responsable

  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

L’essor des nouvelles technologies évoluant au rythme du web 1.0, 2.0, 3.0, 4.0 comme l’émergence de l’informatique quantique qui embrasse des applications et des secteurs d’activité très variés sont en passe de changer notre modèle sociétal. Alors que le web 1.0 apparu dans les années 90 s’adressait d’abord à des usages passifs essentiellement de consultation et de distribution, le web 3.0 qualifié de web sémantique et succédant au web 2.0, collaboratif, interagit directement sur notre quotidien comme sur nos données personnelles. Il suffit aujourd’hui d’orienter son smartphone vers un individu dans une foule pour avoir accès aux informations qu’il a lui-même placé sur le web, à savoir son profil Facebook, son actualité, ses relations… L’objectif du web 3.0 est d’organiser la masse d’information en vue de donner du sens aux données réduisant notablement le lien entre le monde réel et l’espace virtuel. Cette tendance illustrée notamment par l’usage croissant des objets connectés laisse augurer l’apparition d’un web 4.0 plus intelligent dans l’exploitation de ces informations. Dans cet écosystème, l’IA ouvre des perspectives extraordinaires et a déjà envahi notre quotidien au point de devenir indispensable même si nous ne nous en rendons pas toujours compte. Elle est une discipline plurielle allant de la finance à la médecine, de la grande distribution à la mobilité urbaine sans omettre le champ de la sécurité qui ne peut être exclu de cette effervescence.

L’IA apparait souvent quelque peu théorique voire obscure dans le champ des applications au profit de la sécurité et notamment dans le domaine opérationnel. Souvent les craintes prennent le dessus sur les atouts qu’offrent l’IA, souvent la subjectivité prend le dessus sur l’objectivité. Difficile de ne pas craindre l’IA alors que Stephen Hawkins, Bill Gates ou Elon Musk annoncent un futur où l’IA dominerait l’humain, un monde de la singularité où le progrès ne viendrait que des machines et où l’humain perdrait progressivement toute influence sur son futur. Difficile de ne pas craindre l’IA alors que la littérature de Georges Orwell à Antoine Bello, nous la présente comme la transposition de « Big Brother » dans la vie réelle. Difficile de ne pas craindre l’IA encore quand la fiction montre une IA désireuse de faire disparaître l’humain, qu’elle se nomme HAL ou Terminator. Difficile de ne pas craindre l’IA enfin, lorsque Microsoft est contraint de retirer son Chatbot devenu raciste et agressif quelques heures après sa mise en œuvre ou encore lorsque le crédit social en Chine se fonde sur une IA de reconnaissance faciale.

Et pourtant,

« Dans la vie, rien n’est à craindre, tout est à comprendre », nous dit Marie Curie

Même s’il faut demeurer vigilant quant à de possibles utilisations malveillantes ou inadaptées de l’IA aux enjeux de sécurité, il convient de s’ouvrir aux nombreuses perspectives qu’elle ouvre et exploiter cette discipline comme un levier de transformation positive. Il est indispensable que les forces de sécurité s’engagent en connaissance et en responsabilité dans l’utilisation d’une IA de confiance sans se laisser détourner et retarder par des discours alarmistes, souvent idéologiques.  Une IA responsable, c’est une IA mise en œuvre par des sachants, une IA transparente, inclusive, qui n’est pas le jeu d’apprentis sorciers auto proclamés qui déclinent des recettes applicatives ou éthiques en ignorant totalement les fondements sous-jacents.

La Gendarmerie nationale a lancé l’action « Cap IA » qui a pour objectif de définir une identité, un cadre et une ambition pour l’essor de l’intelligence artificielle au profit de la sécurité. Plutôt que d’avoir une vision projet ou produit, le choix s’est porté sur une vision intégrée qui porte l’IA comme vecteur de la transformation, qui rassemble l’ensemble des composantes nécessaires à un développement en connaissance et en confiance : la formation, le développement, l’évaluation, l’organisation, le management, le partenariat, et bien entendu l’éthique. Cette ambition inclut des travaux collaboratifs en totale visibilité avec des partenaires académiques ou industriels.

L’objectif de Cap IA est de développer une IA, qui loin d’être un simple outil informatique, accroit la sécurité des citoyens,  détecte et prévient les usages malveillants, offre une égalité des services de sécurité à l’usager, mais aussi améliore le travail du gendarme. Il s’agit de proposer une IA matrisée et de confiance, de refuser d’utiliser une boîte noire, au regard du respect de redevabilité vis à vis du citoyen.

Exploiter le potentiel de l’IA dans le domaine de la sécurité est un atout considérable en s’appuyant sur un cadre éthique assuré pour un meilleur service au citoyen. L’IA doit permettre d’«humaniser» la mission de sécurité et de secours en apportant plus de temps aux acteurs opérationnels pour gérer les questions  relevant de l’intelligence humaine. Celle-ci reste fondamentale pour superviser, contextualiser, valider ou rectifier les analyses produites en vue d’une prise de décision. Ce n’est pas à la machine de décider dans un domaine aussi sensible que la sécurité. Pour autant, décider avec l’aide de la machine est un véritable atout pour objectiver le raisonnement et  analyser un flux de donnée considérable.

La Gendarmerie nationale a lancé l'action « Cap IA » qui a pour objectif de définir une identité, un cadre et une ambition pour l'essor de l'intelligence artificielle au profit de la sécurité

Patrick Perrot, PhD

L’interconnexion des objets et des infrastructures devrait progressivement générer un univers numérique porteur de progrès certes mais qui peut aussi attirer la malveillance. Demain, les territoires dits « intelligents » constitueront à la fois des usines de production considérable de données et des portes d’entrée à la malveillance. Il est indispensable de prendre, par la maîtrise du fonctionnement des processus, toutes les précautions nécessaires à la préservation de la sécurité des individus en prévenant un détournement des usages de l’IA par des tiers.  Anticiper les attaques, détecter les failles et mettre en place les contre mesures deviendra un impératif. Ces territoires connectés interrogent aussi sur l’égalité de service. L’accessibilité aux services de l’Etat est une priorité qui doit intégrer le risque de fracture. Il n’est pas envisageable de voir se  développer des mégalopoles connectées au monde entier et des territoires distants des services. L’égalité du citoyen face à l’offre de sécurité est un impératif.

Dans le cadre de sa stratégie de transformation, la Gendarmerie exploite aussi l’IA au profit de son personnel avec comme corollaire le service à l’humain et non l’inverse. Il s’agit d’exploiter l’IA comme un catalyseur pour automatiser des tâches répétitives et permettre aux agents de se concentrer sur des missions nécessitant l’intelligence, la compréhension et le jugement humain. L’IA au service de l’agent concerne les activités dominées par des missions répétitives comme la collecte, le tri, la comparaison, le croisement d’informations, ou encore la planification d’actions. En revanche, dans le cadre d’emplois plus polysémiques où les interactions sociales sont importantes, où la prise de décision est essentielle, l’IA pourra être utilisée en assistance et non en substitution. Il ne s’agit pas de faire disparaître les métiers d’activités routinières pour ne laisser la place qu’à des activités managériales mais bien de transformer et de valoriser progressivement l’ensemble des métiers. Libéré des tâches « automatisables », le personnel peut se consacrer à des missions à forte valeur ajoutée. La transformation des métiers ne doit pas transformer l’humain en vassal de l’IA mais bien le libérer pour lui permettre de retrouver toute sa capacité d’action, de décision et d’initiative.

Ainsi, l’engagement en au profit de la sécurité vers une IA de confiance, répond à une ambition de transformation responsable et inclusive. Il satisfait une triple exigence déclinée par la vision stratégique Cap IA, à savoir une IA de confiance pour une sécurité plus efficace, au profit de la population et mise en œuvre en connaissance par le gendarme. La connaissance des enjeux qu’ils soient scientifiques, juridiques ou éthiques est un impératif et impose de développer un partenariat ouvert, un accompagnement et une formation progressive et étagée du personnel et une exploitation responsable pour mieux appréhender une IA dont la place dans nos activités quotidiennes ne cessera de croître.-

Patrick Perrot, PhD

INSTITUT EUROPIA Expert IA ET ENJEUX
DE SÉCURITÉ

En quelques clics

Derniers articles

[#DÉBAT] Règlementation Européenne : IA & RECONNAISSANCE FACIALE
L'INTELLIGENCE ARTIFICIELLE EN QUESTIONS
TECHNOLOGIE, ART ET FINANCE

Twitter feed

  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •