Les arts: munitions dans une course à l’armement technologique?

Valentine Goddard
7 min readApr 9, 2024

--

Si on demande à des artistes s’ils veulent que leur art soit militarisé, il y a de bonnes chances qu’ils répondent: Non! Mais, attends… de quoi tu parles? Pourtant, les robots tueurs ne sont plus dans la science-fiction, ils sont sur le terrain, et la recherche qui combine art et intelligence artificielle contribue à leur développement. En fait, les artistes n’ont jamais eu un aussi grand rôle à jouer dans le développement d’une nouvelle technologie qui peut automatiser l’acte de tuer et en augmenter l’efficacité.

Illustration: Sébastien Thibault

Course à l’armement et le recours grandissant aux robots tueurs

Une course à l’armement qui intègre l’intelligence artificielle (IA) bat son plein et entraîne “une augmentation des dépenses globales des pays développés pour créer des armes autonomes, des systèmes d’analyse du champ de bataille et d’autres outils d’intelligence artificielle.” Le Département de la défense des États-Unis a d’ailleurs fait l’annonce d’un département d’IA générative pour l’intégration des systèmes d’armes autonomes et de systèmes d’aide à la décision militaire. Le ministère de la Défense du Canada devrait finaliser sa propre stratégie d’IA bientôt.

Qu’est-ce que ça implique concrètement? Dans cet article, Radio-Canada explique l’utilisation des systèmes d’identification de cibles par les militaires à Gaza. Ceux-ci font partie de la plus grande famille des Systèmes d’armes létales autonomes (SALA). En voici des extraits:

  • L’armée israélienne a désigné des dizaines de milliers d’habitants de Gaza comme des suspects à assassiner, utilisant un système de ciblage par IA avec peu de vérification humaine et fondé sur une politique permissive quant aux pertes humaines.
  • Les officiers ne sont pas tenus d’examiner de manière indépendante les évaluations du système d’IA afin de gagner du temps et de permettre une identification massive de cibles humaines, a expliqué un officier supérieur.
  • Accorder du temps à la vérification des informations uniquement lorsque la cible présumée était un haut commandant du Hamas.
  • Le programme n’était initialement utilisé que comme un outil auxiliaire, mais le leadership militaire aurait approuvé le recours généralisé aux listes des personnes à abattre suggérées par l’IA environ deux semaines après le début de la guerre.

Dans un autre reportage publié le même jour, deux des militaires qui ont attaqué le convoi humanitaire ont été mis à pied pour “non-respect des procédures”. L’article ne précise pas s’il s’agit d’une utilisation de systèmes d’IA d’identification des cibles, mais l’organisme qui a été victime de cette attaque qui a tué sept travailleurs humanitaires, le World Central Kitchen, demandera une enquête.

L’utilisation des SALA est croissante et des applications ont été rapportés dans le contexte de la guerre en Ukraine et en sol Africain. Enfin, l’utilisation des SALA se prolifère et inquiète les ONG. Un consensus sur sa gouvernance semble prendre forme, toutefois, il n’existe pas encore de règles internationales claires pour en limiter et en encadrer l’utilisation.

Capture d’écran de l’article de Radio-Canada cité plus haut

IA et Arts : les artistes prêts à aller au front?

L’IA générative est aussi utilisée pour générer des images, textes, musique, vidéos, bref pour générer du contenu culturel. Vous aurez peut-être entendu parlé soit avec enthousiasme, ou avec crainte, ou un peu des deux, de systèmes génératifs qui produisent des Monet en quelques secondes, d’OpenAI qui peut générer des vidéos de 60 secondes?

Une exploration en profondeur des implications éthiques, juridiques, économique et politiques de l’IA générative dans les arts est faite dans l’exposition interactive Frontières Algorithmiques, c’est donc plutôt de la militarisation de l’art que je veux mettre sur la table aujourd’hui.

Généralement parlant, on parle de “double usage” (dual-use) lorsqu’une technologie ou des systèmes algorithmiques peuvent avoir autant des applications pour le bien de l’humanité, que pour lui causer de graves dommages. Dans le domaine de la recherche-création Art et IA, le double usage des algorithmes inclut une amélioration de la capacité à:

  • Interpréter des environnements visuels complexes et à distinguer les cibles dans des conditions variées, en renforçant leur précision, et à améliorer la reconnaissance d’objets et l’interprétation de scènes dans les images de surveillance;
  • Créer des “deepfakes” et d’autres contenus manipulés pour tromper ses adversaires, ou les populations civiles, ou pour personnaliser le ciblage des campagnes de désinformation ou de polarisation.

Par exemple, dans cette recherche, les caricatures sont utilisées pour améliorer les systèmes de surveillance, et pour pallier à l’équilibre des ensembles de données en termes de genre, de race, d’âge et de type d’image, essentiel pour un système de surveillance efficace.

À San Francisco, un projet de recherche, Brainwash Café, qui semblait à la base inoffensif et réalisé par Stuart Russel a été utilisé par des chercheurs de l’université Stanford qui étaient affiliés à l’Université nationale des technologies de défense (NUDT) en Chine pour de la recherche (détection de têtes humaines) visant à améliorer les capacités de détection d’objets afin d’isoler plus précisément la région ciblée dans une image. La NUDT est contrôlée par l’Armée populaire de libération (APL).

Dans ces deux exemples, ni l’utilisation finale, ni l’utilisateur final ne seraient les premiers à venir à l’esprit lors de l’utilisation d’une application de caricature ou d’une autre application de photo sur mobile, ou lors de la participation à un projet de recherche académique dans un café.

OpenAI a changé récemment ses politiques pour permettre l’utilisation pour fins militaires. Puisque les politiques d’utilisation de plateformes d’IA génératives, contrairement à des lois, ne sont pas adoptées démocratiquement, et puisqu’elles peuvent changer selon la simple volonté de l’organisation, notre capacité à limiter la militarisation de la recherche art et IA risquent de disparaître. Par ailleurs, Google, Microsoft et tout un écosystème se font concurrence, assez créativement d’ailleurs, pour répondre aux appels du Pentagon.

Pourtant, en 2018, Demis Hassabis, co-fondateur et haut dirigeant de Google DeepMind, maintenant à la direction d’une nouvelle division IA de Microsoft, fait partie des signataires d’un engagement contre l’utilisation de l’IA pour développer des robots tueurs.

Les chercheur.e.s en IA peuvent refuser de participer au développement d’armes autonomes, mais ne peuvent pas contrôler ce que les autres font des découvertes qu’ils ont publiées.

Yoshua Bengio, pionnier de l’IA au Mila, avait déclaré au Guardian que si cet engagement permettait de faire honte aux entreprises et aux organisations militaires qui construisent des armes autonomes, l’opinion publique se retournerait contre elles. “Cette approche a fonctionné pour les mines antipersonnel, grâce aux traités internationaux et à la honte publique, même si de grands pays comme les États-Unis n’ont pas signé le traité d’interdiction des mines antipersonnel. Les entreprises américaines ont cessé de construire des mines terrestres”, a-t-il déclaré. M. Bengio a signé l’engagement pour exprimer ses “vives inquiétudes concernant les armes autonomes létales”. (Extraits de l’article du Guardian ci-dessous)

Nous sommes en 2024 et il est grand temps de renouveler cet engagement.

Partenariats art et IA pour la paix et la démocratie

L’IA et l’IA générative, comme d’autres révolutions technologiques (poudre à canon, armes nucléaires), entraînent une course à l’armement et transforment la nature de la puissance militaire et des conflits. C’est le rôle des artistes qui est nouveau dans cette dimension.

Les artistes n’ont jamais eu un aussi grand rôle à jouer dans le développement d’une nouvelle technologie qui peut automatiser l’acte de tuer et en augmenter l’efficacité.

Pour éviter de se retrouver dans une situation où, ni vu ni connu, notre art contribue sans notre consentement à augmenter la capacité d’armes automatisées, il est utile de faire des liens entre 1) l’art, l’IA et la recherche-création en génération de contenu visuel, sonore, écrit et culturel avec l’IA, et cet intérêt grandissant des grosses entreprises en tech et IA américaines, comme Google, pour les arts et les artistes explorant l’IA.

Puisque les recherches menées en art et IA contribuent à la recherche et au développement de SALA, qu’aucun consensus international sur la gouvernance de ces systèmes n’existe encore, être intentionel.le.s dans le choix de ses partenariats, des commanditaires de nos résidences Art et IA, est critique.

L’objectif de cet article est de s’assurer que les artistes ont conscience que leur art peut-être militarisé. C’est ensuite à chacun.e de nous, de décider si le jeu, en vaut la chandelle. Quant à moi, mon choix est sans équivoque. Il a d’ailleurs mené au lancement d’une pétition signée par plus de 2000 personnes et à la coalition Art Impact AI.

J’ai d’ailleurs très hâte de faire l’annonce de la plateforme IA, Art, Droit et Société de Alliance Impact (AIIA). Les valeurs de paix, de souveraineté numérique et la promotion de la démocratie y sont fondamentales.

À suivre très bientôt. Cliquez ici pour recevoir notre infolettre.

Tiré de l’exposition interactive www.frontieresalgorithmiques.com

Merci à Serife (Sherry) Wong pour son soutien à la recherche pour cet article.

--

--

Valentine Goddard
Valentine Goddard

Written by Valentine Goddard

Advisory Council of Canada/United Nations expert on AI & Data Policy & Governance; Lawyer/Mediator/Curator; Socioeconomic, legal, political implications of AI.

No responses yet