Apprentissage automatique et pratiques inter-arts

1. Quelques obstacles à une IA éthique et responsable

1.1 Une fracture numérique genrée

« Les inégalités socio-économiques (de revenus et autres) sont étroitement associées aux inégalités numériques, car en général les premières façonnent les secondes, ce qui, à son tour, renforce les inégalités existantes, créant ainsi un cercle vicieux. La lutte contre les inégalités socio-économiques par le biais des technologies numériques ne peut donc s’attaquer qu’aux symptômes, mais pas aux causes profondes des inégalités. Les politiques visant à réduire la fracture numérique doivent être multidimensionnelles : technologiques, économiques, sociales et éducatives (sensibilisation) et devraient s’attaquer simultanément aux inégalités socio-économiques et numériques. » (UNDESA).

1.2 Citoyenneté de demain : manque de capacité à faire des choix politiques informés

Les experts s’accordent à dire que les lignes directrices éthiques sur le développement et la gouvernance de l’intelligence artificielle exigent responsabilité, équité et transparence. Cependant, la définition de ce que ces termes impliquent peut différer de manière assez importante. Nous partons du principe que la transparence va au-delà de la capacité à expliquer les résultats des algorithmes (un concept appelé « explicabilité » ou « interprétabilité ») et qu’il ne s’agit pas seulement de pouvoir expliquer une décision algorithmique à des clients/investisseurs/juges mécontents. Il s’agit fondamentalement de permettre aux citoyens et aux citoyennes de prendre des décisions éclairées concernant l’utilisation de leurs données dans les algorithmes. Yoshua Bengio, expert et chercheur renommé en IA, est catégorique : « Nous avons la responsabilité de ne pas laisser (ces décisions) entre les mains de quelques personnes car les impacts (de l’IA) affecteront tout le monde. Il y a des choix politiques à faire et le citoyen ordinaire doit les comprendre ». Niskar et al. ont constaté qu’afin de concevoir des politiques légitimes, les décideurs doivent s’assurer qu’un grand nombre de citoyens aux perspectives diverses comprennent les implications des nouvelles technologies ou applications scientifiques, et leur recherche démontre que les arts sont parmi les outils les plus efficaces pour atteindre ces objectifs. Les récentes recommandations politiques des Nations Unies soulignent le rôle important de la société civile et des arts dans la gouvernance numérique durable et éthique (UNDESA) ; toutefois, sur le terrain, une meilleure compréhension des implications de l’IA demeure un objectif à atteindre.

1.3 Le contrôle du narratif autour des nouvelles technologies d’IA suscite un manque de confiance

Une nouvelle technologie comprise par un nombre restreint d’experts (Gagné) et d’investisseurs (Brandusescu) est un terreau fertile pour restreindre ses bénéfices à cet ensemble de joueurs. L’histoire de la réglementation des nouvelles technologies montre qu’elle est fortement influencée par de puissants consortiums d’intérêts privés. Dans Electric Sounds, Technological Change and the Rise of Corporate Mass Media, Steve J. Wurtzler explique comment les entreprises ont construit des alliances stratégiques afin de contrôler à la fois le récit de la nouvelle technologie et la propriété par la création de pools de brevets, définis comme des accords entre les propriétaires de brevets pour en partager les profits. L’innovation en matière d’acoustique a ainsi exacerbé une concentration croissante de la propriété et du pouvoir au sein des médias de masse américains. Au cours de cette même période, l’innovation acoustique a été moussée comme un « outil de nécessité publique » alors qu’en réalité, les utilisations indépendantes et éducatives de l’innovation acoustique ont été éludées par les stratégies susmentionnées (Wurtzler).

2. Pipeline sociotechnique : problématiques et modes d’intervention

2.1 Biais de genre dans le pipeline sociotechnique, de données entrantes à résultat algorithmique

Il conviendrait de lire, dans le cadre de cet article, l’expression « pipeline sociotechnique » comme étant un espace d’intervention visant à réduire les dommages que pourraient causer des algorithmes, ou en augmenter les bienfaits (Suresh et Guttag). Le pipeline part de la conception des questions posées/solutions recherchées, et inclut la collecte, la préparation (annotation, étiquetage) des données, la conception de l’architecture des données, le développement d’un modèle algorithmique, et sa gouvernance (cadres éthiques et normatifs). C’est du début du pipeline données-algorithmes et jusqu’à sa fin, et idéalement en boucle continue, qu’une approche transdisciplinaire inter-arts peut intervenir pour favoriser un développement et une gouvernance éthique et responsable de l’IA.

2.2 L’IA génère des images à partir des mots d’humains

Les applications et modèles algorithmiques en IA sont vastes et l’auteure a choisi une étude de cas qui porte plus spécifiquement sur les modèles d’apprentissage profond dont on se sert pour automatiser la génération d’images. La génération automatisée d’image utilise des réseaux neuronaux profonds entraînés sur de grandes quantités de données constituées d’images et de descriptions écrites correspondantes (Xu et al., 2018, et références dans Goddard et al., 2021). Ces modèles, ainsi que les processus de collecte et d’annotation des données, reproduisent la discrimination systémique existante dans la société, et dans le cas à l’étude, la discrimination à l’endroit des femmes ou des personnes qui s’identifient comme femme.

2.3 L’interdisciplinarité pour améliorer la qualité des algorithmes et des technologies d’IA

Soulignons d’abord la recherche approfondie de Sheuerman et al. qui ont analysé 113 jeux de données en vision automatique (vision computationnelle) pour en identifier les valeurs ayant encadré le choix des données recueillies ou rejetées. Quatre valeurs dominantes ont été identifiées : efficacité, impartialité, universalité et « amélioration du modèle algorithmique ». En contrepartie, d’autres valeurs ont été négligées ou implicitement dévaluées en faveur des valeurs retenues. Ainsi :

2.4 La recherche transdisciplinaire inter-arts en éthique de l’IA rencontre les orientations scientifiques émergentes en design d’apprentissage automatique

Ce chapitre se concentre sur les pratiques « inter-arts », une discipline artistique reconnue par le Conseil des arts du Canada (CAC). Le CAC définit la pratique inter-arts comme l’exploration ou l’intégration de multiples disciplines artistiques traditionnelles et/ou contemporaines qui sont fusionnées de telle sorte qu’aucune discipline artistique unique ne domine dans le résultat final. Ces méthodes transdisciplinaires croisent les arts avec d’autres disciplines non artistiques pour explorer un thème ou une question. L’auteure, juriste et commissaire inter-arts, met de l’avant une recherche itérative et participative sur les implications sociales, juridiques, économiques, politiques et éthiques de l’IA, incluant l’art algorithmique comme outil. Les interventions inter-arts dites engagées quant à elles se concentrent sur des enjeux spécifiques tels que la justice sociale ou les changements climatiques.

2.5 Pear AI.Art : collecte de données et rééducation participative des algorithmes

Les biais ne se traduisent pas toujours par des chiffres, ils peuvent aussi se manifester dans les mots que nous utilisons pour décrire le monde qui nous entoure (Luccioni et Bengio). Dans leur étude, D. Smith et al.ont conclu que des mots différents sont utilisés pour décrire les leaders masculins et féminins, et que les femmes se voient attribuer beaucoup plus d’attributs négatifs. À cette fin, la diversité des perspectives dans l’étiquetage des images est essentielle car la collecte et l’annotation des données sont toutes deux des processus hautement subjectifs. (Haralabopoulos et al.)

Illustration scientifique de Audrey Désaulniers pour le projet PearAI.Art

3. Meilleures pratiques dans le cadre de projets intégrant art et éthique de l’IA

L’histoire de l’art génératif repose en partie sur le désir d’éviter le côté le plus sombre de l’humanité, résidant dans sa nature subjective, et sur l’aspiration à trouver des moyens objectifs de soutenir des processus démocratiques, transparents et participatifs de communication collective. Une partie de la pensée était que si les machines pouvaient supprimer la subjectivité de l’art et du jugement esthétique et les imprégner de la transparence et de la clarté de la science, nous pourrions parvenir à une communication plus claire (Caplan). Contrairement à ces espoirs, en 2021, il suffit de lire le fil d’actualité en technologie pour admettre que les systèmes d’IA ne sont ni neutres ni impartiaux, et que les machines ne peuvent à elles seules offrir l’outil de communication impartial espéré.

3.1 L’art algorithmique doit être politique et contribuer à l’évolution de la gouvernance de l’IA

3.2 Éviter la dystopie et favoriser un sentiment de « capacité d’intervention »

Les recherches de Sommer et Klöckner, fondées sur la théorie de la psychologie environnementale, ont permis de déterminer par quels mécanismes l’art engagé affecte le public. Ils ont conclu que les artistes qui se soucient de l’impact de leur travail devraient s’éloigner de dépeindre d’une manière dystopique des questions telles que le changement climatique ou l’impact de l’IA sur les droits de la personne, et préférer une conception proposant au public des solutions. Les œuvres d’art qui ont le plus interpellé les participants ont mis en évidence les conséquences personnelles des participants et leur propre rôle dans la situation. Leur recherche recommande de favoriser un sentiment de « pouvoir d’action » chez le public.

3.3 On apprend mieux ensemble

Une étude exploratoire sur l’impact de l’apprentissage collectif par immersion a conclu que les installations et les environnements artistiques immersifs favorisent l’apprentissage, mais que les participants apprennent mieux lorsqu’ils se trouvent dans l’environnement avec d’autres personnes. (Du Vignaux et al.)

3.4 Inclusion dans la conception

Une bonne pratique commissariale dans la conception de jeux, ou autres formes d’intervention artistique, qui explorent les implications éthiques de l’IA, doit inclure la participation (rémunérée) des personnes sous-représentées en IA. Par exemple, les jeux Art Impact AI (Goddard) ont été conçus par une équipe d’artistes provenant de communautés sous-représentées en IA et ont permis un dialogue ouvert sur les implications des systèmes de reconnaissance faciale, de recommandation et aide à la décision.

3.5 Sortir des institutions, favoriser les lieux publics

Les mêmes recherches concluent qu’il est préférable de sortir l’art des institutions pour l’amener dans des espaces publics, non seulement pour toucher un public plus large, mais aussi parce que cela évite la connotation selon laquelle l’art est réservé à une certaine élite de la population (Sommer et Klöckner). Le livre de Jer Thorp, Living in Data, invite les citoyens à collecter des données qui les concernent, et à permettre aux artistes d’utiliser ces données pour, à leur tour, engager les citoyens sur des questions sociales importantes. Selon lui, bien que la visualisation des données puisse être un outil puissant, les outils et les connaissances nécessaires pour s’en servir efficacement ne sont pas toujours accessibles. Pour cette raison, les formes d’art analogiques, ainsi que des outils simples comme des boîtes en carton, peuvent être très efficaces pour exprimer la signification des données.

3.6 Reconnaître la pluralité de sources de savoir dans les processus de co-construction

Saisir des données est une façon de documenter nos perceptions d’une facette d’une réalité. Les résultats, rendus par un média traditionnel ou une nouvelle technologie d’IA, sont en quelque sorte un documentaire co-construit. Présumant que l’objectif de ce processus vise un changement social bénéfique (droits humains, objectifs de développement durable), les recommandations des auteures et expertes en médias émergents soulignent l’importance de souligner et d’apprécier cette pluralité de sources de savoir (Auguiste et al, 2020). Ce sont les questions des uns, les étonnements d’une autre, la recherche d’une auteure, une conférence saisie au hasard, une peinture d’une autre époque, qui informent les meilleures pratiques, les cadres éthiques, qui évoluent au gré d’un processus itératif équitable favorisant une plus grande inclusion et diversité de perspectives.

3.7 Authenticité et objectifs concrets

L’art algorithmique, dans un cadre de pratique inter-arts engagé, est un outil important permettant de remettre en question les systèmes sociétaux et automatisés qui favorisent les biais sexistes, raciaux et culturels et la discrimination systémique qui s’en suit. Par conséquent, il doit favoriser « un climat dans lequel s’inscrit une préoccupation authentique pour (et un engagement concret à atteindre) la pleine égalité des droits », et éviter le « danger que le recours à la loi pour obtenir des changements « se concentre trop sur les changements (minimaux) jugés nécessaires » . (H. Smith et al.)

4. Conclusion

En sus d’être un outil de littératie et d’engagement citoyen fondamental dans une démocratie numérique, l’auteure espère avoir démontré l’importance des arts, tout particulièrement une pratique inter-arts via les arts algorithmiques, dans la curation de données et le design d’apprentissage automatique. Cette rencontre entre une pratique inter-arts de l’éthique de l’IA et les orientations scientifiques émergentes de design d’apprentissage automatique, nous mène vers une approche transdisciplinaire qui transcende les limites et définitions traditionnelles de chacune des disciplines impliquées, et vise au-delà de l’interdisciplinarité entre deux disciplines, devenant une discipline en soi (Choi et Pak). Appelons celle-ci le design inter-arts de l’IA pour les objectifs de cette conclusion.

References

Achebe, Chinua, from Conversations with James Baldwin, James Baldwin, Fred L Standley, Louis H Pratt (eds.), University Press of Mississippi, 1989.

Addendum

Les estampes d’art numérique créées à partir de mots choisis dans le jeu de données PearAI ont permis des observations préliminaires. Ces mots, soumis au modèle de génération d’images, soulèvent à leur tour des questions sur les modèles algorithmiques existants et les jeux de données sur lesquels ils reposent toujours.

Figure 2 : Ces nuages de mots représentant les mots recueillis par l’application PearAI.Art. Nuage par Marta Kersten-Oertel
Figure 3 — Image générée par le modèle AttnGAN utilisant Runway ML avec le mot vagin ; édition et estampe, Valentine Goddard.
Figure 4- Image générée par le modèle AttnGAN sur Runway ML en utilisant la phrase « Imperfectly beautiful woman » (Femme imparfaitement belle); édition et peinture numérique Valentine Goddard.

--

--

Advisory Council of Canada/United Nations expert on AI & Data Policy & Governance; Lawyer/Mediator/Curator; Socioeconomic, legal, political implications of AI.

Love podcasts or audiobooks? Learn on the go with our new app.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
Valentine Goddard

Valentine Goddard

Advisory Council of Canada/United Nations expert on AI & Data Policy & Governance; Lawyer/Mediator/Curator; Socioeconomic, legal, political implications of AI.