Apprentissage automatique et pratiques inter-arts

Valentine Goddard
30 min readMar 3, 2022

Une revue des orientations scientifiques émergentes en conception des systèmes d’apprentissage automatique et des meilleures pratiques commissariales en éthique de l’intelligence artificielle.

Cette publication est une lecture utile pour tous ceux et celles qui s’intéressent à la manière dont la création de valeur se fait à l’ère numérique. Le cadre proposé soutient le changement des modèles de financement des projets de recherche et de développement en IA. Dans ce document de travail, l’autrice rassemble les éléments qui se croisent entre la conception de l’apprentissage automatique et les meilleures pratiques lors de l’utilisation de l’art qui interroge les implications éthiques et sociales de l’IA ou qui fait la promotion des droits de la personne et des ODD. Les orientations scientifiques émergentes dans la conception des systèmes d’apprentissage automatique adoptent progressivement des approches multidisciplinaires, ce qui conduit à une qualité algorithmique accrue et à une plus grande diversité dans les équipes d’IA. L’autrice établit un lien entre ces nouvelles orientations scientifiques et la discipline inter-arts de l’éthique de l’IA afin d’expliquer comment l’art, y compris l’art algorithmique, peut intervenir dans un “pipeline” socio-technique de collecte de données et de conception algorithmique tout en contribuant à un récit et à une compréhension plus inclusifs des nombreuses implications sociales de l’IA. L’étude de cas soumise, PearAI.Art, est un projet d’art algorithmique dirigé par des femmes pour contrer les biais de genre dans la génération de texte en image, qui favorise une approche participative de la collecte et de l’annotation des données, ainsi que la conception interdisciplinaire de l’apprentissage automatique (p. 12). Les meilleures pratiques pour les commissaires de projets IA et Art sont présentées à la page 15.

Introduction

Les arts sont instrumentaux dans l’avenir de l’intelligence artificielle (IA), comme outil de littératie numérique et scientifique, comme moyen d’engagement citoyen dans une démocratie numérique, et s’intègrent dans des méthodes émergentes de design interdisciplinaire d’apprentissage automatique. S’il y a déjà une littérature importante couvrant le rôle que les arts peuvent adopter dans l’objectif d’illustrer des notions complexes, pour dépeindre des réalités que l’on doit taire, ou pour opposer un statu quo, la littérature portant sur le rôle de l’art dans le développement et la gouvernance de l’IA est encore émergente. La rencontre de nouvelle orientations scientifiques en design d’apprentissage automatique, avec les pratiques commissariales inter-arts en éthique de l’IA, mènent le lecteur à imaginer une IA créative, durable et inclusive.

Dans ce chapitre, l’auteure présente des obstacles systémiques qui, dès les premières étapes de la conception des applications de l’IA, nuisent à un développement éthique et responsable de l’IA. On réfère dans ce chapitre plus spécifiquement aux trois obstacles suivants : une fracture numérique genrée, un manque de compréhension généralisée quant aux implications éthiques et sociales de l’IA, et un corpus de directives en éthique de l’IA qui souffre de la sous-représentation de la société civile.

De nouvelles orientations scientifiques présentent des solutions, où les sciences sociales et humaines peuvent, tout au cours des différentes étapes de conception de modèles algorithmiques, augmenter la qualité, la légitimé et la gouvernance de l’IA. En effet, un nombre grandissant de chercheurs en apprentissage automatique expriment le besoin pour un design interdisciplinaire des systèmes d’apprentissages. L’auteure fait le lien entre ces nouvelles orientations scientifiques et la discipline inter-arts en éthique de l’IA pour expliquer comment l’art, incluant l’art algorithmique, peut intervenir dans un « pipeline » sociotechnique de collecte de données et de design algorithmique tout en contribuant à enrichir un narratif plus inclusif et la compréhension des implications éthiques, sociales, juridiques, culturelles, économiques et politiques de l’IA. L’étude de cas soumise, PearAI.Art, favorise une approche participative de la collecte et de l’annotation des données, et un design interdisciplinaire d’apprentissage automatique, sous la forme d’un projet d’art algorithmique visant à contrer les biais de genre en génération d’images. Ce chapitre conclut avec une présentation des meilleures pratiques à considérer dans le cadre de projets en éthique de l’IA.

1. Quelques obstacles à une IA éthique et responsable

1.1 Une fracture numérique genrée

« Les inégalités socio-économiques (de revenus et autres) sont étroitement associées aux inégalités numériques, car en général les premières façonnent les secondes, ce qui, à son tour, renforce les inégalités existantes, créant ainsi un cercle vicieux. La lutte contre les inégalités socio-économiques par le biais des technologies numériques ne peut donc s’attaquer qu’aux symptômes, mais pas aux causes profondes des inégalités. Les politiques visant à réduire la fracture numérique doivent être multidimensionnelles : technologiques, économiques, sociales et éducatives (sensibilisation) et devraient s’attaquer simultanément aux inégalités socio-économiques et numériques. » (UNDESA).

De plus, la transformation numérique s’est accélérée pendant la pandémie en raison des mesures sanitaires, mais il en va de même pour la fracture numérique, qui touche les femmes de manière disproportionnée. Il est donc important, sinon primordial, de souligner en amont que :

« Les politiques de réponse à COVID-19 mettent en évidence les façons dont de nombreuses femmes et filles sont désavantagées en raison de l’exclusion numérique et du manque d’égalité numérique. Un engagement numérique équitable est nécessaire pour assurer le plein engagement économique des femmes, pour amplifier leurs voix et pour faire respecter les lois qui consacrent les droits des femmes. Les interventions transformatrices doivent mettre l’accent sur le changement culturel et la politique d’égalité des sexes […]. Ne pas le faire signifie que les femmes continueront à ‘payer le prix’ des inégalités systémiques amplifiées par la pandémie. Un changement systémique implique également la nécessité d’intensifier les interventions visant à relever les défis liés à une fracture numérique genrée. » (Nefresh-Clarke et al.)

Commencer une course quand plus de la moitié des coureurs n’ont pas accès à la ligne de départ était déjà un enjeu avant la pandémie. Plusieurs auteures, tels que Cathy O’Neil, Safiya Umoja Noble, Virginia Eubanks, Joy Buolamwini, Timnit Gebru et plusieurs autres ont démontré le sérieux et la tangibilité des risques que l’IA augmente les inégalités sociales, inquiétudes partagées par grand nombre d’experts en IA. « Laissée à son cours actuel, l’économie numérique est susceptible de creuser les fossés tant régionaux que de genre » (Benjamin). Au bout du compte, le système social, politique et économique dans lequel l’IA est déployée déterminera les avantages qu’elle peut apporter, et à qui.

1.2 Citoyenneté de demain : manque de capacité à faire des choix politiques informés

Les experts s’accordent à dire que les lignes directrices éthiques sur le développement et la gouvernance de l’intelligence artificielle exigent responsabilité, équité et transparence. Cependant, la définition de ce que ces termes impliquent peut différer de manière assez importante. Nous partons du principe que la transparence va au-delà de la capacité à expliquer les résultats des algorithmes (un concept appelé « explicabilité » ou « interprétabilité ») et qu’il ne s’agit pas seulement de pouvoir expliquer une décision algorithmique à des clients/investisseurs/juges mécontents. Il s’agit fondamentalement de permettre aux citoyens et aux citoyennes de prendre des décisions éclairées concernant l’utilisation de leurs données dans les algorithmes. Yoshua Bengio, expert et chercheur renommé en IA, est catégorique : « Nous avons la responsabilité de ne pas laisser (ces décisions) entre les mains de quelques personnes car les impacts (de l’IA) affecteront tout le monde. Il y a des choix politiques à faire et le citoyen ordinaire doit les comprendre ». Niskar et al. ont constaté qu’afin de concevoir des politiques légitimes, les décideurs doivent s’assurer qu’un grand nombre de citoyens aux perspectives diverses comprennent les implications des nouvelles technologies ou applications scientifiques, et leur recherche démontre que les arts sont parmi les outils les plus efficaces pour atteindre ces objectifs. Les récentes recommandations politiques des Nations Unies soulignent le rôle important de la société civile et des arts dans la gouvernance numérique durable et éthique (UNDESA) ; toutefois, sur le terrain, une meilleure compréhension des implications de l’IA demeure un objectif à atteindre.

1.3 Le contrôle du narratif autour des nouvelles technologies d’IA suscite un manque de confiance

Une nouvelle technologie comprise par un nombre restreint d’experts (Gagné) et d’investisseurs (Brandusescu) est un terreau fertile pour restreindre ses bénéfices à cet ensemble de joueurs. L’histoire de la réglementation des nouvelles technologies montre qu’elle est fortement influencée par de puissants consortiums d’intérêts privés. Dans Electric Sounds, Technological Change and the Rise of Corporate Mass Media, Steve J. Wurtzler explique comment les entreprises ont construit des alliances stratégiques afin de contrôler à la fois le récit de la nouvelle technologie et la propriété par la création de pools de brevets, définis comme des accords entre les propriétaires de brevets pour en partager les profits. L’innovation en matière d’acoustique a ainsi exacerbé une concentration croissante de la propriété et du pouvoir au sein des médias de masse américains. Au cours de cette même période, l’innovation acoustique a été moussée comme un « outil de nécessité publique » alors qu’en réalité, les utilisations indépendantes et éducatives de l’innovation acoustique ont été éludées par les stratégies susmentionnées (Wurtzler).

Sans intervention sérieuse au niveau systémique, l’histoire semble se répéter puisqu’un parallèle se dessine avec la commercialisation des technologies de l’IA. De 2005 à 2018, les cinq plus grandes entreprises technologiques des États-Unis ont dépensé 582 millions $ US pour influencer la législation (Dellinger). Dans le monde entier, les avantages de l’IA sont en train d’être privatisés : 26 des 30 principaux demandeurs de brevets d’IA sont des conglomérats d’entreprises. Seuls quatre de ces 30 sont issus d’universités ou d’organismes de recherche publics et sont basés en Chine (OMPI). Au Canada, le financement public de l’IA est en grande majorité réservé au secteur privé, une lacune qui soulève des inquiétudes quant à la façon dont les valeurs et les priorités des modèles d’affaires capitalistes façonnent l’impact de l’IA sur la société (Brandusescu).

Un nombre grandissant de cadres prennent forme et façonnent l’IA et son impact sur la société. Ces directives informent les juges, les politiciens, les chefs d’entreprise, et déterminent ce qu’est une utilisation acceptable de l’IA. Toutefois, en 2019, les valeurs qui ont été intégrées dans ces directives ne représentent que celles d’un nombre limité de citoyens et de secteurs économiques. En effet, des chercheurs ont recensé 84 documents écrits comprenant des principes éthiques, des lignes directrices, des cadres et ils ont analysé qui a contribué à leur orientation. 54,7 % de ces documents ont été produits par ou avec le secteur privé, comparativement à seulement 2 % par des organisations de la société civile telles que des syndicats, des ONG et des organismes indépendants à but non lucratif (Jobin et al.). Les normes qui en résultent risquent une priorisation de certaines valeurs par rapport à d’autres et d’entraîner des politiques d’exclusion dans une démocratie numérique. De plus, l’autoréglementation de l’industrie par l’industrie n’inspire ni confiance ni efficacité (Colclough ; Jordan ; ICTC). L’indépendance des processus d’adoption des cadres normatif en IA peut être valorisée en soutenant la création d’un plus grand nombre de cadres menés par des organismes de la société civile (ONG, OBNL, etc.), ou des partenariats public-civil. Dans la deuxième partie de chapitre, l’auteure introduit comment les arts peuvent contribuer à assurer l’indépendance et la transparence de la gouvernance de l’IA, et augmenter la confiance en ceux-ci.

Finalement, un dialogue social informé, les délibérations constructives et la conception critique font partie des processus nécessaires menant à une plus grande capacité collective de prise de décision face à des choix politiques importants. Faisons une brève parenthèse ici pour souligner que les amendements récents aux lois et politiques de protection des données personnelles et de protection des consommateurs repose fondamentalement sur la notion de consentement valable. En droit civil québécois, cette notion juridique repose sur l’article 1399 du Code civil du Québec qui exige qu’un consentement valable doit être libre et éclairé, et ne peut être vicié par l’erreur la crainte ou la lésion. Pour être en mesure de donner un consentement éclairé, une personne doit comprendre l’impact de son choix et les arts sont un outil qui augmenter la capacité de la population à comprendre les diverses implications sociales, juridiques, économiques et politiques de ces choix. Au quotidien, les arts peuvent contribuer à informer le consentement citoyen face à l’utilisation de ses données personnelles. Comme tel, les arts sont instrumentaux dans une progression sociétale nécessaire pour suivre la mise en œuvre rapide de l’IA.

Au cours des prochaines sections, on invite le lecteur à découvrir des méthodologies émergentes de collecte et d’annotation de données ainsi que de design en apprentissage automatique, afin de mieux comprendre le rôle des arts dans la pipeline sociotechnique de développement et de gouvernance de l’IA. On y introduit comment ces orientations scientifiques émergentes rejoignent une discipline artistique, le commissariat inter-arts.

2. Pipeline sociotechnique : problématiques et modes d’intervention

2.1 Biais de genre dans le pipeline sociotechnique, de données entrantes à résultat algorithmique

Il conviendrait de lire, dans le cadre de cet article, l’expression « pipeline sociotechnique » comme étant un espace d’intervention visant à réduire les dommages que pourraient causer des algorithmes, ou en augmenter les bienfaits (Suresh et Guttag). Le pipeline part de la conception des questions posées/solutions recherchées, et inclut la collecte, la préparation (annotation, étiquetage) des données, la conception de l’architecture des données, le développement d’un modèle algorithmique, et sa gouvernance (cadres éthiques et normatifs). C’est du début du pipeline données-algorithmes et jusqu’à sa fin, et idéalement en boucle continue, qu’une approche transdisciplinaire inter-arts peut intervenir pour favoriser un développement et une gouvernance éthique et responsable de l’IA.

Les données qui sont recueillies, et celles qui ne le sont pas, reflètent des biais ancrés dans notre histoire, ce qui entraîne des données incomplètes ou non représentatives. Le racisme et le sexisme systémiques influencent les questions posées, la manière dont les réponses (données) sont utilisées et la conception des technologies d’IA. Il favorise le soutien pour certaines utilisations de l’IA par rapport à d’autres, et limite l’accès au potentiel social et économique que l’IA pourrait apporter à un nombre restreint de joueurs. Il est fondamental « d’interroger les normes et les valeurs qui sous-tendent la création d’ensembles de données, car il s’agit souvent de processus d’extraction qui ne profitent qu’au collecteur et aux utilisateurs des jeux de données. » (Chan et al.)

La plupart des bases de données actuellement utilisées dans l’apprentissage automatique sont le résultat d’une culture technologique fortement dominée par les hommes blancs. Comme le soutiennent Catherine D’Ignazio et Lauren F. Klein dans leur travail sur le féminisme des données :

« Aujourd’hui, la science des données est une forme de pouvoir. Elle a été utilisée pour dénoncer l’injustice, améliorer les résultats en matière de santé et renverser des gouvernements. Mais elle a également été utilisée pour discriminer, policer et surveiller. Ce potentiel de bien, d’une part, et de mal, d’autre part, fait qu’il est essentiel de se demander : La science des données par qui ? La science des données pour qui ? La science des données dans l’intérêt de qui ? Les récits autour du big data et de la science des données sont très majoritairement blancs, masculins et techno-héroïques. ».

Les bases de données couramment utilisées contiennent des annotations ou des mots sexuellement chargés, dérogatoires et discriminatoires, et sont souvent utilisées pour décrire à tort à l’IA la signification de termes comme « femme ». À leur tour, les algorithmes d’apprentissage automatique réagissent en internalisant et en réitérant les préjugés sur les femmes et les autres personnes/communautés sous-représentées en IA. Alimentée par une représentation déformée des idées de la féminité, l’IA souffre d’une grave crise du genre qui nous touche tous, conséquence d’algorithmes développés par un petit pourcentage d’acteurs humains. D’ailleurs, la disparité entre les genres qui existe dans le secteur technologique peut expliquer en partie une boucle de rétroaction entre le faible nombre de femmes et des algorithmes qui augmentent les inégalités de genres en emploi, par exemple (Luccioni et Bengio).

Des technologies « intelligentes » ne peuvent faire fi de l’histoire et du contexte social desquels elles sont issues et dans lesquels elles se déploient. Soulignons qu’à ce jour, 80 % des professeurs en IA sont des hommes (West et al.), entre cinq et 20 % des travailleurs de l’IA sont des femmes (variation selon le pays et le secteur d’activité) (Yuan), seulement 15 % des diplômés en sciences sont issus de ménages de la classe ouvrière (Nature), et les travailleurs noirs/afro-américains de l’IA dans l’industrie technologique représentent moins de cinq pour cent du personnel (Alake).

2.2 L’IA génère des images à partir des mots d’humains

Les applications et modèles algorithmiques en IA sont vastes et l’auteure a choisi une étude de cas qui porte plus spécifiquement sur les modèles d’apprentissage profond dont on se sert pour automatiser la génération d’images. La génération automatisée d’image utilise des réseaux neuronaux profonds entraînés sur de grandes quantités de données constituées d’images et de descriptions écrites correspondantes (Xu et al., 2018, et références dans Goddard et al., 2021). Ces modèles, ainsi que les processus de collecte et d’annotation des données, reproduisent la discrimination systémique existante dans la société, et dans le cas à l’étude, la discrimination à l’endroit des femmes ou des personnes qui s’identifient comme femme.

Donner une priorité aux utilisations de l’IA dans les objectifs sociaux bénéfiques et de développement durable est un consensus d’intention. Puisque l’enjeux de définir ce qui est bénéfique ou pas diffère d’une culture, d’une communauté et d’un individu à un autre, les méthodes itératives de collectes de données collectives et de socio-annotation dans le design de modèles algorithmiques grimpent en tête des recommandations des experts en IA.

Un consensus émerge dans les publications récentes en IA et les nouvelles orientations scientifiques visent une conception et un design interdisciplinaire des modèles d’apprentissage automatique. Notons que l’interdisciplinarité en sciences n’est pas nouvelle, toutefois l’intégration de sciences sociales (approche STEAM) en IA fait encore l’objet d’une résistance systémique persiste quand vient le temps de former des équipes de recherche et développement. C’est pourquoi ces publications récentes qui recommandent une conception, un « design » interdisciplinaire des modèles d’IA intégrant les sciences sociales, juridiques, humaines et les arts, et ce dès la préparation des jeux de données à la base des modèles d’apprentissage automatique, rejoignent les recommandations de l’auteure au sujet des pratiques commissariales inter-arts en éthique de l’IA.

2.3 L’interdisciplinarité pour améliorer la qualité des algorithmes et des technologies d’IA

Soulignons d’abord la recherche approfondie de Sheuerman et al. qui ont analysé 113 jeux de données en vision automatique (vision computationnelle) pour en identifier les valeurs ayant encadré le choix des données recueillies ou rejetées. Quatre valeurs dominantes ont été identifiées : efficacité, impartialité, universalité et « amélioration du modèle algorithmique ». En contrepartie, d’autres valeurs ont été négligées ou implicitement dévaluées en faveur des valeurs retenues. Ainsi :

· L’efficacité est privilégiée par rapport à l’empathie, aux soins (en anglais « caring »), une approche de la curation de données (data curation) jugée plus progressiste.

· L’impartialité est préférée à la positionnalité, c’est-à-dire à la prise en compte des influences sociales et politiques sur la compréhension du monde.

· L’universalité est privilégiée par rapport à la contextualité, qui consiste à se concentrer sur des tâches, des lieux ou des publics plus spécifiques.

· Le travail sur le modèle algorithmique (model work) est valorisé par rapport au travail sur les données (data work), c’est-à-dire que la plupart des auteurs des jeux de données étudiés se concentrent peu sur les pratiques de données en faveur d’efforts misant sur l’amélioration des modèles d’apprentissage automatique.

Selon une étude corroborant ces résultats, les pratiques de curation de données n’ont pas été guidées par un objectif qui privilégie la représentation équitable ou la diversité, mais plutôt par des tâches ou la commodité, ce qui contribue à un manque d’inclusivité en IA (Jo et al.). Sheuerman et al. Recommandent de prioriser les valeurs de contextualité, de positionnalité, de « caring » et de « data work », via des interventions proactives, tout au long du pipeline sociotechnique allant de la curation de données au développement des modèles algorithmiques. Ce faisant, les auteurs sont confiants qu’il résultera une plus grande confiance dans les modèles développés, une IA plus éthique et plus centrée sur les êtres humains (Scheurerman et al.).

Cette étude renforce les recommandations d’une recherche plus tôt dans la même année qui souligne l’importance de méthodes délibérées, interdisciplinaires et participatives de conception de l’apprentissage automatique. Afin de résoudre les problèmes d’automatisation des biais et des inégalités, « Une nouvelle spécialisation devrait être formée au sein de l’IA qui est axée sur les méthodologies de collecte et d’annotation des données, et plus consciente et systématique dans la curation de données, et de tirer profit de l’expertise interdisciplinaire. » (Jo et al.)

Inspiré des méthodes de gouvernance participative, un autre groupe de chercheurs cherchent à concevoir des algorithmes de manière à équilibrer les divergence d’intérêts d’une manière morale et légitime, pour conclure que « La conception participative d’algorithmes a amélioré à la fois l’équité procédurale et les résultats équitables de l’algorithme, augmenté la littératie algorithmique des participants, ainsi qu’aidé à identifier les incohérences dans la prise de décision humaine dans l’organisation dirigeante. » (Lee et al.)

2.4 La recherche transdisciplinaire inter-arts en éthique de l’IA rencontre les orientations scientifiques émergentes en design d’apprentissage automatique

Ce chapitre se concentre sur les pratiques « inter-arts », une discipline artistique reconnue par le Conseil des arts du Canada (CAC). Le CAC définit la pratique inter-arts comme l’exploration ou l’intégration de multiples disciplines artistiques traditionnelles et/ou contemporaines qui sont fusionnées de telle sorte qu’aucune discipline artistique unique ne domine dans le résultat final. Ces méthodes transdisciplinaires croisent les arts avec d’autres disciplines non artistiques pour explorer un thème ou une question. L’auteure, juriste et commissaire inter-arts, met de l’avant une recherche itérative et participative sur les implications sociales, juridiques, économiques, politiques et éthiques de l’IA, incluant l’art algorithmique comme outil. Les interventions inter-arts dites engagées quant à elles se concentrent sur des enjeux spécifiques tels que la justice sociale ou les changements climatiques.

PearAI.Art, l’étude de cas présentée un peu plus loin dans ce chapitre, est un projet inter-arts qui utilise l’art algorithmique pour contrer les biais de genre en IA; mais revenons un instant à la base. Le véritable pouvoir de l’art réside dans sa capacité à voir, sentir, entendre, imaginer des alternatives d’avenirs numériques. « L’art n’est pas une question de stagnation, de conformisme, de peur. L’art est une question de prise de risque, de résistance, d’autonomisation et de transformation. Si nous devons réorganiser la société après la pandémie, nous avons besoin […] d’institutions qui se concentrent sur des solutions systémiques et des pratiques collectives/collaboratives qui favorisent les soins et l’engagement citoyen (community care and participation), la conscience collective et la concrétisation d’actions concrètes. » (Salas) L’art algorithmique s’inscrit dans cette dynamique, car il peut être un outil qui contribue à éliminer les biais sexistes, raciaux et culturels. La définition de l’art algorithmique varie et inclut diverses disciplines littéraires, musicales et de spectacle vivant ; toutefois, dans le cadre de cet article, nous nous référons à la résultante visuelle générée par un modèle d’apprentissage profond, parfois adaptée à l’aide de méthodes numériques et/ou analogiques par un artiste.

2.5 Pear AI.Art : collecte de données et rééducation participative des algorithmes

Les biais ne se traduisent pas toujours par des chiffres, ils peuvent aussi se manifester dans les mots que nous utilisons pour décrire le monde qui nous entoure (Luccioni et Bengio). Dans leur étude, D. Smith et al.ont conclu que des mots différents sont utilisés pour décrire les leaders masculins et féminins, et que les femmes se voient attribuer beaucoup plus d’attributs négatifs. À cette fin, la diversité des perspectives dans l’étiquetage des images est essentielle car la collecte et l’annotation des données sont toutes deux des processus hautement subjectifs. (Haralabopoulos et al.)

Lorsqu’un modèle algorithmique, en 2019, a interprété les mots « femme », « beauté » et « imperfection » comme étant une forme de poire, le projet « Art algorithmique pour contrer les biais de genre en IA », (2020–2022), www.PearAI.Art, est née (ci-après PearAI.Art). Les objectifs étaient de mieux comprendre d’où originait ce résultat, et comment il serait possible de rééduquer en quelque sorte les modèles de génération d’images pour obtenir des images différentes.

OpenAI souligne d’ailleurs l’importance de faire l’étude des impacts sociaux de la génération d’image automatisée : « Le travail impliquant des modèles génératifs a le potentiel d’avoir des impacts sociétaux significatifs […] et prévoit analyser comment des modèles comme DALL-E sont liés à des questions sociétales telles que l’impact économique sur certains processus de travail et professions, le potentiel de biais dans les résultats du modèle, et les défis éthiques à plus long terme impliqués par cette technologie. » (Open AI). Il est hors de portée de ce chapitre, mais le lecteur peut trouver un exposé plus approfondi de l’état des connaissances en génération d’images automatisée et du processus de design de l’application dans Algorithmic Art to Counter Gender Bias in Artificial Intelligence: Changing AI’s Mis-pear-ceptions of Us (Goddard et al, écrit mais pas encore publié).

Le projet PearAI.Art comporte une phase de collecte de données incluant la conception d’une application permettant une socio-annotation des mots, une phase recherche en IA visant à éliminer les biais de genre dans les modèles de génération de texte à image (prévue pour l’automne 2021 et hiver 2022 avec le soutien de chercheurs du programme CREATE du CRSNG en IA Responsable), et une phase création.

Illustration scientifique de Audrey Désaulniers pour le projet PearAI.Art

L’application de socio-annotation PearAI.Art invite les femmes, et les personnes qui s’identifient comme femmes, à redéfinir avec neuf mots les concepts de féminité, de beauté et d’imperfection. L’application amorce un processus d’engagement et de littératie algorithmique puisque le texte invite les participants à en apprendre davantage sur cette technique particulière en IA. (Cliquez ici pour découvrir l’équipe de conception ou participer).

Les mots colligés par l’application sont sauvegardés dans un document Google Sheet, ci-après appelé « jeu de données PearAI ». Ce jeu de données servira tant à la recherche en IA qu’à la création d’estampes numériques ainsi qu’aux ateliers de littératie algorithmique. Au moment de la soumission de ce document, PearAI.Art a déjà recueilli près de 2000 mots sur une période d’un mois, avec des entrées provenant de plus de 40 pays. En introduisant dès le début du pipeline données-à-résultats algorithmiques des mots qu’elles choisissent, les participantes contribuent à déconstruire les perceptions biaisées automatisées et à construire une « ontologie du devenir » (Maruska).

L’immersion dans ces milliers de mots (jeux de données) de PearAI provoque déjà une agréable sensation de bien-être, comme un souffle de soulagement et d’inspiration pour les femmes et personnes s’identifiant comme femme. Les mots recueillis véhiculent un sentiment de force, de résilience, de créativité, de bienveillance puisqu’ils parlent de force et d’empathie à la fois, proposent des allégories d’arbres, d’océans, de montagnes, tous des concepts qui vont au-delà d’une forme corporelle (poire). En addendum, le lecteur trouvera en exemple deux estampes numériques et quelques observations préliminaires inspirées par des mots soumis (Figures 2, 3 et4).

L’auteure espère que ce chapitre aura permis au lecteur de faire le lien entre les orientations scientifiques émergentes en IA qui recommandent une approche interdisciplinaire et participative de la conception de l’apprentissage automatique, et de la collecte et de l’annotation des données, avec celles en pratiques inter-arts en éthique de l’IA. Le cas pratique soumis, PearAI.Art, peut se résumer comme des interventions inter-arts, tout au cours de la pipeline sociotechnique, partant du « data work » au « model work », visant à concevoir des modèles algorithmiques plus inclusifs. La prochaine section sert de guide pour des projets intégrant art et éthique de l’IA.

3. Meilleures pratiques dans le cadre de projets intégrant art et éthique de l’IA

L’histoire de l’art génératif repose en partie sur le désir d’éviter le côté le plus sombre de l’humanité, résidant dans sa nature subjective, et sur l’aspiration à trouver des moyens objectifs de soutenir des processus démocratiques, transparents et participatifs de communication collective. Une partie de la pensée était que si les machines pouvaient supprimer la subjectivité de l’art et du jugement esthétique et les imprégner de la transparence et de la clarté de la science, nous pourrions parvenir à une communication plus claire (Caplan). Contrairement à ces espoirs, en 2021, il suffit de lire le fil d’actualité en technologie pour admettre que les systèmes d’IA ne sont ni neutres ni impartiaux, et que les machines ne peuvent à elles seules offrir l’outil de communication impartial espéré.

Selon l’auteure, l’art algorithmique devrait « embrasser la subjectivité des humains, la diversité de leurs expériences vécues en raison de leur contexte physique, politique et culturel » (Ellis et Flaherty). L’art algorithmique offre l’opportunité d’accueillir un positionnement (positionality), et d’engager un grand nombre de personnes, aux perspectives diverses, dans les choix importants qu’impliquent une démocratie numérique.

Voici un guide de meilleures pratiques applicables à des projets intégrant art et éthique de l’IA. Il est conçu pour nourrir la réflexion commissariale lors de la conception d’installations interactives et immersives, ou d’ateliers de littératie numérique, mais aussi pour l’élaboration des politiques de financement publiques et privées en recherche et développement en IA.

3.1 L’art algorithmique doit être politique et contribuer à l’évolution de la gouvernance de l’IA

« L’art naît de son contexte social et doit toujours être en dialogue avec cet élément social : l’art a une finalité sociale [et] l’art appartient au peuple. Et l’art est sans honte, sans gêne, si tant est que ce mot existe, social. Il est politique, il est économique. Ceux qui vous disent ‘Ne mettez pas trop de politique dans votre art’ ne sont pas honnêtes. Si vous regardez attentivement, vous verrez que ce sont les mêmes personnes qui sont tout à fait satisfaites de la situation telle qu’elle est. Et ce qu’ils disent, ce n’est pas de ne pas introduire de politique. Ce qu’ils disent, c’est de ne pas bouleverser le système. Ils sont tout aussi politiques que n’importe lequel d’entre nous. C’est seulement qu’ils sont de l’autre côté. » (Achebe).

L’art algorithmique est social et politique, car il comporte des notions de propriété des données, touchant de près à des questions d’appropriation culturelle (ex : utiliser des données culturelles pour générer des images) qui dépassent le cadre du présent chapitre.

« Tous les systèmes techniques sont des systèmes culturels et sociaux. Chaque élément de technologie est l’expression de cadres culturels et sociaux permettant de comprendre le monde et de s’y engager. Les concepteurs de systèmes d’IA doivent être conscients de leurs propres cadres culturels, des concepts socialement dominants et des idéaux normatifs ; se méfier des préjugés qui en découlent. » (Lewis).

En outre, le Indigenous Protocol and Artificial Intelligence Position Paper explique que les concepts de propriété et d’appropriation ne reflètent pas la manière dont les communautés autochtones souhaitent régir l’utilisation de leurs connaissances culturelles (données). Ce protocole souligne d’ailleurs le rôle important des arts dans l’élaboration d’une IA qui reflète les diverses valeurs autochtones, y compris les cadres de gouvernance sous lesquels les technologies de l’IA fonctionneront.

3.2 Éviter la dystopie et favoriser un sentiment de « capacité d’intervention »

Les recherches de Sommer et Klöckner, fondées sur la théorie de la psychologie environnementale, ont permis de déterminer par quels mécanismes l’art engagé affecte le public. Ils ont conclu que les artistes qui se soucient de l’impact de leur travail devraient s’éloigner de dépeindre d’une manière dystopique des questions telles que le changement climatique ou l’impact de l’IA sur les droits de la personne, et préférer une conception proposant au public des solutions. Les œuvres d’art qui ont le plus interpellé les participants ont mis en évidence les conséquences personnelles des participants et leur propre rôle dans la situation. Leur recherche recommande de favoriser un sentiment de « pouvoir d’action » chez le public.

L’art peut être ennuyeux, inutile ou même nuisible pour sensibiliser et inviter les citoyens à agir. Les œuvres d’art peuvent également mettre en avant des scénarios négatifs et destructeurs qui attireront l’attention, mais peindre les choses en noir et induire la peur ne fait que réduire la motivation. (O’Neill et al.) Comme l’a dit Noam Chomsky, « Si vous supposez qu’il n’y a pas d’espoir, vous garantissez qu’il n’y aura pas d’espoir. Si vous supposez qu’il existe un instinct de liberté, qu’il y a des possibilités de changer les choses, alors il y a une possibilité de contribuer à rendre le monde meilleur. »

3.3 On apprend mieux ensemble

Une étude exploratoire sur l’impact de l’apprentissage collectif par immersion a conclu que les installations et les environnements artistiques immersifs favorisent l’apprentissage, mais que les participants apprennent mieux lorsqu’ils se trouvent dans l’environnement avec d’autres personnes. (Du Vignaux et al.)

3.4 Inclusion dans la conception

Une bonne pratique commissariale dans la conception de jeux, ou autres formes d’intervention artistique, qui explorent les implications éthiques de l’IA, doit inclure la participation (rémunérée) des personnes sous-représentées en IA. Par exemple, les jeux Art Impact AI (Goddard) ont été conçus par une équipe d’artistes provenant de communautés sous-représentées en IA et ont permis un dialogue ouvert sur les implications des systèmes de reconnaissance faciale, de recommandation et aide à la décision.

3.5 Sortir des institutions, favoriser les lieux publics

Les mêmes recherches concluent qu’il est préférable de sortir l’art des institutions pour l’amener dans des espaces publics, non seulement pour toucher un public plus large, mais aussi parce que cela évite la connotation selon laquelle l’art est réservé à une certaine élite de la population (Sommer et Klöckner). Le livre de Jer Thorp, Living in Data, invite les citoyens à collecter des données qui les concernent, et à permettre aux artistes d’utiliser ces données pour, à leur tour, engager les citoyens sur des questions sociales importantes. Selon lui, bien que la visualisation des données puisse être un outil puissant, les outils et les connaissances nécessaires pour s’en servir efficacement ne sont pas toujours accessibles. Pour cette raison, les formes d’art analogiques, ainsi que des outils simples comme des boîtes en carton, peuvent être très efficaces pour exprimer la signification des données.

3.6 Reconnaître la pluralité de sources de savoir dans les processus de co-construction

Saisir des données est une façon de documenter nos perceptions d’une facette d’une réalité. Les résultats, rendus par un média traditionnel ou une nouvelle technologie d’IA, sont en quelque sorte un documentaire co-construit. Présumant que l’objectif de ce processus vise un changement social bénéfique (droits humains, objectifs de développement durable), les recommandations des auteures et expertes en médias émergents soulignent l’importance de souligner et d’apprécier cette pluralité de sources de savoir (Auguiste et al, 2020). Ce sont les questions des uns, les étonnements d’une autre, la recherche d’une auteure, une conférence saisie au hasard, une peinture d’une autre époque, qui informent les meilleures pratiques, les cadres éthiques, qui évoluent au gré d’un processus itératif équitable favorisant une plus grande inclusion et diversité de perspectives.

3.7 Authenticité et objectifs concrets

L’art algorithmique, dans un cadre de pratique inter-arts engagé, est un outil important permettant de remettre en question les systèmes sociétaux et automatisés qui favorisent les biais sexistes, raciaux et culturels et la discrimination systémique qui s’en suit. Par conséquent, il doit favoriser « un climat dans lequel s’inscrit une préoccupation authentique pour (et un engagement concret à atteindre) la pleine égalité des droits », et éviter le « danger que le recours à la loi pour obtenir des changements « se concentre trop sur les changements (minimaux) jugés nécessaires » . (H. Smith et al.)

4. Conclusion

En sus d’être un outil de littératie et d’engagement citoyen fondamental dans une démocratie numérique, l’auteure espère avoir démontré l’importance des arts, tout particulièrement une pratique inter-arts via les arts algorithmiques, dans la curation de données et le design d’apprentissage automatique. Cette rencontre entre une pratique inter-arts de l’éthique de l’IA et les orientations scientifiques émergentes de design d’apprentissage automatique, nous mène vers une approche transdisciplinaire qui transcende les limites et définitions traditionnelles de chacune des disciplines impliquées, et vise au-delà de l’interdisciplinarité entre deux disciplines, devenant une discipline en soi (Choi et Pak). Appelons celle-ci le design inter-arts de l’IA pour les objectifs de cette conclusion.

Le design inter-arts de l’IA est une réponse constructive qui contribue à une plus grande littératie numérique, et favorise des processus de gouvernance de l’IA qui suscitent une plus grande confiance. Il est un outil, une discipline émergente qui rejoint les orientations scientifiques d’experts en IA qui mettent de l’avant une conception interdisciplinaire de l’IA. Il augmentent le nombres de citoyens habiletés à être actifs dans une économie numérique. Il facilite l’implication d’un plus grand nombre de femmes et de personnes issues de la diversité dans le développement et la gouvernance de l’avenir numérique, contribuant ainsi à l’équilibre politique d’une démocratie numérique. Vu l’impact important que pourrait avoir cette nouvelle discipline et champ de pratique, il sera essentiel de s’attarder aux politiques de financement qui en faciliteront l’adoption.

« Dans la transformation scientifique et culturelle nécessaire pour aligner le gros bateau de la technologie et de l’IA avec nos valeurs et notre bien-être, et donc réduire les discriminations, des projets comme PearAI.Art, qui combinent art et appropriation de l’IA par tous et pour tous ont un rôle important. » (Bengio)

En terminant, l’année 2021 aura été celle de l’économie créative au service du développement durable, et l’auteure a espoir qu’un design inter-arts de l’IA et les meilleures pratiques proposées constituent un cadre pour un développement et une gouvernance de l’IA qui s’inscrit dans les objectifs des Nations Unies. « La collecte de données, la consultation des travailleurs de l’industrie (créative) et une perspective basée sur le genre peuvent servir de directive pour travailler ensemble vers une économie créative véritablement inclusive et prospère. » (UNESCO)

Remerciements : pour la recherche initiale sur sur l’état actuel des connaissances en systèmes de génération d’images automatisée (text-to-image generation), et me permettant de comprendre techniquement pourquoi les mots “Femme, Beauté, Imperfection” résultaient en une poire, je remercie Daniel Harris, PhD, Directeur scientifique de AI Impact Alliance ; pour la conception de l’application PearAI.Art, je remercie Jonathan Reyes, candidat PhD, sous la direction de la professeure Marta Kersten-Oertel de Applied Perception Lab, Université Concordia ; pour contributions à la conception de PearAI.Art, Giulia Taurino, PhD ; pour l’illustration scientifique type BD, Audrey Désaulniers, Orcéine ; pour édition et la révision du texte, Geneviève Picard.

Je remercie enfin les membres du collectif Art + IA d’AI Impact Alliance qui alimentent mes réflexions, les participants aux ateliers IA en Mission sociale, et nos partenaires corporatifs qui ont rendu possible la création de l’application dont Microsoft est un commanditaire.

References

Achebe, Chinua, from Conversations with James Baldwin, James Baldwin, Fred L Standley, Louis H Pratt (eds.), University Press of Mississippi, 1989.

Alake, Richmond, “Are There Black People In AI?”, Towards Data Science, 2020. https://towardsdatascience.com/are-there-black-people-in-ai-fb6928166d73

Auguiste, R., De Michiel, H., Longfellow, B., Naaman, D., Zimmermann, P.R., “Co-creation in Documentary, Toward Multiscalar Granular Interventions Beyond Extraction”, University of California Press, After Image, March 2020

Bengio, Yoshua, Future of AI, Launch of AI Impact Report, 2020.

Benjamin, Ruha, “Ruha Benjamin on Deep Learning: Computational Depth Without Sociological Depth is ‘Superficial Learning’”, Venture Beat, April 2020 https://venturebeat.com/2020/04/29/ruha-benjamin-on-deep-learning-computational- depth-without-sociological-depth-is-superficial-learning/

Bond, S.E., and Nyasha Junior, N. “How Racial Bias in Tech Has Developed the ‘New Jim Code’”, 2020, https://hyperallergic.com/593074/how-racial-bias-in-tech-has-developed-the-new-jim-code

Buolamwini, Joy, Algorithmic Justice League, https://www.ajl.org/

Brandusescu, Ana, “Artificial intelligence policy and funding in Canada: Public investments, private interests”, Centre for Interdisciplinary Research on Montreal, McGill University, 2021. https://www.mcgill.ca/centre-montreal/files/centre-montreal/aipolicyandfunding_report_updated_mar5.pdf

Caplan, Lindsay, “The Social Conscience of Generative Art”, Art in America, 2020. https://www.artnews.com/art-in-america/features/max-bense-gustav-metzger-generative-art-1202674265/

Chan, A., Okolo, C. T., Terner, Z., Wang, A., “The Limits of Global Inclusion in AI Development”, Association for the Advancement of Artificial Intelligence, 2021.

Choi B.C., Pak A. W. “Multidisciplinarity, interdisciplinarity and transdisciplinarity in health research, services, education and policy: 1. Definitions, objectives, and evidence of effectiveness”, Clin Invest Med., 2006 Dec;29(6):351–64. PMID: 17330451.

Chomsky, N., “Noise: Noam Chomsky interviewed by Fred Branfman”, Hotwired, 1997. https://chomsky.info/199702__/

Colclough, C., “From whistleblower laws to unions: How Google’s AI ethics meltdown could shape policy”, 2020. https://venturebeat.com/2020/12/16/from-whistleblower-laws-to-unions-how-googles-ai-ethics-meltdown-could-shape-policy/

Dellinger, A. J., “How the Biggest Tech Companies Spent Half a Billion Dollars Lobbying Congress,” Forbes, 2019 https://www.forbes.com/sites/ajdellinger/2019/04/30/how-the-biggest-tech-companies-spent-half-a-billion-dollars-lobbying-congress/?sh=3b64df857c96

D’Ignazio, Catherine, and Klein, Lauren, F., Data Feminism, MIT Press, 2020.

Du Vignaux, Maÿlis Merveilleux, Léger, P-M., Charland, P., Salame, Y., Durand, E., Bouillot, N., Pardoen, M., Sénécal, S., “An Exploratory Study on the Impact of Collective Immersion on Learning and Learning Experience”, Multimodal Technol. Interact. 5(4), 17, 2021. https://doi.org/10.3390/mti5040017

Ellis, Carolyn, et Flaherty, M. G. (Eds), “Investigating Subjectivity: Research on Lived Experience”, American Psychological Association, 1992. https://psycnet.apa.org/record/1992-97468-000

Eubanks, Virginia, Automating Inequality, How High-Tech Tools Profile, Police and Punish the Poor, St-Martin’s Press, 2018.

Haralabopoulos, G., Tsikandilakis, M., Torres, M. T., & Mcauley, D., “Objective Assessment of Subjective Tasks in Crowdsourcing Applications”. Proceedings of the 12th Language Resources and Evaluation Conference,2020. https://nottingham-repository.worktribe.com/output/4554093/objective-assessment-of-subjective-tasks-in-crowdsourcing-applications

Gagne, J.F., « Global AI Talent Report 2019 », 2019, https://jfgagne.ai/talent-2019/

Goddard, Valentine, Art Impact Report, http://allianceimpact.org/wp-content/uploads/2021/06/Art-Impact-AI-Observations-and-recommendations.pdf

Goddard, V., Harris, D., Reyes, J., Taurino, G., Ratté, S., Marta Kersten-Oertel, M., “Algorithmic Art to Counter Gender Bias in Artificial Intelligence: Changing AI’s Mis-pear-ceptions of Us”, Transformations Journal, soumis pour publication, 2021.

Information and Communications Technology Council, “Responsible Innovation in Canada and Beyond: Understanding and Improving the Social Impacts of Technology”, 2021. https://www.ictc-ctic.ca/wp-content/uploads/2021/01/ICTC_Report_SocialImpact_Print.pdf

Jo, Eun Seo, and Gebru, T., “Lessons from Archives: Strategies for Collecting Sociocultural Data in Machine Learning”, Conference on Fairness, Accountability, and Transparency (FAT* ‘20), January 27–30, 2020,Barcelona, Spain. 2020. https://arxiv.org/abs/1912.10389

Jobin, Anna, Ienca, M., Vayena, E., “The Global landscape of AI Ethics guidelines”, Nature Machine Intelligence, 2019. https://www.nature.com/articles/s42256-019-0088-2

Jordan, C., “International Policy Standards: An Argument for Discernment”, 2018, CIGI Policy Brief №135. https://ssrn.com/abstract=3258591

Lee, Min Kyung, Kusbit, D., Kahng, A., Kim, J.T., Yuan, X., Chan, A., See, D., Nooth-igattu, R., Lee, S., Psomas, A., and Procaccia, A.D., “WeBuildAI: Participatory Framework for Algorithmic Governance”, Proc. ACM Hum.-Comput. Interact., 3, CSCW, Article 181, 2019. https://doi.org/10.1145/3359283

Lewis, Jason Edward, (ed.), Indigenous Protocol and Artificial Intelligence Position Paper. Honolulu, Hawaiʻi: The Initiative for Indigenous Futures and the Canadian Institute for Advanced Research (CIFAR), 2020.

Luccioni, A., and Bengio, Y., “On the Morality of Artificial Intelligence”, December 2019, https://arxiv.org/pdf/1912.11945.pdf

Maruska, Jennifer Heeg, “Feminist Ontologies, Epistemologies, Methodologies, and Methods in International Relations”, Oxford University Press, 2010. https://doi.org/10.1093/acrefore/9780190846626.013.178

Nature, “Is Science Only for the Rich?”, Nature, 2016. https://www.nature.com/news/is-science-only-for-the-rich-1.20650#/elite

Nefresh-Clarke, L., Orser, B., Thomas, M., “COVID-19 Response Strategies, Addressing Digital Gender Divides”, Frontiers in Psychology, 2020

Noble, Safiya Umoja, Algorithms of Oppression, How Search Engines Reinforce Racism, New York University Press, 2018

OMPI, Rapport sur la propriété intellectuelle dans le monde, 2019. https://www.wipo.int/wipr/fr/

O’Neil, Cathy, Weapons of Math Destruction, Crown Books, 2016. https://www.programmer-books.com/weapons-of-math-destruction-pdf/

O’Neill, S.J., Hulme, M., Turnpenny, J., Screen, J., Disciplines, “Geography, and Gender in the Framing of Climate Change”, Bulletin of the American Meteorological Society, 2010.

OpenAI. January 2021. “DALL.E: Creating Images from Text”. https://openai.com/blog/dall-e/

Salas, Carmen, “What should we expect from art in the next few years/decades? What is Art Anyway?”, Medium, May 2020, https://medium.com/@CarmenSP/what-should-we-expect-from-art-in-the-next-few-years-decades-and-what-is-art-anyway-be9f75c3d1ae

Scheuerman, M. K., Denton, E., Hanna, A., “Do Datasets Have Politics? Disciplinary Values in Computer Vision Dataset Development”, August 2021, https://arxiv.org/pdf/2108.04308.pdf

Smith, D.G., Rosenstein, J.E., and Nikolov, M.C., “The Different Words We Use to Describe Male and Female Leaders”, Harvard Business Review, 2018. https://hbr.org/2018/05/the-different-words-we-use-to-describe-male-and-female-leaders

Smith, H. J.L., Ginley, B., Goodwin, H., “Beyond Compliance? Museums, Disability and the Law”, Museums, Equality and Social Justice, Routledge, 2012.

Sommer, L.K. and Klöckner, C.A. “Does activist art have the capacity to raise awareness in audiences? A study on climate change art at the ArtCOP21 event in Paris”. Psychology of Aesthetics, Creativity, and the Arts (2019)

Suresh, H., and Guttag, J., “A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle”, June 2021, https://arxiv.org/pdf/1901.10002.pdf

Thorpe, Jer, “Living in Data, A Citizen’s Guide to a Better Information Future”, MCD, 2021.

UNDESA, “Socially just transition towards sustainable development: The role of digital technologies on social development and well-being of all”, August 2020. https://www.un.org/development/desa/dspd/2020-meetings/socially-just-transition-digital-technologies.html

UNESCO, « Année internationale de l’économie créative au service du développement durable », 2021. https://fr.unesco.org/commemorations/international-years/creativeeconomy2021

West, Sarah, M., Whittaker, M., Crawford, K., “Discriminating Systems: Gender, Race and Power in AI”, AI Now Institute, 2019 https://ainowinstitute.org/discriminatingsystems.html

Wurtzler, Steve J., Electric Sounds, Technological Change and the Rise of Corporate Mass Media, Columbia University Press, 2007.

Xu, T., Zhang, P., Huang, Q., Zhang, H., Gan, Z., Huang, X. and He, X. “AttnGAN: Fine-grained text to image generation with attentional generative adversarial networks”. 2018. https://arxiv.org/abs/1711.10485

Yuan, Yuan, “Exploring Gender Imbalance in AI: Numbers, Trends, and Discussions”, Synced, 2020, https://syncedreview.com/2020/03/13/exploring-gender-imbalance-in-ai-numbers-trends-and-discussions/

Addendum

Les estampes d’art numérique créées à partir de mots choisis dans le jeu de données PearAI ont permis des observations préliminaires. Ces mots, soumis au modèle de génération d’images, soulèvent à leur tour des questions sur les modèles algorithmiques existants et les jeux de données sur lesquels ils reposent toujours.

Figure 2 : Ces nuages de mots représentant les mots recueillis par l’application PearAI.Art. Nuage par Marta Kersten-Oertel

Estampe numérique 1 : Femme sur la lune

Le mot « lune » n’a pas généré d’image par lui-même lorsque soumis au modèle algorithmique, mais le mot « vagin » lui, a rendu une image avec une forme correspondant d’assez près à la réalité anatomique, surmontée par ce qui semble être une tête humaine.

Figure 3 — Image générée par le modèle AttnGAN utilisant Runway ML avec le mot vagin ; édition et estampe, Valentine Goddard.

Estampe numérique 2 : la beauté de l’imperfection

Dans le jeux de données PearAI, le mot le plus souvent utilisé pour définir « Imperfection » est le mot « Beauté », d’où le titre de cette 2e estampe numérique.

Figure 4- Image générée par le modèle AttnGAN sur Runway ML en utilisant la phrase « Imperfectly beautiful woman » (Femme imparfaitement belle); édition et peinture numérique Valentine Goddard.

--

--

Valentine Goddard

Advisory Council of Canada/United Nations expert on AI & Data Policy & Governance; Lawyer/Mediator/Curator; Socioeconomic, legal, political implications of AI.