Un grand jour dans l’histoire de l’intelligence artificielle
Le 13 mars 2024 est en effet un grand jour en intelligence artificielle et en innovation technologique responsable: le Parlement européen a approuvé la Loi sur l’intelligence artificielle, ce qui est fait la deuxième après la Chine (Règles de Changai, 2022). Cette loi concerne autant les citoyens de l’UE, que ceux des États-Unis, du Canada et du monde entier, car elle s’applique aux fournisseurs de services ou de produits dans l’UE, peu importe leur lieu d’établissement.
Voici certains éléments clés portant sur des sujets tout particulièrement névralgiques extraits du communiqué.
1. Les applications de l’IA qui menacent les droits des citoyens, sont interdites, notamment:
- les systèmes de catégorisation biométrique fondés sur des caractéristiques sensibles et la récupération non ciblée d’images faciales sur l’internet pour créer des bases de données de reconnaissance faciale.
- la reconnaissance des émotions sur le lieu de travail et dans les écoles.
- la notation sociale (social scoring) et la police prédictive.
- l’IA qui manipule le comportement humain ou exploite les vulnérabilités des personnes.
2. Des obligations claires pour d’autres systèmes d’IA à haut risque c’est à dire qu’ils risques de causer des dommages importants qu’ils peuvent causer à la santé, à la sécurité, aux droits fondamentaux, à l’environnement, à l’administration de la justice, à la démocratie et à l’État de droit). On y inclut entre autres les systèmes d’IA ayant un impact sur :
- les infrastructures critiques.
- l’éducation, la formation professionnelle et l’emploi.
- les services privés et publics essentiels (par exemple, les soins de santé, les services bancaires).
- les processus démocratiques comme l’influence sur les élections (ex: identification des deepfakes).
3. Les systèmes d’IA à usage général doivent satisfaire à certaines exigences de transparence, notamment le respect de la législation européenne en matière de droits d’auteur et la publication de résumés détaillés du contenu utilisé pour la formation du modèle algorithmique.
4. Les modèles à usage général les plus puissants, susceptibles de présenter des risques systémiques, comme les biais dans les IA génératives (ChatGPT, Gemini, etc), seront soumis à des exigences supplémentaires.
5. Des mesures prévues pour soutenir les start-ups et PME comme des “bacs à sable réglementaires” et autres.
Entrée en vigueur
La Loi sur l’IA sera applicable 24 mois après son entrée en vigueur, sauf:
- 6 mois pour les pratiques interdites ;
- 9 mois pour les codes de pratique ;
- 12 mois pour « l’IA à usage général » ;
- 36 mois pour les obligations des systèmes à haut risque.
Le projet de loi C-27 du Canada est le prochain qui suivra?