Promouvoir un modèle d'IA éthique

La construction d’un modèle éthique de l’intelligence artificielle est plus que jamais un facteur clé de succès dans la compétition internationale et pour la protection des droits fondamentaux.

Les attentes des citoyens à l’égard d’une technologie responsable et digne de confiance est un moteur pour les innovateurs et une source de motivation pour les jeunes générations qui s’engagent dans le développement des nouvelles technologies.

Vision

Les progrès récents de l’intelligence artificielle (IA) dans de nombreux domaines – voitures autonomes, reconnaissance d’images, assistants virtuels – et l’influence croissante des algorithmes sur nos vies suscitent des interrogations et font l’objet de débats dans l’espace public.

Conjointement avec la stratégie européenne, la France fournit des efforts pour construire l’IA responsable et digne de confiance de demain. C’est à ces conditions que les citoyens s’approprieront ces technologies et que l’innovation respectera et renforcera les droits fondamentaux auxquels notre continent est attaché.

Toutes deux lancées en 2018, les stratégies française et européenne pour l’IA doivent établir un système de co-construction entre développement de la technologie et encadrement de celle-ci pour ne pas dépendre d’autres pays dans l’utilisation de l’IA. C’est par le développement conjoint de l’Intelligence artificielle et de son modèle éthique que la France et l’Europe :

  • rendront possible l’appropriation de ces technologies par les individus ;
  • ne seront pas contraintes d’adopter les modèles développés par d’autres pays.

La France et l’Europe bâtissent une « IA de confiance » conciliant exigences éthiques et innovation. Un modèle équilibré entre innovation et éthique est par ailleurs une source de motivation des jeunes générations qui s’engagent dans les nouvelles technologies et un facteur d’attractivité pour les écosystèmes tech français et européens.

Objectifs

L’action de la France vise ainsi quatre objectifs :

  • Soutenir l’émergence d’un consensus international sur les bienfaits et les risques de l’IA.
  • Promouvoir l’élaboration d’un modèle et des principes fondés sur une IA de confiance au niveau national, européen et international.
  • Lancer des initiatives concrètes mettant l’IA au service de l’Humanité.
  • Faciliter l’émergence d’un consensus et de règles communes au niveau européen.

La Commission européenne a désigné un groupe de 52 experts indépendants pour définir les lignes directrices d’une IA éthique. Ce conseil est composé de chercheurs, universitaires, représentants de la société civile, groupes de défense des consommateurs, ainsi que des salariés d’entreprise, des conseillers politiques et des experts juridiques.

Qu’est-ce qu’une IA éthique ?

Tant au niveau national qu’international, de nombreux universitaires et acteurs ont tenté de répondre à cette question.

En avril 2019, la Commission européenne a identifié dans ses lignes directrices sept éléments essentiels pour parvenir à une IA de confiance :

  • Facteur humain et contrôle humain : les systèmes d'IA devraient être les vecteurs de sociétés équitables en se mettant au service de l'humain et des droits fondamentaux, sans restreindre ou dévoyer l'autonomie humaine ;
  • Robustesse et sécurité : une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d'IA ;
  • Respect de la vie privée et gouvernance des données : il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires ;
  • Transparence : la traçabilité des systèmes d'IA doit être assurée ;
  • Diversité, non-discrimination et équité : les systèmes d'IA devraient prendre en compte tout l'éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie ;
  • Bien-être sociétal et environnemental : les systèmes d'IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique ;
  • Responsabilisation : il convient de mettre en place des mécanismes pour garantir la responsabilité à l'égard des systèmes d'IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.

Le respect de ces principes et la réflexion sur leur mise en œuvre opérationnelle permettent d’avancer progressivement vers une IA de confiance.

Pour en savoir plus, rendez-vous sur le site de la Commission européenne (uniquement en anglais)

Actions clés

Plusieurs actions ont été lancées par la France dans le but de promouvoir une IA éthique aux niveaux national, européen et mondial :

  • La création du comité pilote d’éthique du numérique

Un comité pilote d’éthique du numérique a été constitué au sein du Comité Consultatif National d’Éthique (CCNE) en décembre 2019. Il est composé de personnalités d’horizons différents afin d’aborder de manière globale les enjeux éthiques du numérique et de l’Intelligence artificielle. Le comité a rendu son premier avis en mai 2020 sur le suivi numérique pour la gestion de la pandémie.

  • La création du comité d’éthique de la défense

Lancé le 10 janvier 2020, le comité d’éthique de la défense a pour mission d’entretenir au profit du ministère une réflexion éthique sur les enjeux liés à l’évolution de l’armement ou à l’émergence de nouvelles technologies dans le domaine militaire. Les deux mandats qui lui ont été confiés en 2020 portent sur : le « soldat augmenté » et le développement des « armes autonomes ».

L’Union européenne définit les lignes directrices d’une IA éthique et de confiance. En avril 2019, la Commission a précisé les trois étapes de son approche :

  • Définir les exigences clés pour une IA digne de confiance.
  • Lancer une phase pilote à grande échelle pour recueillir les réactions et retours d'informations des parties prenantes.
  • Élaborer un consensus international pour une IA centrée sur l'humain.

La compétition technologique et économique en IA est très intense. Dans un domaine aussi étendu et récent que l’éthique de l’IA, il est important d’accompagner les entreprises dans la mise en œuvre de ces principes. L’outil et la méthodologie ALTAI ont été développés pour cela.

Retrouvez ALTAI ici : https://futurium.ec.europa.eu/en/european-ai-alliance/pages/altai-assessment-list-trustworthy-artificial-intelligence 

La France et le Canada sont à l’origine du Partenariat Mondial sur l’Intelligence Artificielle (PMIA). Cette initiative internationale et multipartite vise à guider le développement et l'utilisation responsables de l'IA, dans un esprit de respect des droits de l'Homme, d'inclusion, de diversité, d'innovation et de croissance économique.

Lancé le 15 juin 2020, le PMIA rassemble aujourd'hui les 25 membres suivants :

  • l’Allemagne, l’Australie, la Belgique, le Brésil, le Canada, la République de Corée, le Danemark, l'Espagne, les États-Unis, la France, l’Inde, l'Irlande, Israël, l’Italie, le Japon, le Mexique, la Nouvelle-Zélande, les Pays-Bas, la Pologne, la République tchèque, le Royaume-Uni, Singapour, la Slovénie, la Suède et l’Union européenne.

Les membres et les experts du PMIA sont appuyés par deux centres d’expertise. Le premier, hébergé par l’Inria à Paris, coordonne les groupes de travail consacrés à « l’avenir du travail » et « innovation et commercialisation ». Le second, l’International centre of expertise in Montreal for the advancement of artificial intelligence (CEIMIA-ICEMAI) est situé au Canada et coordonne les groupes « IA responsable », « gouvernance des données » et « pandémie covid-19 ».

Mis à jour le 01/03/2023

Partager