Définir les normes, pas les subir.

04/07/2022

Julien Chiaroni, Confiance.AI (Grand Défi IA)
Julien Chiaroni, Confiance.AI (Grand Défi IA)»
Patrick Bezombes, Président du comité de normalisation IA et Big Data
Patrick Bezombes, Président du comité de normalisation IA et Big Data

Certains acteurs politiques et industriels critiquent la normalisation, allant pour les Britanniques jusqu’à justifier du Brexit du fait des contraintes normatives Européennes et du besoin de souveraineté. C’est oublier un peu rapidement que la normalisation est d’une part essentielle à la construction de la confiance et aux échanges économiques dans les pays modernes, et d’autre part que la normalisation est le résultat d’un consensus auquel chaque acteur peut contribuer. De fait, la normalisation n’est pas un objet éthéré qui tombe du ciel, mais le résultat d’un processus ouvert à toutes les organisations.


La commission européenne par les voix d’Ursula van der Leyen et de Thierry Breton a rappelé que la normalisation technique est stratégique et a un impact significatif sur l’économie Européenne. Ce discours constitue une rupture par rapport à la politique précédente qui laissait au marché et aux entreprises le soin de définir les normes volontaires qui les régissent et impactent la société Européenne.


Dans le numérique tout particulièrement, les entreprises les plus actives en matière de normalisation sont des entreprises non-européennes qui véhiculent des approches non nécessairement conformes aux intérêts Européens. Ainsi, la question de la souveraineté des normes qui s’appliquent au tissu économique et sociétal européen se pose. Dans ce cadre, sur le sujet de l’IA comme sur les autres, la nouvelle doctrine Européenne consiste désormais à ne pas subir les normes mais à les définir : « We want to be a global standard-setter, not a standard-taker »(Thierry Breton). Cette approche volontariste par la norme, et sur la norme, passe impérativement par un renforcement de l’influence Européenne dans les organes de normalisation pour protéger et faire valoir les intérêts, les principes et les valeurs Européennes en s’assurant de leur bonne transcription dans les normes technologiques internationales.


Certains observateurs ont en effet constaté une perte d’influence des entreprises européennes qui laisse la place aux géants supranationaux du numérique, ainsi qu’aux stratégies très volontaristes chinoises et américaines. Les enjeux se situent très en profondeur : l’approche chinoise pousse ainsi à la redéfinition des standards internationaux grâce à la puissance de ses acteurs numériques. On pense ici à l’action de Huawei pour modifier le protocole Internet avec sa “New IP Initiative”. Quelles sont les conséquences économiques, industrielles, sociétales, géopolitiques d’une telle proposition ? Quels sont les risques sur la souveraineté Européenne ? Quelles sont les dépendances qui pourraient résulter de cette initiative ?


Comme mentionné dans le rapport du think-tank Digital New Deal « IA de confiance : opportunité stratégique pour une souveraineté industrielle et numérique », le choix, adopté par la Commission européenne dans le domaine de l’IA, replace les normes au cœur d’un écosystème de confiance à la fois pour le futur marché européen de l’IA, mais aussi pour la confiance des citoyens européens. Le futur cadre règlementaire Européen portera sur les systèmes d’IA à haut risque qui seront soumis à des exigences réglementaires et à un examen de conformité. Ces exigences obligatoires, portant notamment sur des attributs de la confiance comme la robustesse, la supervision humaine, la transparence…, définis par des normes européennes dites « harmonisées », c’est-à-dire publiées au Journal Officiel Européen. La conformité aux normes européennes constituera une présomption de conformité à la règlementation européenne, c’est dire toute l’intérêt qu’il convient d’y porter.


Le débat entre la normalisation horizontale et la normalisation sectorielle (ou métier) n’est pas nouveau. Historiquement les différents secteurs d’activités n’ont d’ailleurs que peu d’interactions : les spécificités sectorielles l’emportant largement, une approche en silo est préférée par défaut. Néanmoins, une fois posé le postulat suivant sur l’IA : « une technologie à vocation transversale ne peut être efficacement réglementée que par des règles horizontales qui fournissent des solutions aux défis communs. » (Thierry Breton), la question de l’articulation entre normalisation horizontale et sectorielle devient incontournable.


Les problématiques de positions dominantes de certains acteurs du numérique, présentant l’avantage concurrentiel d’être par nature multisectoriels, doivent également être analysées. Dans ce contexte, la coopération entre différentes filières industrielles et différentes typologies d’acteurs (Grands groupes, PME, startups, laboratoires de recherche, universités, institutionnels) devient cruciale, ainsi que le partage d’un socle horizontal fédérateur pour la norme, comme proposé dans la stratégie de normalisation française en IA (AFNOR).


L’effort devra donc être autant sectoriel (santé, aéronautique, éducation, etc.) pour refléter les spécificités et les besoins des filières et de leurs cas d’usage, que trans-sectoriel pour faciliter l’émergence d’un écosystème de confiance complet (outils d’ingénierie, régulation, certification, contrôle, enquête, etc.). Plusieurs filières industrielles travaillent d’ores et déjà à normer leurs usages d’une IA responsable, fiable et sûre. Dès 2019, le secteur de l’aéronautique a démarré des travaux avec l’EUROCAE/SAE, puis publié une première feuille de route en 2021. En 2019, la National Medical Products Administrations chinoise publie son guide d’intégration de l’IA en santé. En 2020, les assureurs américains ont adopté les principes de l’OCDE sur l’IA, et les banques américaines ont commencé leurs discussions de formalisation début 2021. En octobre 2022, c’est au tour de l’Office of Science and Technology Policy de la Maison Blanche d’annoncer une proposition de « AI Bill of Rights » pour encadrer les usages d’IA potentiellement nuisibles pour la société.


Dans le même temps, les travaux s’intensifient au niveau des instances de normalisation européennes (CEN / CENELEC) ou internationales (ISO, IEEE). Plusieurs pays, comme la France et l’Allemagne, ont également publié des stratégies de normalisation pour parvenir à répondre à cet enjeu, dans des délais contraints.


Depuis ses débuts, l’Europe a su se positionner dans les organes de normalisation des grandes filières industrielles, comme l’aéronautique ou la santé. Étant donné la nature transverse et donc trans-sectorielle de l’IA, une « technologie d’usage général », nous devons nous donner les moyens de peser au sein des instances normatives concernées et éviter de laisser d’autres pays ou les grands acteurs du numérique décider seuls des standards.


Nous recommandons donc de soutenir la politique engagée par la Commission européenne faisant de la normalisation une priorité stratégique et de de souveraineté industrielle et numérique, ainsi que la mise en œuvre d’un label européen d’IA de confiance. Nous soutenons également dans ce rapport « IA de confiance » commandé par France 2030 à Digital New Deal, de promouvoir des bacs à sable réglementaires (sandboxes) suivant les critères promulgués par l’OCDE afin de ne pas se priver d’un dispositif qui par son agilité, a contrario des idées reçues, aide à garantir la future mise en œuvre de la réglementation, et donc la protection des citoyens européens.

Patrick Bezombes, Président du comité de normalisation IA et Big Data
Julien Chiaroni, IA de confiance : opportunité stratégique pour une souveraineté industrielle et numérique, Digital New Deal.

Article publié le 24 novembre par Acteurs Publics : https://acteurspublics.fr/articles/digital-new-deal-il-faut-definir-les-normes-technologiques-pas-les-subir

ÉDITO

Nothing found.