Savez-vous quelle législation affectera les technologies que vous développez aujourd’hui ?

Savez-vous quelle législation affectera les technologies que vous développez aujourd'hui ?

Que se passe-t-il lorsqu’une nouvelle technologie apparaît ?

Lorsqu’une nouvelle technologie apparaît, il n’existe généralement pas de législation qui puisse lui être directement appliquée, mais nous essayons d’abord d’adapter celle qui existe. Le problème est que de nombreuses fonctionnalités, fonctions ou situations engendrées par cette technologie ne sont pas prévues dans la législation existante.

Cette situation entraîne souvent des vides juridiques qui sont exploités par les entreprises qui développent ou utilisent ces technologies pour créer de nouveaux modèles commerciaux, qui ne sont pas du tout réglementés. Cela entraîne parfois des conflits, car ils sont en concurrence avec des entreprises établies qui doivent se conformer à des réglementations, alors que les nouveaux arrivants en sont exemptés.

Les technologies numériques et leur législation

C’est un domaine où l’obsolescence « technologique » de la législation est évidente, c’est-à-dire une législation qui n’est pas préparée à ces nouvelles technologies. L’Union européenne est l’un des acteurs géopolitiques qui tend à développer une réglementation pour protéger ses citoyens. Dans le domaine des technologies numériques, elle ne veut pas être en reste lorsqu’il s’agit de réglementer ces technologies.

L’intelligence artificielle et sa législation

L’une des technologies dans lesquelles des mesures sont prises avec la plus grande vision et le plus grand impact est l’intelligence artificielle, où, au cours de l’année dernière, une série d’actions notables ont été développées, telles que les suivantes :

En octobre 2020, une résolution a été adoptée concernant la nécessité de développer un « régime de responsabilité civile pour l’intelligence artificielle ». Ceci est particulièrement important dans le domaine des véhicules autonomes où, en cas d’accident, la différence substantielle est que le conducteur n’est pas une personne physique mais une « entité numérique » composée de différents logiciels liés à et contrôlés par différents composants d’intelligence artificielle.

Ce qui est proposé dans cette résolution est de créer un règlement européen, c’est-à-dire un instrument législatif qui doit être respecté par tous les pays de l’Union européenne à la date de son application. Ce règlement portera le titre significatif « sur la responsabilité civile pour l’exploitation des systèmes d’intelligence artificielle ».

En avril 2021, la Commission européenne a proposé un texte pour un règlement sur l’intelligence artificielle, qui sera soumis au Parlement européen pour discussion et approbation. L’objectif de ce règlement est de fournir aux citoyens européens des garanties sur les systèmes qui utilisent l’intelligence artificielle au sein de l’Union européenne.

L’objectif de ce règlement est de développer une série de règles pour prévenir et éviter une série de risques spécifiques que les systèmes d’intelligence artificielle sont considérés comme posant ou générant. Cette législation et les règles qui y sont associées visent à mener la normalisation de l’intelligence artificielle en termes de protection et de sécurité des personnes, de durabilité de la technologie, d’inclusion et de non-discrimination de tous les citoyens et de fiabilité des systèmes.

Le présent règlement définit une stratégie fondée sur le risque pour sa mise en œuvre. En commençant par le niveau le plus élevé, les systèmes à « risque inacceptable » seront interdits. Il s’agit notamment des systèmes qui représentent une menace évidente pour la sécurité des personnes, des systèmes qui peuvent menacer les moyens de subsistance des personnes et des systèmes qui affectent les droits des personnes. Il est clair que l’interdiction de l’utilisation dans l’Union européenne de systèmes pouvant développer ces fonctionnalités aura des conséquences sur les différentes applications que l’on peut avoir sur son ordinateur, mais surtout sur de nombreuses applications que l’on peut télécharger et utiliser aujourd’hui sur les téléphones portables et les tablettes, et qui à partir du moment où le règlement sera applicable seront interdites.

Viennent ensuite sur l’échelle des risques les systèmes définis comme « à haut risque », y compris ceux qui sont destinés à être utilisés dans :

  • les infrastructures critiques, et qui peuvent mettre en danger la vie et la santé des citoyens ;
  • l’éducation ou la formation professionnelle, et qui peuvent déterminer l’accès d’une personne à l’éducation et à la carrière ;
  • les éléments de sécurité des produits ;
  • l’emploi, la gestion des travailleurs et l’accès au travail indépendant ;
  • les services publics et privés essentiels ;
  • l’application de la loi, et qui peuvent interférer avec les droits fondamentaux des individus ;
  • la gestion des migrations, l’asile et le contrôle des frontières ;
  • l’administration de la justice et les processus démocratiques.

Pour toutes ces situations, le règlement définit des obligations strictes à développer et à valider avant que ces systèmes ne soient placés et utilisés sur le marché de l’UE.

Le règlement devrait entrer en vigueur 24 mois après la date de son adoption et de sa publication dans le Journal Officiel de l’Union Européenne.

Cela signifie que tous ceux qui prévoient que leurs systèmes d’IA seront mis sur le marché et utilisés dans l’UE lorsqu’elle deviendra applicable devront analyser dans quel contexte de risque ce qu’ils ont développé ou développeront et agir en conséquence.

Il s’agit là d’un exemple de la manière dont la législation affecte les technologies et de la nécessité pour les entreprises de procéder à une planification législative à court et moyen terme en ce qui concerne leurs technologies.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.