Aller aux nouvelles

IA

Cinq clés pour comprendre le Règlement européen sur l’intelligence artificielle

Reglement europeen sur lintelligence artificielle

La fin de l’année 2022 a été cruciale pour la démocratisation de l’intelligence artificielle. Le 30 novembre de cette année, OpenAI – une entreprise spécialisée dans la recherche et le développement de systèmes informatiques et d’algorithmes capables d’imiter l’intelligence humaine – a lancé ChatGPT. Le succès de ce chatbot a été si immédiat et spectaculaire que, à peine quatre jours plus tard, il comptait déjà plus d’un million d’utilisateurs, selon l’entreprise californienne. Plus d’un an et demi plus tard, le 1er août dernier, est entré en vigueur le Règlement européen sur l’intelligence artificielle.

Bruxelles a commencé à travailler sur ce règlement avant que ChatGPT ne devienne un catalyseur majeur. Proposé par la Commission Européenne en avril 2021 et ratifié par le Parlement Européen et le Conseil en décembre 2023, ce règlement se concentre sur l’atténuation des risques de l’intelligence artificielle pour la santé, la sécurité et les droits fondamentaux des citoyens. Il établit également des exigences et des obligations claires pour les développeurs et les utilisateurs en ce qui concerne leurs usages spécifiques. Voici les clés d’un règlement dont l’ambition est de devenir une référence mondiale.

Qu’est-ce que l’intelligence artificielle ?

Le Règlement européen sur l’intelligence artificielle définit un système d’intelligence artificielle comme un programme qui fonctionne de manière autonome, c’est-à-dire sans intervention humaine constante. Ce système utilise des données qu’il peut recevoir de personnes ou d’autres machines et, à partir de ces données, déduit comment atteindre certains objectifs. Pour ce faire, il utilise des techniques d’apprentissage automatique ou basées sur la logique et la connaissance. En conséquence, il génère des contenus, des prévisions, des recommandations ou des décisions qui peuvent influencer l’environnement avec lequel il interagit.

À qui s’applique le Règlement européen sur l’intelligence artificielle ?

Le Règlement européen sur l’intelligence artificielle s’applique à tout fournisseur qui commercialise ou utilise des systèmes d’intelligence artificielle dans l’Union Européenne, peu importe où se trouve le fournisseur. Il s’applique également aux fournisseurs et aux utilisateurs de pays tiers dont les systèmes produisent des résultats utilisés dans l’UE, aux utilisateurs physiquement présents ou établis dans l’UE, ainsi qu’aux fournisseurs de ces systèmes et leurs représentants autorisés, importateurs et distributeurs.

Quelle approche est adoptée ?

L’approche du Règlement européen sur l’intelligence artificielle est basée sur le risque, ce qui signifie que les normes deviennent plus strictes en fonction de son niveau.

  • Risque minime. La plupart des systèmes d’intelligence artificielle peuvent être utilisés sans complications supplémentaires, puisqu’ils respectent la législation en vigueur. Des exemples de ces systèmes incluent les jeux vidéo et les filtres anti-spam dans les e-mails. Bien que non obligatoire, les fournisseurs de ces systèmes peuvent choisir de suivre les principes de l’intelligence artificielle fiable et de se conformer à des codes de conduite volontaires.
  • Risque spécifique de transparence. Pour instaurer la confiance, il est crucial que l’utilisation de l’intelligence artificielle soit transparente. C’est pourquoi le Règlement sur l’Intelligence Artificielle impose des exigences spécifiques de transparence pour certaines applications, notamment celles présentant un risque clair de manipulation, comme les robots conversationnels ou les deepfakes. Les utilisateurs doivent toujours être informés qu’ils interagissent avec une machine.
  • Risque élevé. Les systèmes d’intelligence artificielle dont le risque est considéré élevé sont ceux qui pourraient affecter négativement la sécurité des personnes ou leurs droits fondamentaux. Cela inclut, par exemple, les systèmes qui décident si une personne peut recevoir un traitement médical, obtenir un emploi ou un prêt pour acheter un appartement. Cela englobe également les systèmes utilisés par la police pour créer des profils de personnes ou évaluer le risque de commettre un crime, ainsi que ceux qui contrôlent des robots, des drones ou des dispositifs médicaux. Ces systèmes seront soumis à une série d’exigences et d’obligations pour accéder au marché de l’UE.
  • Risque inacceptable. Certains usages de l’intelligence artificielle sont jugés tellement préjudiciables qu’ils sont interdits pour s’opposer aux valeurs de l’UE, car ils portent atteinte aux droits fondamentaux des citoyens. Cela inclut la manipulation des personnes en exploitant leurs vulnérabilités, l’utilisation de techniques subliminales, le scoring social à des fins publiques ou privées, la police prédictive basée uniquement sur des profils, la collecte massive d’images faciales sur Internet ou par des caméras de sécurité pour créer des bases de données, et la reconnaissance des émotions au travail ou dans les écoles, sauf pour des raisons médicales ou de sécurité. La catégorisation biométrique pour déduire des données sensibles telles que la race ou l’orientation sexuelle est également interdite, ainsi que l’identification biométrique à distance en temps réel dans les espaces publics par la police, sauf dans des cas exceptionnels.

Comment le règlement aborde-t-il les biais raciaux et de genre ?

Le Règlement européen sur l’intelligence artificielle met fortement l’accent sur la prévention des biais générés ou perpétués par ces systèmes. Pour cela, ils doivent répondre à de nouvelles exigences garantissant leur robustesse technique et éviter les résultats biaisés qui affectent de manière disproportionnée les groupes marginalisés.

Les systèmes d’intelligence artificielle doivent être formés avec des données représentatives et posséder des mécanismes pour détecter et corriger toute inégalité. De plus, ils doivent être traçables et auditables, conservant toute la documentation pertinente, y compris les données de formation de l’algorithme, ce qui facilite les enquêtes ultérieures et garantit une surveillance continue.

Comment le Règlement européen sur l’intelligence artificielle sera-t-il appliqué et quelles sanctions sont prévues ?

Le Règlement européen sur l’intelligence artificielle établit un système de gouvernance en deux niveaux : les autorités nationales surveillent le respect des normes dans leurs pays, tandis que l’UE réglemente les modèles d’usage général. Pour assurer cohérence et coopération, un Comité Européen de l’Intelligence Artificielle sera créé, soutenu par l’Agence Européenne de l’Intelligence Artificielle, qui fournira des orientations stratégiques.

Des sanctions sévères seront appliquées en cas de non-conformité, variant en fonction de la gravité :

  • 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour des manquements graves liés aux exigences en matière de données ;
  • 15 millions d’euros ou 3 % pour non-respect d’autres obligations ;
  • 7,5 millions d’euros ou 1,5 % pour fourniture d’informations incorrectes, incomplètes ou trompeuses aux autorités.

Pour les PME, le montant inférieur de ces seuils sera appliqué, tandis que pour les grandes entreprises, le montant supérieur sera retenu.