Trois questions à Matthias Reetz
Publié le : 12.08.2025
Durée de lecture
environ 2 minutes
À l’heure où l’IA progresse à vitesse grand V, le processus réglementaire associé n’en est qu’à ses débuts en Suisse. Mais qu’en est-il au niveau européen ?
En Suisse, le Conseil fédéral n’a présenté pour l’instant, en février 2025, qu’un état des lieux sur une possible régulation en matière d’IA. En revanche, l’Union européenne a d’ores et déjà franchi une étape majeure vers une régulation dans ce domaine : depuis le 1er août 2024, le règlement sur l’IA (« AI Act ») constitue le premier cadre réglementaire complet et transnational en matière d’exploitation de l’intelligence artificielle. Les différentes dispositions entreront en vigueur de manière échelonnée jusqu’en 2027.
L’AI Act s’inscrit dans une approche basée sur les risques et définit des exigences claires pour différentes applications de l’IA, depuis les systèmes à risque minimal jusqu’aux systèmes à haut risque. Le but recherché est d’encourager l’innovation tout en protégeant les droits fondamentaux, la sécurité et la transparence.

Sur la personne
Matthias Reetz,
Auditeur SQS et responsable du produit ISO/IEC 42001
Cette approche s’articule autour de sept principes fondamentaux pour une IA digne de confiance :
- Intervention humaine et surveillance
- Robustesse technique et sécurité
- Protection de la vie privée et gouvernance des données
- Transparence
- Diversité, non-discrimination et équité
- Bien-être social et environnemental
- Responsabilité
Avec ce cadre réglementaire, l’UE se positionne comme un pionnier mondial en matière de développement éthique et responsable de l’IA. Toutefois, plusieurs grandes entreprises européennes ont fait part de leurs préoccupations quant aux délais serrés prévus pour la mise en œuvre.
Existe-t-il déjà des lois juridiquement contraignantes aux États-Unis pour réglementer l’intelligence artificielle ? Et quelle est la position de l’administration Trump sur ce point ?
En matière de réglementation de l’IA, les États-Unis ne disposent actuellement d’aucune législation complète et juridiquement contraignante à l’échelle fédérale. Au contraire, le paysage réglementaire y est fragmenté, c’est-à-dire que les différents États fédérés poursuivent des approches différentes.
Au niveau fédéral, l’ex-président Joe Biden a promulgué le 30 octobre 2023 le décret 14110 sous le nom « Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence ». Celui-ci obligeait avant tout les autorités fédérales à évaluer et à contrôler les risques liés à l’IA, mais n’avait aucun effet juridique direct sur les entreprises privées.
Avec l’entrée en fonction du président Donald Trump, ce décret a été tout simplement abrogé. Le président Trump a publié un nouveau décret intitulé « Removing Barriers to American Leadership in Artificial Intelligence ». Ce dernier a pour but de supprimer les obstacles réglementaires au développement et aux applications de l’IA et de renforcer la capacité d’innovation des États-Unis.
La Chambre des représentants américaine a par ailleurs adopté en mai 2025 une loi qui prévoit un moratoire de dix ans sur les nouvelles réglementations fédérales en matière d’IA. Le Sénat a toutefois rejeté ce moratoire à une large majorité.
Et qu’en est-il de la réglementation de l’intelligence artificielle en Chine ?
La Chine poursuit une approche très régulatrice en matière d’IA. Elle a ainsi déjà mis en œuvre plusieurs dispositions sectorielles visant notamment à garantir la transparence, le contrôle et la surveillance par l’État.
Le règlement sur les systèmes de recommandation algorithmique, qui est entré en vigueur le 1er mars 2022, en est un exemple marquant. Il oblige en effet les fournisseurs de services numériques – tels que les réseaux sociaux, les plateformes de e-commerce ou les services de renseignements – à enregistrer leurs algorithmes de recommandation auprès des autorités. L’objectif de ce règlement est de garantir la transparence des décisions algorithmiques et de prévenir les possibles abus.
Ce règlement a été suivi en juillet 2023 par une série de mesures provisoires pour la gestion des services d’intelligence artificielle générative (« Interim Measures for the Management of Generative Artificial Intelligence Services »), lesquelles concernent tout spécialement les systèmes d’IA générative tels que les chatbots ou les générateurs d’images. La Chine travaille également à l’élaboration de réglementations supplémentaires pour les contenus générés par l’IA et a créé l’année dernière un cadre de gouvernance national pour la sécurité liée à l’IA.