L’AI Act européen entre en vigueur le 1er août 2024, imposant aux développeurs d’IA des obligations graduées selon le niveau de risque. Cette réglementation pionnière classe les systèmes d’intelligence artificielle en quatre catégories, avec des sanctions pouvant atteindre 35 millions d’euros ou 7% du chiffre d’affaires mondial.
Après trois ans de négociations, l’Union européenne franchit une étape décisive dans l’encadrement de l’intelligence artificielle. Le règlement, adopté définitivement en mai 2024, établit le premier cadre juridique contraignant au monde pour les technologies d’IA. Les entreprises disposent désormais d’un calendrier précis pour se mettre en conformité, avec des échéances échelonnées jusqu’en 2027.
Cette législation s’applique à tous les fournisseurs de systèmes d’IA commercialisés dans l’UE, qu’ils soient européens ou non. OpenAI, Google, Meta et les géants technologiques américains sont donc directement concernés, au même titre que les start-ups européennes du secteur.
Quatre niveaux de risque pour classifier tous les systèmes d’IA
L’AI Act repose sur une approche par les risques, distinguant quatre catégories principales. Les systèmes à risque inacceptable sont purement et simplement interdits. Cette catégorie inclut les technologies de scoring social à la chinoise, certains systèmes de reconnaissance faciale en temps réel dans l’espace public, ou encore les IA manipulant le comportement humain de manière subliminale.
Les systèmes à haut risque font l’objet des contraintes les plus lourdes. Ils regroupent notamment les IA utilisées dans le recrutement, l’éducation, les services bancaires ou la justice. Ces applications doivent respecter des exigences strictes : évaluation de conformité, documentation technique détaillée, surveillance humaine permanente et traçabilité complète des données d’entraînement.
La catégorie risque limité concerne principalement les chatbots et assistants virtuels. L’obligation centrale porte sur la transparence : les utilisateurs doivent être clairement informés qu’ils interagissent avec une IA. Une mesure qui vise directement les deepfakes et autres contenus générés artificiellement.
Enfin, les systèmes à risque minimal – jeux vidéo, filtres anti-spam – échappent à toute obligation spécifique, mais restent soumis au droit commun de la protection des consommateurs.
Des obligations renforcées pour les modèles de fondation comme GPT-4
L’une des innovations majeures de l’AI Act concerne les modèles de fondation, ces IA généralistes capables de multiples applications. Dès qu’un modèle nécessite plus de 10^25 FLOPS pour son entraînement – un seuil qui correspond approximativement à GPT-4 – des obligations spécifiques s’appliquent.
Les développeurs doivent conduire des évaluations de risque approfondies, mettre en place des mesures de cybersécurité renforcées et documenter précisément l’efficacité énergétique de leurs systèmes. L’utilisation de données protégées par le droit d’auteur doit également faire l’objet d’un rapport détaillé – une disposition qui vise directement les pratiques actuelles d’entraînement sur des corpus web massifs.
Pour les modèles présentant des risques systémiques – ceux dépassant 10^26 FLOPS – les exigences montent d’un cran. Tests de sécurité adversariaux, évaluation des risques de manipulation de l’opinion publique, mise en place de garde-fous contre la génération de contenus illégaux : la liste des obligations s’allonge considérablement.
Cette approche graduated répond aux inquiétudes exprimées par la communauté scientifique sur les capacités émergentes des grands modèles de langage. Elle anticipe également l’arrivée de systèmes encore plus puissants, potentiellement dotés de capacités d’intelligence artificielle générale.

Un calendrier de mise en œuvre étalé sur trois ans
L’entrée en vigueur de l’AI Act suit un calendrier précis, conçu pour permettre aux entreprises de s’adapter progressivement. Dès février 2025, les systèmes à risque inacceptable devront cesser toute commercialisation. Les entreprises concernées disposent de six mois pour retirer leurs produits du marché européen.
Les obligations relatives aux modèles de fondation prennent effet en août 2025, soit un an après l’entrée en vigueur du règlement. Cette période tampon permet aux développeurs de mettre en place les nouveaux processus d’évaluation et de documentation requis.
L’échéance la plus lourde concerne les systèmes à haut risque : ils ont jusqu’en août 2027 pour se conformer intégralement aux nouvelles exigences. Cette période de trois ans reconnaît la complexité technique de la mise en conformité, notamment pour les systèmes déjà déployés.
Les sanctions financières sont à la hauteur des enjeux économiques. Commercialiser un système interdit expose à une amende de 35 millions d’euros ou 7% du chiffre d’affaires mondial. Le non-respect des obligations de transparence est sanctionné à hauteur de 15 millions d’euros ou 3% du chiffre d’affaires. Des montants qui dépassent largement ceux prévus par le RGPD.
L’Europe face à la concurrence réglementaire mondiale
Cette législation pionnière place l’Europe en position de référence mondiale, mais soulève des questions de compétitivité. Les États-Unis privilégient une approche sectorielle moins contraignante, via des décrets exécutifs et des recommandations. La Chine développe son propre cadre, centré sur la souveraineté numérique et le contrôle des algorithmes.
L’enjeu pour l’UE consiste à éviter l’écueil d’un “Brussels Effect” négatif – une fuite des investissements en IA vers des juridictions moins exigeantes. Plusieurs licornes européennes du secteur, comme Mistral AI, ont déjà fait part de leurs préoccupations concernant les coûts de conformité.
La Commission européenne mise sur l’effet d’entraînement de sa réglementation. L’objectif affiché : faire de l’AI Act la norme de référence pour les échanges internationaux, à l’image du RGPD pour la protection des données. Les premiers signes sont encourageants, avec plusieurs pays tiers qui étudient l’adoption de standards similaires.