La loi européenne sur l'IA est armée
La loi sur l'IA de l'Union européenne, le premier règlement global sur l'IA au monde, franchira une étape décisive le 2 août 2025. À partir de cette date, les entreprises, les pouvoirs publics et les fournisseurs d'IA de l'UE seront soumis à un grand nombre d'obligations clés, dont le non-respect pourra donner lieu à l'introduction et à l'application de sanctions.

L'AI Act, qui est entré en vigueur le 2 février de cette année, crée un cadre juridique uniforme pour l'intelligence artificielle au sein de l'UE. Certes, de nombreuses réglementations ne prendront effet qu'en 2026, mais une nouvelle phase, axée sur trois domaines, débutera dès le 2 août 2025 :
- Pénalités en cas de non-respect
- Obligations relatives aux modèles généraux d'IA à usage général (GPAI)
- Mise en place de la surveillance et de la gouvernance au niveau national et européen
Des amendes allant jusqu'à 35 millions d'euros
Depuis le 2 février de cette année, les systèmes d'IA présentant des risques inacceptables sont interdits. En outre, à partir du 2 août 2025, des amendes pouvant atteindre 35 millions d'euros ou 7% de leur chiffre d'affaires annuel total pourront être infligées en cas de non-respect des obligations existantes. Les entreprises doivent par exemple s'assurer que leurs collaborateurs disposent de connaissances en matière d'IA. L'Union européenne attend de ses États membres qu'ils définissent leurs propres mesures de sanction efficaces, proportionnées et dissuasives. Les circonstances particulières des PME et des start-ups doivent être prises en compte afin de ne pas mettre en péril leur viabilité économique.
Nouvelles obligations pour les fournisseurs de modèles AMPI
Les modèles AMPI qui seront commercialisés dans l'Union européenne à partir du 2 août 2025 seront soumis à des obligations légales. L'Office européen pour l'intelligence artificielle a publié à cet effet la version finale des codes de conduite le 10 juillet 2025. Les fournisseurs de ces modèles AMPI doivent notamment établir une documentation technique, respecter les droits d'auteur et garantir la transparence sur les données d'entraînement utilisées.
Les modèles GPAI sont des systèmes d'IA au spectre d'utilisation particulièrement large et sont conçus pour accomplir une multitude de tâches. Ils sont entraînés avec d'énormes quantités de données et sont donc polyvalents. L'exemple le plus connu est celui des grands modèles linguistiques (Large Language Models, LLM), comme le modèle linguistique génératif GPT-4o, intégré dans ChatGPT. Les modèles GPAI qui étaient déjà sur le marché dans l'Union européenne avant le 2 août 2025 bénéficient d'une période de transition jusqu'au 2 août 2027.
Surveillance et gouvernance
Le règlement IA établit un cadre avec des pouvoirs de mise en œuvre et d'exécution à deux niveaux. Au niveau national, chaque État membre de l'UE doit désigner au moins une autorité de surveillance du marché et une autorité de notification d'ici le 2 août 2025. La première est responsable de la surveillance des systèmes d'IA, la seconde de la notification des organismes d'évaluation de la conformité indépendants. Les États membres doivent publier des informations sur les autorités nationales et leurs coordonnées avant la date limite. Au niveau de l'UE, l'Office européen de l'IA et le Comité européen de l'IA coordonnent la surveillance. En outre, un forum consultatif et un comité scientifique composé d'experts indépendants seront mis en place.
Qu'est-ce que cela signifie pour les services du personnel et les travailleurs ?
La loi sur l'IA a un impact direct sur la manière dont l'IA est utilisée dans les domaines du recrutement, de la gestion des performances, de l'analyse du personnel et du suivi des collaborateurs. Les responsables des ressources humaines doivent s'assurer que les outils d'IA utilisés dans ces domaines sont transparents, équitables et conformes.
- l'équité et la non-discrimination : Les systèmes d'IA utilisés pour les décisions de recrutement ou de promotion doivent être compréhensibles et exempts de biais. Les services des ressources humaines doivent régulièrement contrôler leurs outils et leurs fournisseurs afin de s'assurer de leur conformité.
- Confiance et transparence : Les collaborateurs ont un meilleur aperçu de la manière dont les systèmes d'IA influencent leur travail, par exemple pour la planification des missions, l'évaluation des performances ou la sécurité au travail. Les services des ressources humaines peuvent instaurer la confiance en communiquant ouvertement sur la manière dont l'IA est utilisée et dont les données des collaborateurs sont protégées.
- Responsabilité des fournisseurs de services tiers : Si les outils d'IA sont utilisés par des fournisseurs tiers, les départements des ressources humaines doivent s'assurer que ces fournisseurs respectent les exigences de transparence et de documentation. Les contrats et les processus d'achat doivent être adaptés en conséquence.
- Formation et gestion du changement : Avec des réglementations plus strictes en matière d'IA, le service des ressources humaines jouera un rôle clé dans la formation des cadres et des collaborateurs. L'objectif est de promouvoir une utilisation responsable de l'IA et d'ancrer des normes éthiques dans la culture d'entreprise.
"Les fournisseurs de modèles d'IGP qui étaient déjà sur le marché avant le 2 août 2025 ont jusqu'au 2 août 2027 pour se conformer pleinement aux nouvelles règles. D'autres obligations pour les systèmes d'IA à haut risque suivront en 2026 et 2027. Cette étape reflète la volonté de l'UE d'encourager l'innovation tout en veillant à ce que l'IA soit sûre, transparente et conforme aux valeurs européennes. Cela place les ressources humaines au cœur d'une introduction responsable de l'IA sur le lieu de travail", explique Tom Saeys, Chief Operations Officer chez SD Worx, un fournisseur européen de solutions RH et de gestion de la paie.
Source : SD Worx